<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>AI &amp; ML on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/categories/ai--ml/</link><description>Recent content in AI &amp; ML on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Mon, 27 Apr 2026 07:00:47 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/categories/ai--ml/index.xml" rel="self" type="application/rss+xml"/><item><title>LangChain</title><link>https://javapro.svenruppert.com/langchain/</link><pubDate>Mon, 27 Apr 2026 07:00:47 +0000</pubDate><guid>https://javapro.svenruppert.com/langchain/</guid><description>&lt;p&gt;&lt;strong&gt;LangChain Requests, Prompt Tempates &amp;amp; Output Parser&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/03/lang_2-1024x585.jpg" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Unsere LLM-Serie&lt;/strong&gt; hat sich in den letzten drei Artikeln jeweils einem zentralen Thema beim programmatischen Zugriff auf Large Language Models gewidmet:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Wie kann ich via REST API Anfragen an eine LLM stellen?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST API&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Wie führe ich vollständige Chat-Verläufe mit einer LLM über den Context?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/llm-context"&gt;LLM Context&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Wie stelle ich einer LLM Funktionen zur Verfügung, damit sie bessere Antworten erzeugen kann?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/llm-context-und-tools"&gt;LLM Context und Tools&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;In all diesen Artikeln haben wir die Konzepte bewusst mit purem Python und Java implementiert – ganz ohne zusätzliche AI-Libraries. Die nächsten Artikel zeigen nun, wie sich dieselben Probleme mithilfe spezialisierter Bibliotheken eleganter und effizienter umsetzen lassen. Dieser und der nächste Artikel fokussieren sich auf die Implementierung in Python. Ein weiterer Artikel wird sich anschliessend den entsprechenden Java-Lösungen widmen.&lt;/p&gt;</description></item><item><title>Spec Driven Development: Warum die Zukunft der AI-gestützten Softwareentwicklung mit der Spezifikation beginnt</title><link>https://javapro.svenruppert.com/spec-driven-development-warum-die-zukunft-der-ai-gestuetzten-softwareentwicklung-mit-der-spezifikation-beginnt/</link><pubDate>Mon, 20 Apr 2026 07:04:17 +0000</pubDate><guid>https://javapro.svenruppert.com/spec-driven-development-warum-die-zukunft-der-ai-gestuetzten-softwareentwicklung-mit-der-spezifikation-beginnt/</guid><description>&lt;p&gt;Ein Entwickler baut ein neues Feature in 20 Minuten per Chat mit einem AI-Agenten. Das Ergebnis sieht gut aus, die Tests laufen durch. Drei Tage später verbringt das Team eine volle Arbeitswoche damit, die Sicherheitslücken zu fixen, die Architektur an den bestehenden Code anzupassen und die hardkodierten Credentials aus dem Repository zu entfernen. Was als Produktivitätsgewinn begann, endete als technische Schuld.&lt;/p&gt;
&lt;p&gt;Diese Geschichte wiederholt sich tausendfach in der Branche. Immer mehr Startups setzen auf überwiegend AI-generierten Code - Y Combinator berichtete, dass ein Viertel der akzeptierten Startups Codebases mit 95 Prozent AI-generiertem Code einreichten. Doch was anfangs begeistert, führt schnell zu Ernüchterung: generischer Code, schlechte Architektur, Sicherheitslücken. Spec Driven Development (SDD) verspricht einen Ausweg - indem es die Spezifikation zur &amp;ldquo;Single Source of Truth&amp;rdquo; macht, bevor eine einzige Zeile Code entsteht.&lt;/p&gt;</description></item><item><title>Großes Kino für Java-Entwickler &amp; Architekten</title><link>https://javapro.svenruppert.com/grosses-kino-fuer-java-entwickler-architekten/</link><pubDate>Wed, 08 Apr 2026 12:00:36 +0000</pubDate><guid>https://javapro.svenruppert.com/grosses-kino-fuer-java-entwickler-architekten/</guid><description>&lt;p&gt;&lt;strong&gt;JCON EUROPE 2026 | 20. bis 23. April 2026 | Cinedom in Köln&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Wer heute über moderne Softwareentwicklung spricht, spricht zwangsläufig über Java. Kaum eine Technologie prägt die Enterprise-Welt so nachhaltig – und kaum eine Community ist gleichzeitig so lebendig, vielfältig und innovationsgetrieben. Genau hier setzt die JCON an: als Treffpunkt, als Plattform und als Erlebnisraum für Entwicklerinnen und Entwickler aus der ganzen Welt. Mit Teilnehmern aus über 70 Ländern hat sich die JCON längst zu einem internationalen Treffpunkt entwickelt. Dabei bleiben &lt;strong&gt;Offenheit, Wissensaustausch und Community-Gedanke&lt;/strong&gt; zentrale Elemente.&lt;/p&gt;</description></item><item><title>DevOps-Patterns und Java 26 für On-Premises LLM-Plattformen in sicherheitskritischen Umgebungen</title><link>https://javapro.svenruppert.com/devops-patterns-und-java-26-fuer-on-premises-llm-plattformen-in-sicherheitskritischen-umgebungen/</link><pubDate>Mon, 06 Apr 2026 07:00:00 +0000</pubDate><guid>https://javapro.svenruppert.com/devops-patterns-und-java-26-fuer-on-premises-llm-plattformen-in-sicherheitskritischen-umgebungen/</guid><description>&lt;p&gt;Während die erste Welle der KI-Adoption in vielen Organisationen auf Cloud-APIs setzte, ist dieser Ansatz in sicherheitskritischen und regulierten Umgebungen häufig nicht nutzbar. Vertraulichkeitsanforderungen, Datenschutzvorgaben und der Bedarf an technisch durchsetzbaren Betriebsgrenzen stehen dem entgegen. In On-Premises-Setups erweitert sich die Architektur um zusätzliche Laufzeitkomponenten, etwa LLM-Serving, Retrieval und Wissensartefakte wie Indizes und Prompts. Der Fokus verschiebt sich damit von der reinen Modellnutzung zur Plattformfrage: Wie lassen sich Datenzugriffe und Berechtigungen entlang der Pipeline kontrollieren? Wie bleiben Änderungen an Modellen, Prompts und Indizes nachvollziehbar? Und wie lassen sich Fehlerfälle reproduzierbar eingrenzen und zurückrollen?&lt;/p&gt;</description></item><item><title>So wird JCON EUROPE 2026 zum individuellen Erlebnis</title><link>https://javapro.svenruppert.com/so-wird-jcon-europe-2026-zum-individuellen-erlebnis/</link><pubDate>Tue, 31 Mar 2026 12:01:01 +0000</pubDate><guid>https://javapro.svenruppert.com/so-wird-jcon-europe-2026-zum-individuellen-erlebnis/</guid><description>&lt;p&gt;Die &lt;strong&gt;JCON EUROPE 2026&lt;/strong&gt;, die vom &lt;strong&gt;20. bis 23. April&lt;/strong&gt; im &lt;strong&gt;Cinedom Multiplex Cinema&lt;/strong&gt; in Köln stattfindet, setzt konsequent auf ein Format, das Teilnehmern maximale Flexibilität bietet. Statt eines festen Ablaufs steht die individuelle Gestaltung der eigenen Konferenzerfahrung im Mittelpunkt.&lt;/p&gt;
&lt;p&gt;Mit einer Vielzahl an Sessions, Formaten und Austauschmöglichkeiten können Besucher selbst entscheiden, welche Inhalte, Gespräche und Kontakte für sie im Fokus stehen.&lt;/p&gt;
&lt;p&gt;Zentrale Grundlage dafür ist der &lt;strong&gt;JCON-Schedule&lt;/strong&gt;: Teilnehmer können ihre persönliche Agenda zusammenstellen, relevante &lt;strong&gt;Sessions&lt;/strong&gt; vormerken und gezielt &lt;strong&gt;1:1 Meetings&lt;/strong&gt; mit Speakern oder Ausstellern organisieren. Damit wird die Konferenz nicht nur konsumiert, sondern aktiv gesteuert – je nach individuellen Interessen, Projekten und fachlichen Schwerpunkten.&lt;/p&gt;</description></item><item><title>Wird KI mich ersetzen? Der Wert unserer Expertise im KI-Zeitalter</title><link>https://javapro.svenruppert.com/wird-ki-mich-ersetzen-der-wert-unserer-expertise-im-ki-zeitalter/</link><pubDate>Mon, 30 Mar 2026 07:00:09 +0000</pubDate><guid>https://javapro.svenruppert.com/wird-ki-mich-ersetzen-der-wert-unserer-expertise-im-ki-zeitalter/</guid><description>Wird KI Softwareentwickler ersetzen - oder nur die trivialen Teile unseres Jobs? Eine Analyse zwischen Hype, Ablehnung und echter Expertise.</description></item><item><title>Produktionsreife KI-Agenten mit Java und Spring AI entwickeln</title><link>https://javapro.svenruppert.com/produktionsreife-ki-agenten-mit-java-und-spring-ai-entwickeln/</link><pubDate>Mon, 16 Mar 2026 07:00:18 +0000</pubDate><guid>https://javapro.svenruppert.com/produktionsreife-ki-agenten-mit-java-und-spring-ai-entwickeln/</guid><description>&lt;p&gt;Java-Entwickler bauen seit Jahrzehnten Enterprise-Anwendungen, aber wenn es um KI geht, wurde die Diskussion von Python dominiert. &lt;a href="https://spring.io/projects/spring-ai"&gt;Spring AI&lt;/a&gt; ändert diese Situation. Es bringt die gleichen Muster, die wir von Spring kennen - Dependency Injection, Auto-Configuration, portable Abstraktionen - in die KI-Entwicklung.&lt;/p&gt;
&lt;p&gt;Im Januar 2026 haben wir eine Beispielanwendung für einen Agenten entwickelt und möchten unsere Erkenntnisse aus dem Entwicklungsprozess teilen. Der KI-Agent führt Konversationen mit Memory, beantwortet Fragen aus internen Knowledge Bases, nutzt externe APIs und integriert sich mit bestehenden Microservices - alles läuft auf &lt;a href="https://aws.amazon.com/bedrock/"&gt;Amazon Bedrock&lt;/a&gt;. Wenn Kunden es selbst ausprobieren möchten, führt diese den Workshop &lt;a href="https://catalog.workshops.aws/java-spring-ai-agents"&gt;Building AI Agents with Java and Spring AI&lt;/a&gt; [1] durch typische Herausforderungen von Generative AI Modellen und bietet Schritt-für-Schritt-Lösungen mit Code auf &lt;a href="https://github.com/aws-samples/java-on-aws"&gt;GitHub&lt;/a&gt; [2].&lt;/p&gt;</description></item><item><title>Beyond UML: Saubere Software-Architektur im Zeitalter von KI‑generiertem Code</title><link>https://javapro.svenruppert.com/beyond-uml-saubere-software-architektur-im-zeitalter-von-kigeneriertem-code/</link><pubDate>Mon, 02 Feb 2026 07:01:37 +0000</pubDate><guid>https://javapro.svenruppert.com/beyond-uml-saubere-software-architektur-im-zeitalter-von-kigeneriertem-code/</guid><description>&lt;h2 id="abstract"&gt;Abstract&lt;/h2&gt;
&lt;p&gt;Wir schreiben heute mehr Code in kürzerer Zeit als jemals zuvor. KI‑Systeme agieren dabei wie ständig verfügbare Juniorprogrammierer: Sie produzieren in Minuten tausende Zeilen Code – aber wer übernimmt dabei die Verantwortung für die Software-Architektur?&lt;/p&gt;
&lt;p&gt;Das eigentliche Problem ist daher oft nicht „schlechter KI‑Code“, sondern die wachsende Schwierigkeit für Menschen, den Überblick zu behalten und fundierte Architekturentscheidungen zu treffen.&lt;/p&gt;
&lt;p&gt;Dieser Artikel diskutiert eine Idee, um schnell ein mentales Modell von vorhandenem Code aufzubauen, Architekturprobleme früh zu erkennen und Änderungen gezielt vorzunehmen – ohne parallel eine statische Dokumentation pflegen zu müssen.&lt;/p&gt;</description></item><item><title>LLM-Context und Tools</title><link>https://javapro.svenruppert.com/llm-context-und-tools/</link><pubDate>Mon, 12 Jan 2026 09:03:34 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context-und-tools/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/01/ollama_tools-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel (&lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;) haben wir untersucht, wie LLMs mithilfe des Contexts ganze Chat-Verläufe verarbeiten können. Doch die Möglichkeiten des Contexts gehen weit darüber hinaus. In diesem Artikel schauen wir uns an, wie wir der LLM über den Context Funktionen bereitstellen können, um qualitativ hochwertigere Antworten zu erhalten. Dieses Konzept ist bekannt als &lt;strong&gt;LLM-Context und Tools&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Code-Beispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;. Daher wäre es sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-kurzreise-nach-paris"&gt;Beispiel Kurzreise nach Paris&lt;/h2&gt;
&lt;p&gt;Wir möchten eine Kurzreise nach Paris machen und fragen uns, was wir da alles mitnehmen sollten. Im AI-Zeitalter starten wir Ollama mit dem Llama3.2-Modell und machen folgende Anfrage: &lt;strong&gt;What kind of clothes do I need for a short trip to Paris?&lt;/strong&gt;&lt;/p&gt;</description></item><item><title>Wenn Entwickler auf Designer treffen: Erkenntnisse aus Vibe Coding und der Kunst des kreativen Ausdrucks</title><link>https://javapro.svenruppert.com/wenn-entwickler-auf-designer-treffen-erkenntnisse-aus-vibe-coding-und-der-kunst-des-kreativen-ausdrucks/</link><pubDate>Mon, 05 Jan 2026 07:00:36 +0000</pubDate><guid>https://javapro.svenruppert.com/wenn-entwickler-auf-designer-treffen-erkenntnisse-aus-vibe-coding-und-der-kunst-des-kreativen-ausdrucks/</guid><description>&lt;p&gt;Hast du dich jemals gefragt, was passiert, wenn man Klimadaten, künstliche Intelligenz und eine Gruppe kreativer Menschen zusammenbringt? Ich habe es kürzlich bei einem &lt;strong&gt;„Future Fridays”&lt;/strong&gt;-Workshop herausgefunden, einer Zusammenarbeit zwischen infogr8 und der Data Visualization Society. Das Ziel war es, mit KI-gestütztem Creative Coding zu experimentieren, um Klimadaten zu visualisieren.&lt;/p&gt;
&lt;p&gt;Es war eine faszinierende Erfahrung, bei der Datenkreative und Designer – zusammen mit einigen Entwicklerinnen – zusammenkamen. Wir wollten Visualisierungen erstellen, die nicht nur Zahlen anzeigen, sondern tatsächlich Emotionen wecken und zum Handeln anregen. In diesem Artikel zeige ich dir, was ich darüber gelernt habe, wie man Daten zum Leben erweckt, und warum du als Entwickler dich für KI-gestütztes Codieren interessieren solltest.&lt;/p&gt;</description></item><item><title>Automatisierung der JVM Thread-Dump-Analyse mit KI: Praktische Observability für Java auf Amazon ECS und EKS</title><link>https://javapro.svenruppert.com/automatisierung-der-jvm-thread-dump-analyse-mit-ki-praktische-observability-fuer-java-auf-amazon-ecs-und-eks/</link><pubDate>Mon, 29 Dec 2025 07:01:16 +0000</pubDate><guid>https://javapro.svenruppert.com/automatisierung-der-jvm-thread-dump-analyse-mit-ki-praktische-observability-fuer-java-auf-amazon-ecs-und-eks/</guid><description>&lt;p&gt;Angenommen, wir haben folgendes Szenario: Ein Java-Service, der gestern noch einwandfrei funktionierte, konsumiert plötzlich 90% der CPU-Leistung und reagiert kaum noch auf Benutzeranfragen. Anwender erleben Timeouts, und das Operations-Team steht unter Druck, den Vorfall umgehend zu analysieren. In solchen Situationen – ob die Anwendung “blockiert” wirkt oder CPU-Sättigung aufgetreten ist – ist eines der leistungsfähigsten Diagnosewerkzeuge der Thread-Dump. Ein Thread-Dump erfasst den Zustand aller JVM-Threads zu einem bestimmten Zeitpunkt und zeigt Ausführungszustände, Stack-Traces und Lock-Contention – das Rohmaterial, das benötigt wird, um zu verstehen, was die Laufzeitumgebung tatsächlich tut.&lt;/p&gt;</description></item><item><title>Code. Collaboration. Community.</title><link>https://javapro.svenruppert.com/2-2/</link><pubDate>Mon, 01 Dec 2025 07:01:12 +0000</pubDate><guid>https://javapro.svenruppert.com/2-2/</guid><description>&lt;h3 id="jcon-usa--ibm-techxchange-2025--wo-der-java-spirit-in-orlando-ein-neues-zuhause-fand"&gt;JCON USA @ IBM TechXchange 2025 – wo der Java-Spirit in Orlando ein neues Zuhause fand&lt;/h3&gt;
&lt;p&gt;Als das JCON-Team ankündigte, seine etablierte Java-Konferenzreihe über den Atlantik zu bringen, waren die Erwartungen hoch. JCON Europe gilt seit Jahren als Pflichttermin für Java-Entwickler – lebendig, technisch anspruchsvoll und stark community-getrieben. Die erste US-Ausgabe, &lt;strong&gt;JCON USA @ IBM TechXchange 2025&lt;/strong&gt;, erfüllte diese Erwartungen nicht nur, sondern übertraf sie. Entwickler aus aller Welt kamen nach Orlando zusammen, um drei Tage lang Java in all seinen Facetten zu feiern.&lt;/p&gt;</description></item><item><title>LLM Context</title><link>https://javapro.svenruppert.com/llm-context/</link><pubDate>Mon, 17 Nov 2025 07:01:55 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/10/ollama_memory-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im Entwickleralltag haben wir die LLMs als Coding-Partner liebgewonnen. Man kann nicht nur einzelne Fragen an eine LLM stellen, sondern einen ganzen Chatverlauf führen. Ist die LLM so smart, dass sie mich und die vorherigen Fragen und Antworten kennt? Das Zauberwort heisst &lt;strong&gt;LLM&lt;/strong&gt; &lt;strong&gt;Context&lt;/strong&gt;. Dies wollen wir uns nun etwas genauer anschauen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Codebeispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST&lt;/a&gt;. Es ist sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;li&gt;&lt;a href="https://ollama.com"&gt;Ollama&lt;/a&gt; muss installiert sein. Mehr Informationen zur Installation gibt es im Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;Lokale LLMs&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-hauptstadt"&gt;Beispiel Hauptstadt&lt;/h2&gt;
&lt;p&gt;Wir starten mit einem Beispiel und möchten eine LLM fragen, was die Hauptstädte von Frankreich und Schweden sind. Dazu machen wir zwei Anfragen via Ollama (in Open WebUI) mit dem llama3.2 Modell.&lt;/p&gt;</description></item><item><title>KI-gesteuertes Reverse Engineering von Java-Anwendungen</title><link>https://javapro.svenruppert.com/ki-gesteuertes-reverse-engineering-von-java-anwendungen/</link><pubDate>Mon, 27 Oct 2025 07:01:05 +0000</pubDate><guid>https://javapro.svenruppert.com/ki-gesteuertes-reverse-engineering-von-java-anwendungen/</guid><description>&lt;p&gt;Es ist keine ungewöhnliche Aufgabe, die internen Abläufe eines bestehenden Java-Projekts zu verstehen, egal ob es proprietär oder Open Source ist. Dies kann von einfachen Aufgaben wie dem Dekompilieren und Überprüfen des Quellcodes einer vorhandenen Bibliothek bis hin zum Verständnis der Architektur, Erstellung und Bereitstellung einer großen Codebasis reichen. In vielen Fällen suchen Entwickler nach einer geeigneten Dokumentation, die die im Zielprojekt implementierten Konzepte detailliert und anhand von Beispielen beschreibt, doch häufig fehlt eine solche Dokumentation schlichtweg. Für die Dekompilierung gibt es Tools wie JD oder IDE-spezifische Decompiler-Plugins, die diese Aufgabe sofort erledigen. Betrachten wir jedoch den Fall eines völlig neuen und unbekannten Code-Repositorys, gibt es eine Reihe von Dingen, mit denen wir in der Regel beginnen, um dessen Struktur zu verstehen:&lt;/p&gt;</description></item><item><title>Ollama Rest API</title><link>https://javapro.svenruppert.com/ollama-rest-api/</link><pubDate>Mon, 06 Oct 2025 07:00:04 +0000</pubDate><guid>https://javapro.svenruppert.com/ollama-rest-api/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/07/image_small_ollama_rest.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;In den letzten beiden Artikeln haben wir Ollama als Plattform zur Ausführung lokaler LLMs kennengelernt. Zusätzlich haben wir Open WebUI als UI für Anfragen an Ollama (in Docker) installiert. Eine Frage, die noch offen ist: wie kann Open WebUI auf Ollama zugreifen? Die Antwort ist ganz einfach: &lt;strong&gt;Ollama&lt;/strong&gt; stellt eine &lt;strong&gt;REST&lt;/strong&gt; Schnittstelle zur Verfügung, die wir uns etwas genauer anschauen wollen.&lt;/p&gt;
&lt;h2 id="dokumentation-rest-api"&gt;Dokumentation REST api&lt;/h2&gt;
&lt;p&gt;Das Ollama &lt;strong&gt;REST AP&lt;/strong&gt;I ist unter &lt;a href="https://github.com/ollama/ollama/blob/main/docs/api.md"&gt;https://github.com/ollama/ollama/blob/main/docs/api.md&lt;/a&gt; dokumentiert. Von dieser API wollen wir uns konkret anschauen, wie man eine Liste aller heruntergeladenen Ollama Modelle (LLMs) bekommt und wie man Anfragen an ein konkretes Modell machen kann.&lt;/p&gt;</description></item><item><title>Kino, Code, Community: Die JCON EUROPE 2025 setzt neue Maßstäbe für Java-Events</title><link>https://javapro.svenruppert.com/kino-code-community-die-jcon-europe-2025-setzt-neue-massstaebe-fuer-java-events/</link><pubDate>Fri, 30 May 2025 08:40:10 +0000</pubDate><guid>https://javapro.svenruppert.com/kino-code-community-die-jcon-europe-2025-setzt-neue-massstaebe-fuer-java-events/</guid><description>&lt;p&gt;Von praxisnahen Workshops über Live-Coding im Kinosaal bis zur Mentoring-Revolution – die JCON EUROPE 2025 in Köln war ein Fest für Java-Fans aus aller Welt.&lt;/p&gt;
&lt;h2 id="ein-globales-treffen-der-java-community"&gt;Ein globales Treffen der Java Community&lt;/h2&gt;
&lt;p&gt;Vom 12. bis 15. Mai 2025 wurde Köln zum Epizentrum der internationalen Java-Community. Zur zehnten Ausgabe der JCON EUROPE pilgerten Entwickler aus über 60 Ländern und fünf Kontinenten in den Cinedom, um gemeinsam &lt;strong&gt;30 Jahre Java&lt;/strong&gt; zu feiern. Die Stimmung? Euphorisch, gemeinschaftlich – und immer mit einer Prise Humor.&lt;/p&gt;</description></item><item><title>Vektor-Embedding in Java-Anwendungen: Gen-AI-Funktionen direkt aus der Datenbank</title><link>https://javapro.svenruppert.com/vektor-embedding-in-java-anwendungen-genai-funktionen-direkt-aus-der-datenbank/</link><pubDate>Tue, 06 May 2025 12:01:21 +0000</pubDate><guid>https://javapro.svenruppert.com/vektor-embedding-in-java-anwendungen-genai-funktionen-direkt-aus-der-datenbank/</guid><description>&lt;p&gt;Generative KI (GenAI) hat sich in den vergangenen Jahren rasant weiterentwickelt und findet zunehmend Einzug in die praktische Softwareentwicklung. Was früher als Forschungsfeld galt, wird heute zum Werkzeug für den Entwickleralltag – auch im Java-Umfeld. Eine Schlüsselrolle spielen dabei Vektor-Embeddings: Sie ermöglichen Funktionen wie semantische Suche, Textklassifikation oder Empfehlungssysteme und eröffnen damit völlig neue Anwendungsmöglichkeiten.&lt;/p&gt;
&lt;p&gt;Doch wie lassen sich diese Technologien in bestehende Java-Anwendungen einbinden, ohne dass komplexe Frameworks oder externe Cloud-Dienste notwendig werden?&lt;/p&gt;</description></item><item><title>KI-Tools für Jakarta EE</title><link>https://javapro.svenruppert.com/ki-tools-fuer-jakarta-ee/</link><pubDate>Mon, 05 May 2025 07:04:10 +0000</pubDate><guid>https://javapro.svenruppert.com/ki-tools-fuer-jakarta-ee/</guid><description>&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=sdppIrhwbKk&amp;amp;list=PLFeSAZzYdUodZjQy6a3pCBl43UUem8_E3&amp;amp;index=16"&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/04/Magazin-Artikel-Banner-2-1024x214.jpg" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Künstliche Intelligenz (KI) verändert die Welt der Softwareentwicklung, und so auch Jakarta EE. In der Vergangenheit verließen sich Entwickler bei der Erstellung von Anwendungen auf Projektgeneratoren, visuelle Gestalter und IDE-Autovervollständigung. Es mangelte diesen Instrumenten jedoch häufig an Anpassungsfähigkeit, Kontextbewusstsein und Effizienz. Dank KI-gestützter Tools wie &lt;strong&gt;Payara Starter&lt;/strong&gt; und &lt;strong&gt;Jeddict AI Assistant&lt;/strong&gt; sind diese Einschränkungen jetzt kein Problem mehr; sie beschleunigen außerdem Entwicklungsabläufe und ermöglichen es Entwicklern, sich auf Innovationen zu konzentrieren. In diesem Artikel wird anhand einer Konferenzanwendung als praktisches Beispiel untersucht, wie diese Werkzeuge die Entwicklung von Jakarta EE verbessern. Darüber hinaus werden zukünftige Möglichkeiten erörtert, darunter in Payara Server integrierte KI-Assistenten für die Einrichtung und Diagnose von Servern. &lt;/p&gt;</description></item><item><title>Entwicklung von KI-Anwendungen mit Spring AI</title><link>https://javapro.svenruppert.com/entwicklung-von-ki-anwendungen-mit-spring-ai/</link><pubDate>Wed, 16 Apr 2025 07:01:07 +0000</pubDate><guid>https://javapro.svenruppert.com/entwicklung-von-ki-anwendungen-mit-spring-ai/</guid><description>&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=PEDJ_8TXMSU&amp;amp;list=PLFeSAZzYdUodZjQy6a3pCBl43UUem8_E3&amp;amp;index=13"&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/04/Magazin-Artikel-Banner-2-1024x214.jpg" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Künstliche Intelligenz (KI) wird für moderne Anwendungen immer wichtiger. Während KI unterschiedliche Technologien umfasst, ist der Fokus derzeit aufgrund der jüngsten Fortschritte bei großen Sprachmodellen (LLMs) auf Generative KI (GenAI).&lt;br&gt;
&lt;br&gt;
Traditionell ist Python die dominierende Sprache für KI. Doch für Java-Entwickler, die Generative KI nutzen möchten, bietet das Spring AI Projekt eine attraktive Alternative. Es vereinfacht die Entwicklung von KI-gestützten Enterprise-Anwendungen erheblich und ermöglicht es, so mit der rasant fortschreitenden KI-Landschaft Schritt zu halten.&lt;br&gt;
&lt;br&gt;
Spring AI abstrahiert komplexe Interaktionen mit verschiedenen KI-Anbietern, die REST APIs bereitstellen, darunter OpenAI, Anthropic, Microsoft, Google, Amazon und sogar lokalen LLMs. Durch diese Abstraktionen ist ein einfacher Wechsel zwischen verschiedenen Modellen möglich, gleichzeitig ist aber, wie in Spring üblich, gewährleistet, auf spezifische Funktionen und Konfigurationen einzelner Modelle zugreifen zu können.&lt;br&gt;
&lt;br&gt;
Das Framework bietet eine Vielzahl an Funktionen, wie die Konvertierung von Modellausgaben in Java Objekte, Multimodalität, KI-bezogene Observability und Testunterstützung zur Bewertung von Modellausgaben, bereit.&lt;br&gt;
&lt;br&gt;
Darüber hinaus unterstützt Spring AI fortgeschrittene Techniken wie Tool Calling, Retrieval-Augmented Generation (RAG) und das Model Context Protocol (MCP), um den Kontext von LLMs anzureichern.&lt;br&gt;
&lt;br&gt;
Spring AI baut auf den Kernfunktionalitäten des Spring Frameworks und weiteren Spring Projekten wie Spring Data zur Integration von Vektor-Datenbanken auf. Durch die automatische Konfiguration von Spring Boot, wird die Entwicklung von KI-gestützten Funktionen erheblich vereinfacht und beschleunigt.\&lt;/p&gt;</description></item><item><title>Remote LLMs</title><link>https://javapro.svenruppert.com/remote-llms/</link><pubDate>Wed, 09 Apr 2025 07:02:56 +0000</pubDate><guid>https://javapro.svenruppert.com/remote-llms/</guid><description>&lt;p&gt;&lt;strong&gt;und die Integration in Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/02/image_remote_llm.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;https://javapro.io/de/lokale-llms&lt;/a&gt; haben wir gezeigt, wie man über Ollama lokal LLMs ausführt und Open WebUI als komfortables Interface für Anfragen an diese LLMs in Docker einrichtet. Außerdem wurde erläutert, wie sich OpenAI (also ChatGPT) in Open WebUI einbinden lässt.&lt;/p&gt;
&lt;p&gt;In diesem Artikel geht es nun darum, wie sich die Claude-LLMs von Anthropic sowie Gemini von Google in Open WebUI integrieren lassen.&lt;/p&gt;
&lt;p&gt;Zum Start eine kleine Vorbemerkung: Claude und Gemini werden nur in WebUI integriert, laufen aber selber nicht lokal. Und Anfragen sind (ähnlich wie bei OpenAI) kostenpflichtig.&lt;/p&gt;</description></item><item><title>Lokale LLMs</title><link>https://javapro.svenruppert.com/lokale-llms/</link><pubDate>Tue, 14 Jan 2025 18:04:38 +0000</pubDate><guid>https://javapro.svenruppert.com/lokale-llms/</guid><description>&lt;p&gt;&lt;strong&gt;mit Ollama und Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2024/12/ai_and_lama.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Seit dem kometenhaften Aufstieg von ChatGPT sind AI (Artificial Intelligence) und LLMs (Large Language Models) in aller Munde. Es gibt kaum jemanden, der ChatGPT (oder einer seiner Kollegen) nicht im beruflichen oder privaten Umfeld nutzt. Was weniger bekannt ist, dass man LLMs auch herunterladen und lokal laufen lassen kann.&lt;/p&gt;
&lt;p&gt;Diese hat folgende Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verschiedene LLMs und Versionen lassen sich flexibel testen.&lt;/li&gt;
&lt;li&gt;Da alles lokal läuft, können auch Anfragen mit geschäftsrelevanten Informationen gestellt werden, ohne dass Daten auf fremde Server gelangen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eine Möglichkeit dafür bietet das Open-Source-Projekt Ollama: Es erlaubt, kleinere LLMs herunterzuladen und direkt auf dem lokalen Rechner auszuführen. Dieser Artikel zeigt zunächst die Installation von Ollama. Anschließend wird ein benutzerfreundliches Web-UI eingerichtet, das den Zugriff auf Ollama deutlich komfortabler gestaltet.&lt;/p&gt;</description></item></channel></rss>