<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Jean-Claude Brantschen on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/authors/jean-claude-brantschen/</link><description>Recent content in Jean-Claude Brantschen on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Mon, 27 Apr 2026 07:00:47 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/authors/jean-claude-brantschen/index.xml" rel="self" type="application/rss+xml"/><item><title>LangChain</title><link>https://javapro.svenruppert.com/langchain/</link><pubDate>Mon, 27 Apr 2026 07:00:47 +0000</pubDate><guid>https://javapro.svenruppert.com/langchain/</guid><description>&lt;p&gt;&lt;strong&gt;LangChain Requests, Prompt Tempates &amp;amp; Output Parser&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/03/lang_2-1024x585.jpg" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Unsere LLM-Serie&lt;/strong&gt; hat sich in den letzten drei Artikeln jeweils einem zentralen Thema beim programmatischen Zugriff auf Large Language Models gewidmet:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Wie kann ich via REST API Anfragen an eine LLM stellen?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST API&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Wie führe ich vollständige Chat-Verläufe mit einer LLM über den Context?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/llm-context"&gt;LLM Context&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Wie stelle ich einer LLM Funktionen zur Verfügung, damit sie bessere Antworten erzeugen kann?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/llm-context-und-tools"&gt;LLM Context und Tools&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;In all diesen Artikeln haben wir die Konzepte bewusst mit purem Python und Java implementiert – ganz ohne zusätzliche AI-Libraries. Die nächsten Artikel zeigen nun, wie sich dieselben Probleme mithilfe spezialisierter Bibliotheken eleganter und effizienter umsetzen lassen. Dieser und der nächste Artikel fokussieren sich auf die Implementierung in Python. Ein weiterer Artikel wird sich anschliessend den entsprechenden Java-Lösungen widmen.&lt;/p&gt;</description></item><item><title>LLM-Context und Tools</title><link>https://javapro.svenruppert.com/llm-context-und-tools/</link><pubDate>Mon, 12 Jan 2026 09:03:34 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context-und-tools/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/01/ollama_tools-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel (&lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;) haben wir untersucht, wie LLMs mithilfe des Contexts ganze Chat-Verläufe verarbeiten können. Doch die Möglichkeiten des Contexts gehen weit darüber hinaus. In diesem Artikel schauen wir uns an, wie wir der LLM über den Context Funktionen bereitstellen können, um qualitativ hochwertigere Antworten zu erhalten. Dieses Konzept ist bekannt als &lt;strong&gt;LLM-Context und Tools&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Code-Beispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;. Daher wäre es sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-kurzreise-nach-paris"&gt;Beispiel Kurzreise nach Paris&lt;/h2&gt;
&lt;p&gt;Wir möchten eine Kurzreise nach Paris machen und fragen uns, was wir da alles mitnehmen sollten. Im AI-Zeitalter starten wir Ollama mit dem Llama3.2-Modell und machen folgende Anfrage: &lt;strong&gt;What kind of clothes do I need for a short trip to Paris?&lt;/strong&gt;&lt;/p&gt;</description></item><item><title>LLM Context</title><link>https://javapro.svenruppert.com/llm-context/</link><pubDate>Mon, 17 Nov 2025 07:01:55 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/10/ollama_memory-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im Entwickleralltag haben wir die LLMs als Coding-Partner liebgewonnen. Man kann nicht nur einzelne Fragen an eine LLM stellen, sondern einen ganzen Chatverlauf führen. Ist die LLM so smart, dass sie mich und die vorherigen Fragen und Antworten kennt? Das Zauberwort heisst &lt;strong&gt;LLM&lt;/strong&gt; &lt;strong&gt;Context&lt;/strong&gt;. Dies wollen wir uns nun etwas genauer anschauen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Codebeispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST&lt;/a&gt;. Es ist sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;li&gt;&lt;a href="https://ollama.com"&gt;Ollama&lt;/a&gt; muss installiert sein. Mehr Informationen zur Installation gibt es im Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;Lokale LLMs&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-hauptstadt"&gt;Beispiel Hauptstadt&lt;/h2&gt;
&lt;p&gt;Wir starten mit einem Beispiel und möchten eine LLM fragen, was die Hauptstädte von Frankreich und Schweden sind. Dazu machen wir zwei Anfragen via Ollama (in Open WebUI) mit dem llama3.2 Modell.&lt;/p&gt;</description></item><item><title>Ollama Rest API</title><link>https://javapro.svenruppert.com/ollama-rest-api/</link><pubDate>Mon, 06 Oct 2025 07:00:04 +0000</pubDate><guid>https://javapro.svenruppert.com/ollama-rest-api/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/07/image_small_ollama_rest.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;In den letzten beiden Artikeln haben wir Ollama als Plattform zur Ausführung lokaler LLMs kennengelernt. Zusätzlich haben wir Open WebUI als UI für Anfragen an Ollama (in Docker) installiert. Eine Frage, die noch offen ist: wie kann Open WebUI auf Ollama zugreifen? Die Antwort ist ganz einfach: &lt;strong&gt;Ollama&lt;/strong&gt; stellt eine &lt;strong&gt;REST&lt;/strong&gt; Schnittstelle zur Verfügung, die wir uns etwas genauer anschauen wollen.&lt;/p&gt;
&lt;h2 id="dokumentation-rest-api"&gt;Dokumentation REST api&lt;/h2&gt;
&lt;p&gt;Das Ollama &lt;strong&gt;REST AP&lt;/strong&gt;I ist unter &lt;a href="https://github.com/ollama/ollama/blob/main/docs/api.md"&gt;https://github.com/ollama/ollama/blob/main/docs/api.md&lt;/a&gt; dokumentiert. Von dieser API wollen wir uns konkret anschauen, wie man eine Liste aller heruntergeladenen Ollama Modelle (LLMs) bekommt und wie man Anfragen an ein konkretes Modell machen kann.&lt;/p&gt;</description></item><item><title>Remote LLMs</title><link>https://javapro.svenruppert.com/remote-llms/</link><pubDate>Wed, 09 Apr 2025 07:02:56 +0000</pubDate><guid>https://javapro.svenruppert.com/remote-llms/</guid><description>&lt;p&gt;&lt;strong&gt;und die Integration in Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/02/image_remote_llm.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;https://javapro.io/de/lokale-llms&lt;/a&gt; haben wir gezeigt, wie man über Ollama lokal LLMs ausführt und Open WebUI als komfortables Interface für Anfragen an diese LLMs in Docker einrichtet. Außerdem wurde erläutert, wie sich OpenAI (also ChatGPT) in Open WebUI einbinden lässt.&lt;/p&gt;
&lt;p&gt;In diesem Artikel geht es nun darum, wie sich die Claude-LLMs von Anthropic sowie Gemini von Google in Open WebUI integrieren lassen.&lt;/p&gt;
&lt;p&gt;Zum Start eine kleine Vorbemerkung: Claude und Gemini werden nur in WebUI integriert, laufen aber selber nicht lokal. Und Anfragen sind (ähnlich wie bei OpenAI) kostenpflichtig.&lt;/p&gt;</description></item><item><title>Lokale LLMs</title><link>https://javapro.svenruppert.com/lokale-llms/</link><pubDate>Tue, 14 Jan 2025 18:04:38 +0000</pubDate><guid>https://javapro.svenruppert.com/lokale-llms/</guid><description>&lt;p&gt;&lt;strong&gt;mit Ollama und Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2024/12/ai_and_lama.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Seit dem kometenhaften Aufstieg von ChatGPT sind AI (Artificial Intelligence) und LLMs (Large Language Models) in aller Munde. Es gibt kaum jemanden, der ChatGPT (oder einer seiner Kollegen) nicht im beruflichen oder privaten Umfeld nutzt. Was weniger bekannt ist, dass man LLMs auch herunterladen und lokal laufen lassen kann.&lt;/p&gt;
&lt;p&gt;Diese hat folgende Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verschiedene LLMs und Versionen lassen sich flexibel testen.&lt;/li&gt;
&lt;li&gt;Da alles lokal läuft, können auch Anfragen mit geschäftsrelevanten Informationen gestellt werden, ohne dass Daten auf fremde Server gelangen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eine Möglichkeit dafür bietet das Open-Source-Projekt Ollama: Es erlaubt, kleinere LLMs herunterzuladen und direkt auf dem lokalen Rechner auszuführen. Dieser Artikel zeigt zunächst die Installation von Ollama. Anschließend wird ein benutzerfreundliches Web-UI eingerichtet, das den Zugriff auf Ollama deutlich komfortabler gestaltet.&lt;/p&gt;</description></item></channel></rss>