<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Python on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/tags/python/</link><description>Recent content in Python on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Mon, 27 Apr 2026 07:00:47 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/tags/python/index.xml" rel="self" type="application/rss+xml"/><item><title>LangChain</title><link>https://javapro.svenruppert.com/langchain/</link><pubDate>Mon, 27 Apr 2026 07:00:47 +0000</pubDate><guid>https://javapro.svenruppert.com/langchain/</guid><description>&lt;p&gt;&lt;strong&gt;LangChain Requests, Prompt Tempates &amp;amp; Output Parser&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/03/lang_2-1024x585.jpg" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Unsere LLM-Serie&lt;/strong&gt; hat sich in den letzten drei Artikeln jeweils einem zentralen Thema beim programmatischen Zugriff auf Large Language Models gewidmet:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Wie kann ich via REST API Anfragen an eine LLM stellen?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST API&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Wie führe ich vollständige Chat-Verläufe mit einer LLM über den Context?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/llm-context"&gt;LLM Context&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Wie stelle ich einer LLM Funktionen zur Verfügung, damit sie bessere Antworten erzeugen kann?  Artikel &lt;strong&gt;&lt;a href="https://javapro.io/de/llm-context-und-tools"&gt;LLM Context und Tools&lt;/a&gt;&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;In all diesen Artikeln haben wir die Konzepte bewusst mit purem Python und Java implementiert – ganz ohne zusätzliche AI-Libraries. Die nächsten Artikel zeigen nun, wie sich dieselben Probleme mithilfe spezialisierter Bibliotheken eleganter und effizienter umsetzen lassen. Dieser und der nächste Artikel fokussieren sich auf die Implementierung in Python. Ein weiterer Artikel wird sich anschliessend den entsprechenden Java-Lösungen widmen.&lt;/p&gt;</description></item><item><title>LLM-Context und Tools</title><link>https://javapro.svenruppert.com/llm-context-und-tools/</link><pubDate>Mon, 12 Jan 2026 09:03:34 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context-und-tools/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/01/ollama_tools-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel (&lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;) haben wir untersucht, wie LLMs mithilfe des Contexts ganze Chat-Verläufe verarbeiten können. Doch die Möglichkeiten des Contexts gehen weit darüber hinaus. In diesem Artikel schauen wir uns an, wie wir der LLM über den Context Funktionen bereitstellen können, um qualitativ hochwertigere Antworten zu erhalten. Dieses Konzept ist bekannt als &lt;strong&gt;LLM-Context und Tools&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Code-Beispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;. Daher wäre es sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-kurzreise-nach-paris"&gt;Beispiel Kurzreise nach Paris&lt;/h2&gt;
&lt;p&gt;Wir möchten eine Kurzreise nach Paris machen und fragen uns, was wir da alles mitnehmen sollten. Im AI-Zeitalter starten wir Ollama mit dem Llama3.2-Modell und machen folgende Anfrage: &lt;strong&gt;What kind of clothes do I need for a short trip to Paris?&lt;/strong&gt;&lt;/p&gt;</description></item><item><title>LLM Context</title><link>https://javapro.svenruppert.com/llm-context/</link><pubDate>Mon, 17 Nov 2025 07:01:55 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/10/ollama_memory-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im Entwickleralltag haben wir die LLMs als Coding-Partner liebgewonnen. Man kann nicht nur einzelne Fragen an eine LLM stellen, sondern einen ganzen Chatverlauf führen. Ist die LLM so smart, dass sie mich und die vorherigen Fragen und Antworten kennt? Das Zauberwort heisst &lt;strong&gt;LLM&lt;/strong&gt; &lt;strong&gt;Context&lt;/strong&gt;. Dies wollen wir uns nun etwas genauer anschauen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Codebeispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST&lt;/a&gt;. Es ist sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;li&gt;&lt;a href="https://ollama.com"&gt;Ollama&lt;/a&gt; muss installiert sein. Mehr Informationen zur Installation gibt es im Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;Lokale LLMs&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-hauptstadt"&gt;Beispiel Hauptstadt&lt;/h2&gt;
&lt;p&gt;Wir starten mit einem Beispiel und möchten eine LLM fragen, was die Hauptstädte von Frankreich und Schweden sind. Dazu machen wir zwei Anfragen via Ollama (in Open WebUI) mit dem llama3.2 Modell.&lt;/p&gt;</description></item><item><title>Ollama Rest API</title><link>https://javapro.svenruppert.com/ollama-rest-api/</link><pubDate>Mon, 06 Oct 2025 07:00:04 +0000</pubDate><guid>https://javapro.svenruppert.com/ollama-rest-api/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/07/image_small_ollama_rest.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;In den letzten beiden Artikeln haben wir Ollama als Plattform zur Ausführung lokaler LLMs kennengelernt. Zusätzlich haben wir Open WebUI als UI für Anfragen an Ollama (in Docker) installiert. Eine Frage, die noch offen ist: wie kann Open WebUI auf Ollama zugreifen? Die Antwort ist ganz einfach: &lt;strong&gt;Ollama&lt;/strong&gt; stellt eine &lt;strong&gt;REST&lt;/strong&gt; Schnittstelle zur Verfügung, die wir uns etwas genauer anschauen wollen.&lt;/p&gt;
&lt;h2 id="dokumentation-rest-api"&gt;Dokumentation REST api&lt;/h2&gt;
&lt;p&gt;Das Ollama &lt;strong&gt;REST AP&lt;/strong&gt;I ist unter &lt;a href="https://github.com/ollama/ollama/blob/main/docs/api.md"&gt;https://github.com/ollama/ollama/blob/main/docs/api.md&lt;/a&gt; dokumentiert. Von dieser API wollen wir uns konkret anschauen, wie man eine Liste aller heruntergeladenen Ollama Modelle (LLMs) bekommt und wie man Anfragen an ein konkretes Modell machen kann.&lt;/p&gt;</description></item></channel></rss>