<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>REST on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/tags/rest/</link><description>Recent content in REST on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Mon, 12 Jan 2026 09:03:34 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/tags/rest/index.xml" rel="self" type="application/rss+xml"/><item><title>LLM-Context und Tools</title><link>https://javapro.svenruppert.com/llm-context-und-tools/</link><pubDate>Mon, 12 Jan 2026 09:03:34 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context-und-tools/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2026/01/ollama_tools-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel (&lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;) haben wir untersucht, wie LLMs mithilfe des Contexts ganze Chat-Verläufe verarbeiten können. Doch die Möglichkeiten des Contexts gehen weit darüber hinaus. In diesem Artikel schauen wir uns an, wie wir der LLM über den Context Funktionen bereitstellen können, um qualitativ hochwertigere Antworten zu erhalten. Dieses Konzept ist bekannt als &lt;strong&gt;LLM-Context und Tools&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Code-Beispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/llm-context"&gt;https://javapro.io/de/llm-context&lt;/a&gt;. Daher wäre es sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-kurzreise-nach-paris"&gt;Beispiel Kurzreise nach Paris&lt;/h2&gt;
&lt;p&gt;Wir möchten eine Kurzreise nach Paris machen und fragen uns, was wir da alles mitnehmen sollten. Im AI-Zeitalter starten wir Ollama mit dem Llama3.2-Modell und machen folgende Anfrage: &lt;strong&gt;What kind of clothes do I need for a short trip to Paris?&lt;/strong&gt;&lt;/p&gt;</description></item><item><title>LLM Context</title><link>https://javapro.svenruppert.com/llm-context/</link><pubDate>Mon, 17 Nov 2025 07:01:55 +0000</pubDate><guid>https://javapro.svenruppert.com/llm-context/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/10/ollama_memory-1024x585.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im Entwickleralltag haben wir die LLMs als Coding-Partner liebgewonnen. Man kann nicht nur einzelne Fragen an eine LLM stellen, sondern einen ganzen Chatverlauf führen. Ist die LLM so smart, dass sie mich und die vorherigen Fragen und Antworten kennt? Das Zauberwort heisst &lt;strong&gt;LLM&lt;/strong&gt; &lt;strong&gt;Context&lt;/strong&gt;. Dies wollen wir uns nun etwas genauer anschauen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Vorbemerkungen&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Die Codebeispiele basieren auf dem Wissen aus dem Artikel &lt;a href="https://javapro.io/de/ollama-rest-api"&gt;Ollama REST&lt;/a&gt;. Es ist sinnvoll, zuerst diesen zu lesen.&lt;/li&gt;
&lt;li&gt;Alle Beispiele stehen in GitHub-Repos zur Verfügung.&lt;/li&gt;
&lt;li&gt;&lt;a href="https://ollama.com"&gt;Ollama&lt;/a&gt; muss installiert sein. Mehr Informationen zur Installation gibt es im Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;Lokale LLMs&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="beispiel-hauptstadt"&gt;Beispiel Hauptstadt&lt;/h2&gt;
&lt;p&gt;Wir starten mit einem Beispiel und möchten eine LLM fragen, was die Hauptstädte von Frankreich und Schweden sind. Dazu machen wir zwei Anfragen via Ollama (in Open WebUI) mit dem llama3.2 Modell.&lt;/p&gt;</description></item><item><title>Ollama Rest API</title><link>https://javapro.svenruppert.com/ollama-rest-api/</link><pubDate>Mon, 06 Oct 2025 07:00:04 +0000</pubDate><guid>https://javapro.svenruppert.com/ollama-rest-api/</guid><description>&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/07/image_small_ollama_rest.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;In den letzten beiden Artikeln haben wir Ollama als Plattform zur Ausführung lokaler LLMs kennengelernt. Zusätzlich haben wir Open WebUI als UI für Anfragen an Ollama (in Docker) installiert. Eine Frage, die noch offen ist: wie kann Open WebUI auf Ollama zugreifen? Die Antwort ist ganz einfach: &lt;strong&gt;Ollama&lt;/strong&gt; stellt eine &lt;strong&gt;REST&lt;/strong&gt; Schnittstelle zur Verfügung, die wir uns etwas genauer anschauen wollen.&lt;/p&gt;
&lt;h2 id="dokumentation-rest-api"&gt;Dokumentation REST api&lt;/h2&gt;
&lt;p&gt;Das Ollama &lt;strong&gt;REST AP&lt;/strong&gt;I ist unter &lt;a href="https://github.com/ollama/ollama/blob/main/docs/api.md"&gt;https://github.com/ollama/ollama/blob/main/docs/api.md&lt;/a&gt; dokumentiert. Von dieser API wollen wir uns konkret anschauen, wie man eine Liste aller heruntergeladenen Ollama Modelle (LLMs) bekommt und wie man Anfragen an ein konkretes Modell machen kann.&lt;/p&gt;</description></item><item><title>Signal per SSE, Daten per REST – eine Vaadin-Demonstration in Core Java</title><link>https://javapro.svenruppert.com/signal-per-sse-daten-per-rest-eine-vaadin-demonstration-in-core-java/</link><pubDate>Wed, 03 Sep 2025 13:10:48 +0000</pubDate><guid>https://javapro.svenruppert.com/signal-per-sse-daten-per-rest-eine-vaadin-demonstration-in-core-java/</guid><description>&lt;h2 id="1-einleitung"&gt;1. Einleitung&lt;/h2&gt;
&lt;h3 id="11-motivation-ereignisgetriebene-aktualisierung-ohne-polling"&gt;1.1 Motivation: Ereignisgetriebene Aktualisierung ohne Polling&lt;/h3&gt;
&lt;p&gt;In klassischen Webanwendungen dominiert nach wie vor das Pull-Prinzip: Clients stellen wiederholt Anfragen an den Server, um Veränderungen zu erkennen. Dieses Polling ist einfach, führt aber zu unnötiger Last auf Server- und Netzwerkseite, insbesondere wenn sich der Datenbestand nur sporadisch ändert. Mit &lt;em&gt;Server-Sent Events (SSE)&lt;/em&gt; steht ein standardisiertes Verfahren zur Verfügung, mit dem der Server Änderungen aktiv an verbundene Clients signalisieren kann. Dadurch lassen sich unnötige Anfragen vermeiden, während Aktualisierungen zeitnah an die Oberfläche gelangen.&lt;/p&gt;</description></item><item><title>Mit Vaadin Flow Rest Endpoints in Core Java konsumieren</title><link>https://javapro.svenruppert.com/mit-vaadin-flow-rest-endpoints-in-core-java-konsumieren/</link><pubDate>Mon, 23 Jun 2025 22:15:03 +0000</pubDate><guid>https://javapro.svenruppert.com/mit-vaadin-flow-rest-endpoints-in-core-java-konsumieren/</guid><description>&lt;h3 id="warum-rest-integration-in-vaadin-anwendungen-kein-nachgedanke-sein-sollte"&gt;Warum REST-Integration in Vaadin-Anwendungen kein Nachgedanke sein sollte&lt;/h3&gt;
&lt;p&gt;In modernen Webanwendungen ist die Kommunikation mit externen Services längst keine Sonderfunktion mehr, sondern ein integraler Bestandteil einer dienstorientierten Architektur. Selbst wenn Vaadin Flow als UI-Framework auf serverseitige Java-Logik setzt und dadurch eine hohe Kohärenz zwischen View- und Datenmodell erreicht, entsteht schnell der Bedarf, mit Systemen außerhalb der eigenen Anwendung zu kommunizieren. Das können einfache öffentliche APIs sein – etwa zur Anzeige von Wetterdaten oder Währungsumrechnungen – ebenso wie interne Unternehmensdienste, beispielsweise zur Lizenzprüfung, Benutzerverwaltung oder der Anbindung an ein zentrales ERP-System.&lt;/p&gt;</description></item></channel></rss>