<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/tags/llm/</link><description>Recent content in LLM on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Mon, 06 Apr 2026 07:00:00 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>DevOps-Patterns und Java 26 für On-Premises LLM-Plattformen in sicherheitskritischen Umgebungen</title><link>https://javapro.svenruppert.com/devops-patterns-und-java-26-fuer-on-premises-llm-plattformen-in-sicherheitskritischen-umgebungen/</link><pubDate>Mon, 06 Apr 2026 07:00:00 +0000</pubDate><guid>https://javapro.svenruppert.com/devops-patterns-und-java-26-fuer-on-premises-llm-plattformen-in-sicherheitskritischen-umgebungen/</guid><description>&lt;p&gt;Während die erste Welle der KI-Adoption in vielen Organisationen auf Cloud-APIs setzte, ist dieser Ansatz in sicherheitskritischen und regulierten Umgebungen häufig nicht nutzbar. Vertraulichkeitsanforderungen, Datenschutzvorgaben und der Bedarf an technisch durchsetzbaren Betriebsgrenzen stehen dem entgegen. In On-Premises-Setups erweitert sich die Architektur um zusätzliche Laufzeitkomponenten, etwa LLM-Serving, Retrieval und Wissensartefakte wie Indizes und Prompts. Der Fokus verschiebt sich damit von der reinen Modellnutzung zur Plattformfrage: Wie lassen sich Datenzugriffe und Berechtigungen entlang der Pipeline kontrollieren? Wie bleiben Änderungen an Modellen, Prompts und Indizes nachvollziehbar? Und wie lassen sich Fehlerfälle reproduzierbar eingrenzen und zurückrollen?&lt;/p&gt;</description></item><item><title>Lokale KI mit Java: AI-Integration ohne Cloud-Abhängigkeit</title><link>https://javapro.svenruppert.com/lokale-ki-mit-java-ai-integration-ohne-cloud-abhaengigkeit/</link><pubDate>Fri, 02 May 2025 07:02:10 +0000</pubDate><guid>https://javapro.svenruppert.com/lokale-ki-mit-java-ai-integration-ohne-cloud-abhaengigkeit/</guid><description>&lt;p&gt;Die Zukunft der Künstlichen Intelligenz ist lokal. Immer mehr Unternehmen setzen auf lokale AI-Modelle, um Datenschutz, Offline-Fähigkeit und Unabhängigkeit von Cloud-Anbietern sicherzustellen. Auf der &lt;a href="https://2025.europe.jcon.one/"&gt;JCON EUROPE 2025&lt;/a&gt; vermittelt der zweistündige &amp;ldquo;&lt;a href="https://schedule.jcon.one/session/894517"&gt;AI-based optimization in expedition planning-a practice-oriented worksho&lt;/a&gt;&lt;a href="https://schedule.jcon.one/schedule?selectedSession=894517"&gt;p&lt;/a&gt;&amp;rdquo; mit Sven Ruppert, wie sich genau das in Java umsetzen lässt: hochperformante, datenschutzfreundliche AI-Features – direkt in der eigenen Anwendung, ganz ohne Cloud-Dienste.&lt;/p&gt;
&lt;h2 id="fokus-auf-das-open-source-projekt-expedition-planner"&gt;Fokus auf das Open-Source-Projekt „Expedition Planner“&lt;/h2&gt;
&lt;p&gt;Im Mittelpunkt steht das Open-Source-Projekt &lt;strong&gt;„Expedition Planner“&lt;/strong&gt;, eine Java-basierte Webanwendung zur Planung und Organisation von Expeditionen. Doch hier geht es nicht um Theorie: Die Teilnehmenden arbeiten an realen Use Cases und integrieren lokale AI-Modelle mit &lt;strong&gt;Ollama&lt;/strong&gt;, nutzen &lt;strong&gt;Langchain4j&lt;/strong&gt; und &lt;strong&gt;Retrieval Augmented Generation (RAG)&lt;/strong&gt;, um Aufgabenplanung und Materiallisten intelligent zu optimieren.&lt;/p&gt;</description></item><item><title>Gen-AI mit Java: In zwei Stunden zum intelligenten Chat-Assistenten</title><link>https://javapro.svenruppert.com/genai-mit-java-in-zwei-stunden-zum-intelligenten-chat-assistenten/</link><pubDate>Wed, 30 Apr 2025 12:00:16 +0000</pubDate><guid>https://javapro.svenruppert.com/genai-mit-java-in-zwei-stunden-zum-intelligenten-chat-assistenten/</guid><description>&lt;p&gt;Generative KI ist längst nicht mehr nur ein Thema für Forschungslabore – sie ist einsatzbereit für reale Anwendungen. Auf der &lt;strong&gt;&lt;a href="https://2025.europe.jcon.one/"&gt;JCON EUROPE 2025&lt;/a&gt;&lt;/strong&gt; erhalten Java-Entwickler die Möglichkeit, genau das zu erleben: In einem zweistündigen Workshop wird gezeigt, wie sich mit &lt;strong&gt;Helidon&lt;/strong&gt; und &lt;strong&gt;LangChain4J&lt;/strong&gt; ein intelligenter Chat-Assistent von Grund auf umsetzen lässt – praxisnah, produktionsreif und Java-first.&lt;/p&gt;
&lt;h2 id="von-der-idee-zur-lauffähigen-anwendung"&gt;Von der Idee zur lauffähigen Anwendung&lt;/h2&gt;
&lt;p&gt;Im Fokus der Hands-on-Session &amp;ldquo;&lt;a href="https://schedule.jcon.one/session/896438"&gt;Build an AI-Powered Application with Helidon and LangChain4J&lt;/a&gt;&amp;rdquo; steht der direkte Einstieg in die Entwicklung: keine Folien, keine Theorie – sondern konkreter Code, moderne Tools und nachvollziehbare Architekturen. Ziel ist es, einen funktionalen GenAI-gestützten Chat-Assistenten zu erstellen, der nicht nur demonstrierbar, sondern auch ausbaufähig für reale Projekte ist.&lt;/p&gt;</description></item><item><title>Remote LLMs</title><link>https://javapro.svenruppert.com/remote-llms/</link><pubDate>Wed, 09 Apr 2025 07:02:56 +0000</pubDate><guid>https://javapro.svenruppert.com/remote-llms/</guid><description>&lt;p&gt;&lt;strong&gt;und die Integration in Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/02/image_remote_llm.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Im letzten Artikel &lt;a href="https://javapro.io/de/lokale-llms"&gt;https://javapro.io/de/lokale-llms&lt;/a&gt; haben wir gezeigt, wie man über Ollama lokal LLMs ausführt und Open WebUI als komfortables Interface für Anfragen an diese LLMs in Docker einrichtet. Außerdem wurde erläutert, wie sich OpenAI (also ChatGPT) in Open WebUI einbinden lässt.&lt;/p&gt;
&lt;p&gt;In diesem Artikel geht es nun darum, wie sich die Claude-LLMs von Anthropic sowie Gemini von Google in Open WebUI integrieren lassen.&lt;/p&gt;
&lt;p&gt;Zum Start eine kleine Vorbemerkung: Claude und Gemini werden nur in WebUI integriert, laufen aber selber nicht lokal. Und Anfragen sind (ähnlich wie bei OpenAI) kostenpflichtig.&lt;/p&gt;</description></item><item><title>Lokale LLMs</title><link>https://javapro.svenruppert.com/lokale-llms/</link><pubDate>Tue, 14 Jan 2025 18:04:38 +0000</pubDate><guid>https://javapro.svenruppert.com/lokale-llms/</guid><description>&lt;p&gt;&lt;strong&gt;mit Ollama und Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2024/12/ai_and_lama.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Seit dem kometenhaften Aufstieg von ChatGPT sind AI (Artificial Intelligence) und LLMs (Large Language Models) in aller Munde. Es gibt kaum jemanden, der ChatGPT (oder einer seiner Kollegen) nicht im beruflichen oder privaten Umfeld nutzt. Was weniger bekannt ist, dass man LLMs auch herunterladen und lokal laufen lassen kann.&lt;/p&gt;
&lt;p&gt;Diese hat folgende Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verschiedene LLMs und Versionen lassen sich flexibel testen.&lt;/li&gt;
&lt;li&gt;Da alles lokal läuft, können auch Anfragen mit geschäftsrelevanten Informationen gestellt werden, ohne dass Daten auf fremde Server gelangen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eine Möglichkeit dafür bietet das Open-Source-Projekt Ollama: Es erlaubt, kleinere LLMs herunterzuladen und direkt auf dem lokalen Rechner auszuführen. Dieser Artikel zeigt zunächst die Installation von Ollama. Anschließend wird ein benutzerfreundliches Web-UI eingerichtet, das den Zugriff auf Ollama deutlich komfortabler gestaltet.&lt;/p&gt;</description></item></channel></rss>