<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Docker on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/tags/docker/</link><description>Recent content in Docker on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Tue, 14 Jan 2025 18:04:38 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/tags/docker/index.xml" rel="self" type="application/rss+xml"/><item><title>Lokale LLMs</title><link>https://javapro.svenruppert.com/lokale-llms/</link><pubDate>Tue, 14 Jan 2025 18:04:38 +0000</pubDate><guid>https://javapro.svenruppert.com/lokale-llms/</guid><description>&lt;p&gt;&lt;strong&gt;mit Ollama und Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2024/12/ai_and_lama.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Seit dem kometenhaften Aufstieg von ChatGPT sind AI (Artificial Intelligence) und LLMs (Large Language Models) in aller Munde. Es gibt kaum jemanden, der ChatGPT (oder einer seiner Kollegen) nicht im beruflichen oder privaten Umfeld nutzt. Was weniger bekannt ist, dass man LLMs auch herunterladen und lokal laufen lassen kann.&lt;/p&gt;
&lt;p&gt;Diese hat folgende Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verschiedene LLMs und Versionen lassen sich flexibel testen.&lt;/li&gt;
&lt;li&gt;Da alles lokal läuft, können auch Anfragen mit geschäftsrelevanten Informationen gestellt werden, ohne dass Daten auf fremde Server gelangen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eine Möglichkeit dafür bietet das Open-Source-Projekt Ollama: Es erlaubt, kleinere LLMs herunterzuladen und direkt auf dem lokalen Rechner auszuführen. Dieser Artikel zeigt zunächst die Installation von Ollama. Anschließend wird ein benutzerfreundliches Web-UI eingerichtet, das den Zugriff auf Ollama deutlich komfortabler gestaltet.&lt;/p&gt;</description></item></channel></rss>