<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Performance on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/tags/performance/</link><description>Recent content in Performance on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Mon, 26 Jan 2026 07:03:43 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/tags/performance/index.xml" rel="self" type="application/rss+xml"/><item><title>1BRC - Die ersten 80% Performance</title><link>https://javapro.svenruppert.com/1brc-die-ersten-80-performance/</link><pubDate>Mon, 26 Jan 2026 07:03:43 +0000</pubDate><guid>https://javapro.svenruppert.com/1brc-die-ersten-80-performance/</guid><description>&lt;p&gt;Die &lt;a href="https://www.morling.dev/blog/one-billion-row-challenge/"&gt;One Billion Row Challenge (1BRC)&lt;/a&gt; startete als Projekt über den Jahreswechsel 2023/2024 und widmete sich einer vermeintlich einfachen Fragestellung: Wie schnell können Temperaturmesswerte aus einer Textdatei mittels Java verarbeitet werden, um Minimum-, Durchschnitts- und Maximumwerte pro Wetterstation zu berechnen? Die Herausforderung ergibt sich dabei aus dem Umfang des Datensatzes, der mit einer Milliarde Zeilen eine Gesamtgröße von etwa 13,8 GB umfasst.&lt;/p&gt;
&lt;p&gt;Thomas Wuerthinger, Quan Anh Mai und Alfonso Peterssen erzielten mit 1,5 Sekunden auf 8 Cores das Spitzenresultat. Diese Performance war in diesem Ausmaß unerwartet. Bei einer detaillierten Analyse des Quellcodes wird jedoch ersichtlich, dass die Implementierung weit über die übliche Java-Entwicklung hinausgeht. Es handelt sich um eine hochkomplexe, auf diesen spezifischen Use-Case zugeschnittene Lösung, deren Optimierungen größtenteils nicht ohne Weiteres auf andere Szenarien übertragbar sind.&lt;/p&gt;</description></item><item><title>DE 01-2025 | GenAI Projekte mit Java</title><link>https://javapro.svenruppert.com/de-01-2025-genai-projekte-mit-java/</link><pubDate>Tue, 19 Aug 2025 13:45:31 +0000</pubDate><guid>https://javapro.svenruppert.com/de-01-2025-genai-projekte-mit-java/</guid><description>&lt;p&gt;&lt;a href="https://javapro.svenruppert.com/uploads/sites/1/2025/08/JAVAPRO_DE_01_2025.pdf"&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2025/08/JAVAPRO-Cover-DE-01-2025-KI-Projekte.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://javapro.svenruppert.com/uploads/sites/1/2025/08/JAVAPRO_DE_01_2025.pdf"&gt;DOWNLOAD&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;JAVAPRO&lt;br&gt;
▪️ Kino, Code, Community:&lt;br&gt;
Die JCON EUROPE 2025 setzt&lt;br&gt;
neue Maßstäbe für Java-Events&lt;/p&gt;
&lt;p&gt;COREJAVA&lt;br&gt;
▪️ 30 Jahre Java - Wie sich die&lt;br&gt;
Sprache entwickelt hat&lt;br&gt;
▪️ Die lange Geschichte von Log4j&lt;/p&gt;
&lt;p&gt;AI &amp;amp; ML&lt;br&gt;
▪️ KI-Tools für Jakarta EE&lt;br&gt;
▪️ Entwicklung von&lt;br&gt;
KI-Anwendungen mit Spring AI&lt;br&gt;
▪️ Lokale LLMs mit Ollama und&lt;br&gt;
Open WebUI&lt;/p&gt;
&lt;p&gt;PERFORMANCE&lt;br&gt;
▪️ Hitchhiker´s Guide to Java Performance&lt;br&gt;
▪️ Von Reactive Streams zu Virtual Threads&lt;br&gt;
▪️ So beschleunigen Sie existierende Deployments mit den richtigen JVM-Features&lt;/p&gt;</description></item><item><title>IBM-Architekt Mark Stoodley enthüllt JVM-Optimierungstechniken</title><link>https://javapro.svenruppert.com/ibm-architekt-mark-stoodley-enthuellt-jvm-optimierungstechniken/</link><pubDate>Wed, 07 May 2025 11:30:12 +0000</pubDate><guid>https://javapro.svenruppert.com/ibm-architekt-mark-stoodley-enthuellt-jvm-optimierungstechniken/</guid><description>&lt;p&gt;Langsame Java-Starts, wiederholte JIT-Compilierungen, hohe CPU-Last: Diese Faktoren sind nicht nur ein Performanceproblem, sondern treiben auch Infrastrukturkosten und Energieverbrauch in die Höhe. Auf der &lt;strong&gt;&lt;a href="https://2025.europe.jcon.one/"&gt;JCON EUROPE 2025&lt;/a&gt;&lt;/strong&gt; erhalten Entwickler eine seltene Gelegenheit: Mark Stoodley, Chief Architect für Java bei IBM, reist aus Kanada an, um persönlich einen exklusiven Workshop zu leiten. Der Titel: &lt;strong&gt;„&lt;a href="https://schedule.jcon.one/session/890995"&gt;Ultra Efficient Startup for Production Java Workloads&lt;/a&gt;“&lt;/strong&gt; – ein praxisnahes Format, das zeigt, wie sich JVM-basierte Produktionsanwendungen effizienter, schneller und ressourcenschonender betreiben lassen.&lt;/p&gt;</description></item><item><title>Java-Performance optimieren: Caching mit Core Java statt komplexer Frameworks</title><link>https://javapro.svenruppert.com/java-performance-optimieren-caching-mit-core-java-statt-komplexer-frameworks/</link><pubDate>Mon, 05 May 2025 07:04:10 +0000</pubDate><guid>https://javapro.svenruppert.com/java-performance-optimieren-caching-mit-core-java-statt-komplexer-frameworks/</guid><description>&lt;p&gt;Langsame Java-Anwendungen sind in vielen Projekten ein bekanntes Problem: Verzögerungen durch ORM, komplizierte Caching-Strukturen und überlastete Datenbanken bremsen die Performance aus. Auf der &lt;a href="https://2025.europe.jcon.one/"&gt;JCON EUROPE 2025&lt;/a&gt; zeigt der zweistündige Workshop „&lt;a href="https://schedule.jcon.one/?selectedSession=797351"&gt;High-Performance Caching with Pure Java: Supercharge Your Sluggy Database Application&lt;/a&gt;“, wie sich diese Probleme gezielt lösen lassen – ausschließlich mit Core Java, ohne zusätzliche Frameworks oder Cloud-Dienste.&lt;/p&gt;
&lt;h2 id="hands-on-caching-und-abfragen-mit-maximaler-geschwindigkeit"&gt;Hands-on: Caching und Abfragen mit maximaler Geschwindigkeit&lt;/h2&gt;
&lt;p&gt;Teilnehmende lernen, wie sie eine hochperformante Caching- und Abfrageschicht selbst entwickeln können – schlank, speichereffizient und direkt in Java. Ziel ist es, typische Performance-Engpässe in datenbankbasierten Anwendungen zu beseitigen und die Systemgeschwindigkeit um ein Vielfaches zu steigern.&lt;/p&gt;</description></item><item><title>Dynamisches Caching für große Workloads: Pure Java-Lösungen aus erster Hand</title><link>https://javapro.svenruppert.com/dynamisches-caching-fuer-grosse-workloads-pure-java-loesungen-aus-erster-hand/</link><pubDate>Tue, 29 Apr 2025 09:13:57 +0000</pubDate><guid>https://javapro.svenruppert.com/dynamisches-caching-fuer-grosse-workloads-pure-java-loesungen-aus-erster-hand/</guid><description>&lt;p&gt;Viele Java-Entwickler stoßen beim Umgang mit großen Datenmengen und dynamisch wachsenden Workloads an die Grenzen traditioneller Caching- und Datenbanklösungen. Oft verhindern schwergewichtige Systeme eine flexible Skalierung oder treiben die Infrastrukturkosten unnötig in die Höhe.&lt;/p&gt;
&lt;p&gt;Wie es anders geht, zeigt die Session &lt;strong&gt;„&lt;a href="https://schedule.jcon.one/session/851487"&gt;High-Performance Caching with Pure Java – Part 2: Managing Gigantic Workloads&lt;/a&gt;“&lt;/strong&gt; auf der &lt;strong&gt;JCON EUROPE 2025&lt;/strong&gt;: Statt komplexer Architekturen setzt dieser Ansatz auf Pure Java – schlank, skalierbar und leistungsstark.&lt;/p&gt;</description></item><item><title>Lokale LLMs</title><link>https://javapro.svenruppert.com/lokale-llms/</link><pubDate>Tue, 14 Jan 2025 18:04:38 +0000</pubDate><guid>https://javapro.svenruppert.com/lokale-llms/</guid><description>&lt;p&gt;&lt;strong&gt;mit Ollama und Open WebUI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;figure class="post-figure"&gt;
 &lt;img src="https://javapro.svenruppert.com/uploads/sites/1/2024/12/ai_and_lama.png" alt="" loading="lazy" decoding="async"&gt;
 
 
 
&lt;/figure&gt;
&lt;/p&gt;
&lt;p&gt;Seit dem kometenhaften Aufstieg von ChatGPT sind AI (Artificial Intelligence) und LLMs (Large Language Models) in aller Munde. Es gibt kaum jemanden, der ChatGPT (oder einer seiner Kollegen) nicht im beruflichen oder privaten Umfeld nutzt. Was weniger bekannt ist, dass man LLMs auch herunterladen und lokal laufen lassen kann.&lt;/p&gt;
&lt;p&gt;Diese hat folgende Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Verschiedene LLMs und Versionen lassen sich flexibel testen.&lt;/li&gt;
&lt;li&gt;Da alles lokal läuft, können auch Anfragen mit geschäftsrelevanten Informationen gestellt werden, ohne dass Daten auf fremde Server gelangen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Eine Möglichkeit dafür bietet das Open-Source-Projekt Ollama: Es erlaubt, kleinere LLMs herunterzuladen und direkt auf dem lokalen Rechner auszuführen. Dieser Artikel zeigt zunächst die Installation von Ollama. Anschließend wird ein benutzerfreundliches Web-UI eingerichtet, das den Zugriff auf Ollama deutlich komfortabler gestaltet.&lt;/p&gt;</description></item></channel></rss>