<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Streaming on JAVAPRO Germany</title><link>https://javapro.svenruppert.com/tags/streaming/</link><description>Recent content in Streaming on JAVAPRO Germany</description><generator>Hugo</generator><language>de-DE</language><lastBuildDate>Tue, 22 Dec 2020 11:18:21 +0000</lastBuildDate><atom:link href="https://javapro.svenruppert.com/tags/streaming/index.xml" rel="self" type="application/rss+xml"/><item><title>Kafka-Connect - Drittsysteme an Kafka anbinden</title><link>https://javapro.svenruppert.com/kafka-connect-drittsysteme-an-kafka-anbinden/</link><pubDate>Tue, 22 Dec 2020 11:18:21 +0000</pubDate><guid>https://javapro.svenruppert.com/kafka-connect-drittsysteme-an-kafka-anbinden/</guid><description>&lt;p&gt;**Kafka ist eine verteilte Streaming-Plattform die verschiedene Nutzungsszenarien unterstützt. Sie kann als Messaging- oder Speichersystem eingesetzt werden und Datenströme transformieren. Dieser Artikel beschreibt, wie Sie mit Kafka-Connect Drittsysteme wie Redis an Kafka anbinden können.  **&lt;/p&gt;
&lt;p&gt;Kafka bietet eine flexible Grundlage, um darauf komplexe Datenverarbeitungsarchitekturen zu bauen. Eine wichtige Frage bei diesen Architekturen ist, wie die Daten in die Plattform gelangen und wie sie diese wieder verlassen. Hier kommt Kafka-Connect ins Spiel, ebenfalls eine quelloffene Komponente von Kafka. Kafka-Connect ist ein Framework mit dem man externe Systeme, wie zum Beispiel Datenbanken, Key-Value-Speicher, Suchindizes oder Dateisysteme an Kafka anschließen kann. Für Kafka-Connect gibt es bereits zahlreiche vorgefertigte Konnektoren, wie zum Beispiel für Splunk oder &lt;a href="https://bit.ly/kafka-k1"&gt;Elasticsearch&lt;/a&gt;¹. Diese Konnektoren teilen sich in zwei Gruppen auf: Sources und Sinks -also Quellen und Senken. Quellkonnektoren können zum Beispiel ganze Datenbanken auslesen und Änderungen in der Datenbank dann in Kafka-Topics veröffentlichen. Ein anderer Anwendungsfall ist das Sammeln von Metriken von Microservices, um sie dann dem Stream-Processing mit geringer Latenz zur Verfügung zu stellen und sie dann auswerten zu können. Sinks bringen die Daten aus den Kafka-Topics dann zum Beispiel in Suchindizes wie Elasticsearch oder in Batch-Systeme wie Hadoop, zur späteren Offline-Verarbeitung.&lt;/p&gt;</description></item></channel></rss>