• news.cision.com/
  • eloquenza/
  • Neue Confluent-Features ermöglichen die einfachere und schnellere Anbindung, Verarbeitung und Weitergabe verlässlicher Daten

Neue Confluent-Features ermöglichen die einfachere und schnellere Anbindung, Verarbeitung und Weitergabe verlässlicher Daten

Report this content

Data Quality Rules, eine Komponente der ersten vollständig gemanagten Governance-Lösung für Apache Kafka, unterstützt bei der Sicherstellung der Datenintegrität und der schnellen Behebung von Datenqualitätsproblemen

Custom Connectors und Stream Sharing ermöglichen die reibungslose Anbindung und gemeinsame Nutzung maßgeschneiderter Anwendungen und Echtzeitdaten – intern wie extern

Kora Engine wirkt als Turbolader für Confluent Cloud – für mehr Leistung und weniger Latenz im Vergleich zu quelloffenen Apache-Kafka-Implementierungen

Early-Access-Programm für Apache Flink ermöglicht ausgewählten Confluent-Kunden die Mitwirkung an der Produkt-Roadmap

München, 22. Mai 2023 – Confluent, Inc. (NASDAQ: CFLT), der Pionier im Bereich Daten-Streaming, bringt jede Menge Neues in die Confluent Cloud: Im Zentrum der Features steht die Vertrauenswürdigkeit von Daten sowie deren einfache Verarbeitung und sichere Weitergabe. Data Quality Rules ist eine Erweiterung der Stream Gouvernante Suite. Sie lässt Confluent-Kunden Problemen mit der Datenqualität einfach beheben, so dass sie Daten als Grundlage für ihre geschäftskritischen Entscheidungen nutzen können. Custom Connectors, Stream Sharing, die Kora Engine und ein Early-Access-Programm für gemanagte Apache-Flink-Umgebungen gehören zu den weiteren Neuerungen. Sie ermöglichen es Unternehmen einfach von einer einzigen Plattform aus, Einblicke in die Daten zu bekommen und dabei von einer hohen Performance mit deutlich weniger operativem Aufwand zu profitieren.

„Echtzeitdaten sind das Lebenselixier eines jeden Unternehmens. Gleichzeitig ist es eine Herausforderung, diese Echtzeitdaten aus den verschiedenen Quellen so zu managen, dass deren Verlässlichkeit gewährleistet ist,“, erklärt Shaun Clowes, Chief Product Officer von Confluent. „So entsteht in vielen Unternehmen ein regelrechter Flickenteppich aus verschiedenen Lösungen, der durch Siloeffekte und mangelnde Effizienz gekennzeichnet ist. Die neuen Features von Confluent Cloud schaffen hier Abhilfe. Sie zeigen einen einfachen Weg auf, wie sich vertrauenswürdige Daten mit den richtigen Personen in den richtigen Formaten teilen lassen.“

Wenn Teams, Kunden und Partner schnell auf hochwertige Daten zugreifen können, beschleunigt dies die Entscheidungsprozesse. Allerdings tun sich viele Unternehmen schwer damit, ein solches Daten-Sharing in verteilten Open-Source-Infrastrukturen wie Apache Kafka bereitzustellen. Laut dem Confluent Data Streaming Report 2023 bezeichnen 72 % der IT-Executives die inkonsistente Anwendung von Integrationsverfahren und -standards als Herausforderung oder Hindernis für den Ausbau ihrer Daten-Streaming-Infrastruktur. Mit dem neuesten Launch räumt Confluent diese Hindernisse aus dem Weg:

Data Quality Rules ergänzt die Confluent Stream Governance Suite für noch mehr Datenzuverlässigkeit

Datenverträge sind formale Vereinbarungen zwischen Upstream- und Downstream-Komponenten, die die Struktur und Semantik der ausgetauschten Daten festschreiben. Die Durchsetzung der Datenverträge steht und fällt mit den Regeln und Richtlinien, die sicherstellen, dass die Daten hochwertig, brauchbar und robust gegenüber einer Weiterentwicklung der Schemadefinition sind.

Da die Datenverträge immer umfangreicher und detaillierter sein müssen, führt Confluent nun Data Quality Rules ein. Mit der neuen Komponente von Stream Governance lassen sich individuell anpassbare Regeln für Datenintegrität und -kompatibilität definieren. Im gesamten Unternehmen entstehen so vertrauenswürdige und hochwertige Datenströme. Durch die Einführung von Data Quality Rules können in Schema Registry abgelegte Schemadefinitionen nun durch verschiedene Arten von Regeln ergänzt werden. Die Vorteile:

  • Sicherstellung einer hohen Datenintegrität, indem die Werte einzelner Felder innerhalb eines Datenstroms validiert und limitiert werden.
  • Schnelle Behebung von Datenqualitätsproblemen durch anpassbare Maßnahmen für nicht regelkonforme Nachrichten.
  • Einfache Schema-Entwicklung unter Verwendung von Migrationsregeln, um Nachrichten von einem Datenformat in ein anderes zu konvertieren.

„Eine hohe Qualität und Verlässlichkeit der Daten schlägt sich direkt in besseren Unternehmensergebnissen nieder. Besonders wichtig ist dies beim Daten-Streaming, wo Analysen, Entscheidungen und Aktionen in Echtzeit stattfinden“, führt Stewart Bond, VP Data Intelligence & Integration Software von IDC, weiter aus. „Gerade die Kundenzufriedenheit steigt mit dem Einsatz von hochwertigen Daten. Im Gegenzug dazu macht sich ein Mangel an Datenqualität bei den operativen Kosten besonders schmerzlich bemerkbar. Mit Funktionen wie den Confluent Data Quality Rules können Unternehmen die Vertrauenswürdigkeit ihrer Datenströme sicherstellen, indem sie deren Integrität validieren und etwaige Probleme schnell beheben.“

Custom Connectors unterstützt Kafka-Konnektoren in Confluent Cloud ohne Infrastrukturmanagement

Viele Unternehmen verfügen über individuelle Datenarchitekturen und müssen daher eigene Konnektoren entwickeln, um ihre proprietären Datensysteme und Anwendungen in Apache Kafka zu integrieren. Diese maßgeschneiderten Konnektoren müssen dann eigenständig gemanagt, d. h. manuell bereitgestellt, aktualisiert und überwacht werden. All das kostet wertvolle Zeit und Ressourcen und geht zulasten anderer Aktivitäten. Die Erweiterung des Confluent Connector-Ökosystems durch Custom Connectors bietet hier folgende Vorteile:

  • Schnelle Anbindung an ein beliebiges Datensystem anhand der unternehmenseigenen Kafka-Connect-Plugins ohne Code-Anpassung.
  • Hohe Verfügbarkeit und Performance durch Protokolle und Metriken zur Überwachung des Konnektorstatus
  • Kein Zusatzaufwand für die Bereitstellung und fortlaufende Verwaltung der zugrundeliegenden Konnektorinfrastruktur.

„Um präzise und aktuelle Daten auf der Trimble Platform vorzuhalten, brauchen wir Streaming-Pipelines, die unsere weltweiten Services und Datensysteme miteinander vernetzen“, erläutert Graham Garvin, Product Manager von Trimble. „Mit Custom Connectors können wir problemlos eine Brücke zwischen unserem internen Event Service und Kafka schlagen, ohne dafür die zugrundeliegende Konnektorinfrastruktur einrichten und managen zu müssen. Durch das schnelle Hochladen unserer maßgeschneiderten Konnektoren und das reibungslose Streamen unserer Daten in die Confluent Cloud können wir uns auf werthaltigere Aufgaben konzentrieren.“

Die neuen Custom Connectors stehen in ausgewählten Regionen auf AWS zur Verfügung. Die Unterstützung zusätzlicher Regionen und weiterer Cloud-Anbieter folgt zu einem späteren Zeitpunkt.

Stream Sharing vereinfacht die sichere Datenweitergabe

Kein Unternehmen existiert für sich alleine. Wer in Bereichen wie Lagermanagement, Logistik oder Finanzdienstleistungen aktiv ist, muss innerhalb seines Ökosystems fortlaufend Echtzeitdaten austauschen, um informierte Entscheidungen treffen, nahtlose Kundenerfahrungen bereitstellen und betriebliche Abläufe optimieren zu können. Auch heute noch sind viele Unternehmen auf Flat-File-Übertragungen oder Polling-Techniken mittels APIs angewiesen, was zu Verzögerungen bei der Datenzustellung, Sicherheitsrisiken und einer unnötig komplexen Integration führt. Confluent Stream Sharing ist die einfachste und sicherste Alternative, um Daten über Unternehmensgrenzen hinweg zu streamen. Konkret bietet Stream Sharing folgende Vorteile:

  • Problemloser, verzögerungsfreier Austausch von Echtzeitdaten direkt zwischen Confluent und beliebigen Kafka-Clients.
  • Sichere Weitergabe und zuverlässiger Schutz der Daten durch robustes, authentifiziertes Sharing, Zugriffsmanagement und abgestufte Verschlüsselungskontrollen.
  • Gesicherte Qualität und Kompatibilität der geteilten Daten durch Anwendung konsistenter Schemata auf Nutzer, Teams und Unternehmen.

Weitere Innovationen wurden auf dem Kafka Summit in London vorgestellt:

Der von Confluent organisierte Kafka Summit in London ist die zentrale Veranstaltung für Entwickler, Systemarchitekten, Dateningenieure, DevOps-Experten und alle, die mehr über Daten-Streaming und Apache Kafka erfahren wollen. Im Fokus des Events stehen Best Practices, die Entwicklung von Systemen der nächsten Generation sowie die Zukunft der verschiedenen Streaming-Technologien.

Zu den weiteren Neuerungen der branchenführenden Daten-Streaming-Plattform von Confluent zählen:

  • Kora Engine für schnellere Dateneinblicke und mehr Leistung in Confluent Cloud: Seit 2018 hat Confluent mehr als 5 Millionen Entwicklungsstunden für die Entwicklung von Kora aufgewendet, einer Apache Kafka Engine für die Cloud. Zu den Highlights der Kora Engine gehören Multi-Tenancy-Unterstützung und serverlose Code-Abstraktion, Entkopplung der Netzwerk-, Speicher- und Rechenebene, automatisierte Operationen sowie eine globale Verfügbarkeit. Für die Nutzer von Confluent Cloud bedeutet dies eine 30 Mal schnellere Skalierung, eine Datenspeicherung ohne Aufbewahrungslimits, einen zugesicherten Datenschutz von 99,99% und Workloads mit ultrakurzen Latenzzeiten.
  • Early-Access-Programm für Apache Flink für frühzeitige Einblicke in kommende Stream-Processing-Funktionen: Als entscheidender Bestandteil der Daten-Streaming-Infrastruktur ist das Stream Processing für die Filterung, Verbindung und Aggregation von Daten in Echtzeit zuständig. Damit können, nachgelagerte Anwendungen und Systeme unterstützt und sofortige Einblicke gewährt werden. Unternehmen nutzen das Stream Processing und die Entwickler-Communities von Apache Flink für großvolumige Datenströme mit hohem Durchsatz und geringer Latenz.

Nach der Immerok-Übernahme durch Confluent steht das Early-Access-Programm für gemanagte Apache-Flink-Umgebungen nun auch ausgewählten Nutzern von Confluent Cloud offen. Indem sie im Rahmen des Serviceangebots mit den Produkt- und Engineering-Teams zusammenarbeiten, können diese Unternehmen an der Gestaltung der Produkt-Roadmap mitwirken.

Weitere Ressourcen

Über Confluent

Confluent erschließt als Daten-Streaming-Experte einen neuen Bereich der modernen Dateninfrastruktur: Data in Motion. Die Cloud-native Plattform fungiert als intelligenter Knotenpunkt, über den Daten von mehreren Datenquellen kontinuierlich und in Echtzeit zu jedem Datenkonsumenten im gesamten Unternehmen gestreamt werden. Für Unternehmen schafft das Angebot die Grundlage für eine, den modernen Kundenanforderungen entsprechende Digital Customer Experience. Gleichzeitig werden sie ihrem eigenen Echtzeit-Betrieb gerecht. Ziel ist es, den Mehrwert von Data in Motion gezielt auszunutzen, damit moderne Unternehmen mit dem Tempo der Digital-First mithalten können. Mehr dazu erfahren Sie hier: https://www.confluent.io/de-de/

Confluent und zugehörige Marken sind Marken oder eingetragene Marken von Confluent, Inc.

Apache® und Apache Kafka® sind entweder eingetragene Marken oder Marken der Apache Software Foundation in den Vereinigten Staaten und/oder anderen Ländern. Die Verwendung dieser Marken impliziert keine Befürwortung durch die Apache Software Foundation. Alle anderen Marken sind das Eigentum ihrer jeweiligen Inhaber.

Pressekontakt: 

The Hoffman Agency GmbH

Ina Rohe / Chariklia Lazaridis

Emil Riedel Str. 18  - 80538 München

ConfluentDach@hoffman.com

Abonnieren