NextLytics Blog

Delta Sharing: Neue Interoperabilität für Datenplattformen

Geschrieben von Markus Suhr | 13.11.2025 12:08:21

Mit dem Stapellauf der SAP Business Data Cloud (BDC) in 2025 manifestiert sich aus unserer Sicht ganz klar: Der Paradigmenwechsel von klassischen Data Warehouse Systemarchitekturen hin zum Data Lakehouse hat sich vollzogen. An die Stelle der proprietären, monolithischen Großdatenbanken treten die lose gekoppelten, offenen Service-Architekturen, welche insbesondere von Databricks in den letzten Jahren im großen Stil bekannt gemacht worden sind. Unabhängig skalierbare Compute- und Storage-Ressourcen lösen immer größere, immer teurere In-Memory Technologien ab. Selbst die SAP hat nun Object Storage als zentrale Komponente in der BDC eingesetzt und stimmt damit implizit den Argumenten der Konkurrenz zu: Lakehouse ist schlicht und einfach effizienter und günstiger zu betreiben.

Doch wir sehen noch eine weitreichendere Implikation in dieser technischen Konvergenz des Datenplattformmarktes: Durch die Adaption von grundsätzlich offenen Technologien und Protokollen wie Apache Iceberg, Delta Lake und Unity Catalog, ergeben sich neue Integrationsmöglichkeiten zwischen den Plattformprodukten unterschiedlicher Anbieter: SAP, Microsoft Fabric, Dremio, Databricks und unzählige weitere könnten in naher Zukunft mit geringen Hürden wechselseitig auf Daten zugreifen, ohne diese Massenhaft zu replizieren und mit komplexen Mechanismen zu synchronisieren. Gewinnbringende Kombinationen der Software unterschiedlicher Anbieter werden so möglich. Die Reise der SAP von ihren klassischen Warehouse-Systemen hin zur schleichenden Lakehouse-Revolution in BDC kann als Paradebeispiel für diese Konvergenz gelesen werden.

Unsere Blogreihe "Business Data Cloud" im Überblick

1     Datenplattform Architektur mit SAP Datasphere & Databricks
2     Business Data Cloud - Was hat es damit auf sich?
3     Hagen Jander im Interview - Was hinter der Business Data Cloud steckt
4     DSAG Technologietage 2025: SAP mischt die Karten neu
5     Databricks-Integration in SAP Business Data Cloud: Interview mit M. Ingerfeld
6     Delta Sharing: Neue Interoperabilität für Datenplattformen


Ist SAP Business Data Cloud ein Data Lakehouse?

Ob die BDC nun ein Lakehouse ist oder nicht, dürfte dem Hersteller herzlich egal sein. Die SAP hat seit je her ihre Produkte rund um Data-Warehousing und Datenanalyse eher als Ergänzung zum Kerngeschäft der Prozess- und Geschäftssoftware betrachtet. Die eingesetzten Technologien sind dabei schon seit der Einführung des Business Warehouse (BW) immer einer umfassenderen Portfolio-Strategie untergeordnet worden.

Die Entwicklung des SAP Warehouse-Angebots zeichnet somit die Produktstrategie der angebotenen Unternehmenssoftware nach: von klassischen relationalen Datenbanksystemen als Basis hin zur HANA In-Memory Datenbank, über die Migration in die Cloud hin zur großen KI-Strategie, die spätestens seit 2024 die strategische Selbstdarstellung des Softwarekonzern bestimmt. Business Data Cloud folgt somit auf BW, BW/4HANA und die hastig von Data Warehouse Cloud zur Datasphere umfirmierte Cloud-Plattform. BDC ist kein Bruch, sondern bettet Datasphere und die SAP Analytics Cloud ein und ergänzt sie um weitere Komponenten: den BDC Object Storage für sogenannte SAP Datenprodukte, SAP Databricks als vollwertigen Entwicklerbaukasten für Machine Learning und KI-basierte Anwendungen und schließlich eine ganze Palette von mehr oder weniger ausdefinierten KI-Komponenten (Joule, Analytics Agents).

Datasphere mit der HANA-Datenbank als Leistungsträger bleibt zwar ein zentraler Bestandteil, könnte jedoch im Vergleich zu einem anderen neuen Feature an Bedeutung verlieren: den SAP Data Products. Diese sollen künftig direkt und vollautomatisch aus den verschiedenen Modulen der Unternehmenssoftware befüllt werden und liegen technisch im Object Storage - auf der Lakehouse-Seite in BDC. Genau diese Datenprodukte lassen sich dank der zuvor erwähnten Offenheit der Speicher- und Zugriffsprotokolle mit geringem Aufwand zwischen unterschiedlichsten Systemen austauschen. Und das ganz ohne CSV-Dump-Schnittstellen, REST-API-Engpässe oder Synchronisations-Probleme.

Sehen Sie sich die Aufzeichnung unseres Webinars an: "Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms"

Delta Sharing und BDC Partner Connect

Der technologische Eckpfeiler, der nahtlose Interoperabilität ermöglicht, ist das Delta Sharing-Protokoll. Wir haben in einem unserer Blogbeiträge ein praxisnahes Beispiel gezeigt, in dem Daten zwischen SAP Databricks und SAP BDC geteilt werden - im Sinne eines Zero-Copy-Ansatzes.

Es ist der Motor hinter dem mittlerweile oft zitierten „Zero-Copy“ Prinzip, das die Notwendigkeit eliminiert, Daten zwischen Umgebungen zu replizieren. Delta Sharing ist ein offenes Protokoll, das von Databricks maßgeblich mitentwickelt wurde und die technische Vermittlung zwischen den Datenkatalogen der Lakehouse-Architektur übernimmt: Ein Client, der auf mit ihm geteilte Daten zugreifen will, verbindet sich mit dem Sharing Server (dem Datenkatalog), der die Zugriffsberechtigungen validiert. Der Client erhält dann mittels kurzlebiger Zugriffstoken direkten Zugriff auf die Rohdaten im darunterliegenden Object Storage. 

Das Ergebnis ist, dass z.B Ihr Databricks-Workspace als Client auf SAP Datenprodukte in Echtzeit zugreifen und diese abfragen kann, ohne dass eine physische Replikation erforderlich ist, während die Data Governance gewährleistet bleibt. Dies ist die Grundlage des BDC Partner Connect-Programms, das bidirektionale Datenzugriffe zwischen BDC, Enterprise Databricks Workspaces in der Google Cloud, AWS oder Azure, sowie ab 2026 auch direkt mit Google BigQuery und Snowflake erlaubt.

Neben den bereits angekündigten BDC Connect Partnern ist mit weiteren Ankündigungen zu rechnen. Die technische Interoperabilität mit diversen Anbietern und Tools ist aufgrund der Verbreitung des Delta Sharing Protokolls bereits gegeben: Das offene Sharing-Ökosystem von Databricks erlaubt bereits heute den Datenaustausch mit anderen Lakehouse-Plattformen wie Dremio und Starburst sowie mit einer ganzen Reihe von Business Intelligence Applikationen wie Tableau und PowerBI. Open Source Clients in allen gängigen Programmiersprachen existieren genauso wie Adapter für Microsoft Excel und Google Spreadsheets.

Technologisch gibt es also streng genommen keinen Grund, warum SAP Datenprodukte aus der BDC nicht zeitnah auch mit all diesen Gegenstellen interagieren sollen. Es scheint nur eine Frage der Zeit sowie Lizenz- und Vermarktungsstrategie seitens der SAP zu sein, bis reibungsfreie Datenübertragungen zu allen wichtigen Marktbegleitern möglich werden.

Delta Sharing am Beispiel: Multi-Cloud-, Multi-Tool-Architektur

Wo kann die vorgestellte neue Interoperabilität für Ihr Unternehmen zum Einsatz kommen? 

In unserem Webinar am 11. November 2025, “Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms” haben wir den Mehrwert an einem fiktiven, praxisnahen Beispielszenario vorgestellt: Stellen Sie sich ein Unternehmen vor, das zentrale SAP ERP-Daten mit hochvolumigen IoT-Streaming-Daten aus den eigenen Fabriken kombinieren muss, während gleichzeitig sichergestellt werden muss, dass sensible HR-/Compliance-Daten in einer EU-gehosteten, konformen Cloud oder sogar im eigenen Rechenzentrum verbleiben.

Die SAP Business Data Cloud (BDC) dient als maßgebliche Quelle für SAP-Stammdaten. 
Databricks dient als Stream-Processing-Engine, um die hochfrequenten IIoT-Datenströme effizient zu verarbeiten. Dremio verarbeitet die sensiblen Daten, kann On-Premise oder in einer EU-gehosteten Cloud betrieben werden, um Anforderungen an die Datenhoheit zu erfüllen, und bietet SQL-Zugriff für Self-Service-Analysen.

Die BDC teilt Stammdaten als Datenprodukte (über das Delta Sharing Protokoll) mit Databricks, wo diese mit IoT-Datenextrakte verknüpft werden. Das Ergebnis der aggregierten Daten wird dann wiederum mit Dremio geteilt, wo sie mit den sensiblen Daten verbunden werden. Schließlich kann der Endbenutzer auf den endgültigen, integrierten Datensatz direkt über Dremios SQL-Schnittstelle zugreifen oder die Daten in einem BI-Tool in Berichte und Auswertungen integrieren.

Dieses einfache Beispiel kombiniert die Stärken der unterschiedlichen Systeme und minimiert Replikation und den Aufwand für die Synchronisation von Daten zwischen den unterschiedlichen Domänen. 

Dieses Setup kombiniert die Stärken aller drei Systeme, ohne den Aufwand, die Latenz und das Risiko des Kopierens von Daten in Kauf nehmen zu müssen.

Delta Sharing - unser Fazit: Gute Ausgangslage für Interoperable Datenarchitekturen

Die technologische Verlagerung hin zum Data Lakehouse und die Übernahme offener Standards durch Anbieter wie SAP bedeuten, dass das technologische Fundament für zukünftige Plug-and-Play-Datenplattformen vorhanden ist. Das Data Lakehouse entwickelt sich zum De-facto-Standard für den Austausch großer Datenmengen - nicht nur zwischen verschiedenen Warehouses und analytischen Systemen, sondern in absehbarer Zukunft auch mit operativen Systemen wie den SAP-Business-Modulen.

In den kommenden Monaten wird sich zeigen, wie schnell die SAP ihre lizenzpolitischen und produktstrategischen Hürden abgebaut bekommt, um wahre Interoperabilität zu ermöglichen und die Grundlage für immer schnellere Innovationen auf ständig wachsenden Datenmengen zu bilden. Marktbegleiter der SAP im Segment der analytischen Plattformen wie Databricks oder Dremio, die schon länger strategisch auf Open Source Komponenten, offenen Protokollen und einen effizienten Datenaustausch setzen, könnten in der anbrechenden Phase vernetzter Lakehouse-Systeme im Vorteil sein.

Jede Organisation verfügt über eine einzigartige Datenlandschaft - lassen Sie uns gemeinsam herausfinden, wie Ihr Unternehmen von einer offenen, zukunftssicheren Lakehouse-Architektur profitieren kann.
Vereinbaren Sie ein persönliches, unverbindliches Beratungsgespräch mit unseren Experten.