Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Business Intelligence

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
Newsletter-für-Megamenü_gross
Abonnieren Sie jetzt unseren monatlichen Newsletter:
Newsletter abonnieren
 

Delta Sharing: Neue Interoperabilität für Datenplattformen

Mit dem Stapellauf der SAP Business Data Cloud (BDC) in 2025 manifestiert sich aus unserer Sicht ganz klar: Der Paradigmenwechsel von klassischen Data Warehouse Systemarchitekturen hin zum Data Lakehouse hat sich vollzogen. An die Stelle der proprietären, monolithischen Großdatenbanken treten die lose gekoppelten, offenen Service-Architekturen, welche insbesondere von Databricks in den letzten Jahren im großen Stil bekannt gemacht worden sind. Unabhängig skalierbare Compute- und Storage-Ressourcen lösen immer größere, immer teurere In-Memory Technologien ab. Selbst die SAP hat nun Object Storage als zentrale Komponente in der BDC eingesetzt und stimmt damit implizit den Argumenten der Konkurrenz zu: Lakehouse ist schlicht und einfach effizienter und günstiger zu betreiben.

Doch wir sehen noch eine weitreichendere Implikation in dieser technischen Konvergenz des Datenplattformmarktes: Durch die Adaption von grundsätzlich offenen Technologien und Protokollen wie Apache Iceberg, Delta Lake und Unity Catalog, ergeben sich neue Integrationsmöglichkeiten zwischen den Plattformprodukten unterschiedlicher Anbieter: SAP, Microsoft Fabric, Dremio, Databricks und unzählige weitere könnten in naher Zukunft mit geringen Hürden wechselseitig auf Daten zugreifen, ohne diese Massenhaft zu replizieren und mit komplexen Mechanismen zu synchronisieren. Gewinnbringende Kombinationen der Software unterschiedlicher Anbieter werden so möglich. Die Reise der SAP von ihren klassischen Warehouse-Systemen hin zur schleichenden Lakehouse-Revolution in BDC kann als Paradebeispiel für diese Konvergenz gelesen werden.

Ist SAP Business Data Cloud ein Data Lakehouse?

Ob die BDC nun ein Lakehouse ist oder nicht, dürfte dem Hersteller herzlich egal sein. Die SAP hat seit je her ihre Produkte rund um Data-Warehousing und Datenanalyse eher als Ergänzung zum Kerngeschäft der Prozess- und Geschäftssoftware betrachtet. Die eingesetzten Technologien sind dabei schon seit der Einführung des Business Warehouse (BW) immer einer umfassenderen Portfolio-Strategie untergeordnet worden.

SAPs Reise zum Lakehouse

Die Entwicklung des SAP Warehouse-Angebots zeichnet somit die Produktstrategie der angebotenen Unternehmenssoftware nach: von klassischen relationalen Datenbanksystemen als Basis hin zur HANA In-Memory Datenbank, über die Migration in die Cloud hin zur großen KI-Strategie, die spätestens seit 2024 die strategische Selbstdarstellung des Softwarekonzern bestimmt. Business Data Cloud folgt somit auf BW, BW/4HANA und die hastig von Data Warehouse Cloud zur Datasphere umfirmierte Cloud-Plattform. BDC ist kein Bruch, sondern bettet Datasphere und die SAP Analytics Cloud ein und ergänzt sie um weitere Komponenten: den BDC Object Storage für sogenannte SAP Datenprodukte, SAP Databricks als vollwertigen Entwicklerbaukasten für Machine Learning und KI-basierte Anwendungen und schließlich eine ganze Palette von mehr oder weniger ausdefinierten KI-Komponenten (Joule, Analytics Agents).

Datasphere mit der HANA-Datenbank als Leistungsträger bleibt zwar ein zentraler Bestandteil, könnte jedoch im Vergleich zu einem anderen neuen Feature an Bedeutung verlieren: den SAP Data Products. Diese sollen künftig direkt und vollautomatisch aus den verschiedenen Modulen der Unternehmenssoftware befüllt werden und liegen technisch im Object Storage - auf der Lakehouse-Seite in BDC. Genau diese Datenprodukte lassen sich dank der zuvor erwähnten Offenheit der Speicher- und Zugriffsprotokolle mit geringem Aufwand zwischen unterschiedlichsten Systemen austauschen. Und das ganz ohne CSV-Dump-Schnittstellen, REST-API-Engpässe oder Synchronisations-Probleme.


Sehen Sie sich die Aufzeichnung unseres Webinars an: "Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms"

Neuer Call-to-Action


Delta Sharing und BDC Partner Connect

Der technologische Eckpfeiler, der nahtlose Interoperabilität ermöglicht, ist das Delta Sharing-Protokoll. Wir haben in einem unserer Blogbeiträge ein praxisnahes Beispiel gezeigt, in dem Daten zwischen SAP Databricks und SAP BDC geteilt werden - im Sinne eines Zero-Copy-Ansatzes.

Es ist der Motor hinter dem mittlerweile oft zitierten „Zero-Copy“ Prinzip, das die Notwendigkeit eliminiert, Daten zwischen Umgebungen zu replizieren. Delta Sharing ist ein offenes Protokoll, das von Databricks maßgeblich mitentwickelt wurde und die technische Vermittlung zwischen den Datenkatalogen der Lakehouse-Architektur übernimmt: Ein Client, der auf mit ihm geteilte Daten zugreifen will, verbindet sich mit dem Sharing Server (dem Datenkatalog), der die Zugriffsberechtigungen validiert. Der Client erhält dann mittels kurzlebiger Zugriffstoken direkten Zugriff auf die Rohdaten im darunterliegenden Object Storage. 

Das Ergebnis ist, dass z.B Ihr Databricks-Workspace als Client auf SAP Datenprodukte in Echtzeit zugreifen und diese abfragen kann, ohne dass eine physische Replikation erforderlich ist, während die Data Governance gewährleistet bleibt. Dies ist die Grundlage des BDC Partner Connect-Programms, das bidirektionale Datenzugriffe zwischen BDC, Enterprise Databricks Workspaces in der Google Cloud, AWS oder Azure, sowie ab 2026 auch direkt mit Google BigQuery und Snowflake erlaubt.

Datenplattformen

Neben den bereits angekündigten BDC Connect Partnern ist mit weiteren Ankündigungen zu rechnen. Die technische Interoperabilität mit diversen Anbietern und Tools ist aufgrund der Verbreitung des Delta Sharing Protokolls bereits gegeben: Das offene Sharing-Ökosystem von Databricks erlaubt bereits heute den Datenaustausch mit anderen Lakehouse-Plattformen wie Dremio und Starburst sowie mit einer ganzen Reihe von Business Intelligence Applikationen wie Tableau und PowerBI. Open Source Clients in allen gängigen Programmiersprachen existieren genauso wie Adapter für Microsoft Excel und Google Spreadsheets.

Technologisch gibt es also streng genommen keinen Grund, warum SAP Datenprodukte aus der BDC nicht zeitnah auch mit all diesen Gegenstellen interagieren sollen. Es scheint nur eine Frage der Zeit sowie Lizenz- und Vermarktungsstrategie seitens der SAP zu sein, bis reibungsfreie Datenübertragungen zu allen wichtigen Marktbegleitern möglich werden.

Delta Sharing am Beispiel: Multi-Cloud-, Multi-Tool-Architektur

Wo kann die vorgestellte neue Interoperabilität für Ihr Unternehmen zum Einsatz kommen? 

In unserem Webinar am 11. November 2025, “Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms” haben wir den Mehrwert an einem fiktiven, praxisnahen Beispielszenario vorgestellt: Stellen Sie sich ein Unternehmen vor, das zentrale SAP ERP-Daten mit hochvolumigen IoT-Streaming-Daten aus den eigenen Fabriken kombinieren muss, während gleichzeitig sichergestellt werden muss, dass sensible HR-/Compliance-Daten in einer EU-gehosteten, konformen Cloud oder sogar im eigenen Rechenzentrum verbleiben.

Die SAP Business Data Cloud (BDC) dient als maßgebliche Quelle für SAP-Stammdaten. 
Databricks dient als Stream-Processing-Engine, um die hochfrequenten IIoT-Datenströme effizient zu verarbeiten. Dremio verarbeitet die sensiblen Daten, kann On-Premise oder in einer EU-gehosteten Cloud betrieben werden, um Anforderungen an die Datenhoheit zu erfüllen, und bietet SQL-Zugriff für Self-Service-Analysen.

SAP BDC, Databricks, Dremio

Die BDC teilt Stammdaten als Datenprodukte (über das Delta Sharing Protokoll) mit Databricks, wo diese mit IoT-Datenextrakte verknüpft werden. Das Ergebnis der aggregierten Daten wird dann wiederum mit Dremio geteilt, wo sie mit den sensiblen Daten verbunden werden. Schließlich kann der Endbenutzer auf den endgültigen, integrierten Datensatz direkt über Dremios SQL-Schnittstelle zugreifen oder die Daten in einem BI-Tool in Berichte und Auswertungen integrieren.

Dieses einfache Beispiel kombiniert die Stärken der unterschiedlichen Systeme und minimiert Replikation und den Aufwand für die Synchronisation von Daten zwischen den unterschiedlichen Domänen. 

Dieses Setup kombiniert die Stärken aller drei Systeme, ohne den Aufwand, die Latenz und das Risiko des Kopierens von Daten in Kauf nehmen zu müssen.

Delta Sharing - unser Fazit: Gute Ausgangslage für Interoperable Datenarchitekturen

Die technologische Verlagerung hin zum Data Lakehouse und die Übernahme offener Standards durch Anbieter wie SAP bedeuten, dass das technologische Fundament für zukünftige Plug-and-Play-Datenplattformen vorhanden ist. Das Data Lakehouse entwickelt sich zum De-facto-Standard für den Austausch großer Datenmengen - nicht nur zwischen verschiedenen Warehouses und analytischen Systemen, sondern in absehbarer Zukunft auch mit operativen Systemen wie den SAP-Business-Modulen.

In den kommenden Monaten wird sich zeigen, wie schnell die SAP ihre lizenzpolitischen und produktstrategischen Hürden abgebaut bekommt, um wahre Interoperabilität zu ermöglichen und die Grundlage für immer schnellere Innovationen auf ständig wachsenden Datenmengen zu bilden. Marktbegleiter der SAP im Segment der analytischen Plattformen wie Databricks oder Dremio, die schon länger strategisch auf Open Source Komponenten, offenen Protokollen und einen effizienten Datenaustausch setzen, könnten in der anbrechenden Phase vernetzter Lakehouse-Systeme im Vorteil sein.

Jede Organisation verfügt über eine einzigartige Datenlandschaft - lassen Sie uns gemeinsam herausfinden, wie Ihr Unternehmen von einer offenen, zukunftssicheren Lakehouse-Architektur profitieren kann.
Vereinbaren Sie ein persönliches, unverbindliches Beratungsgespräch mit unseren Experten.

Erfahren Sie mehr über  Databricks


 

FAQ - Delta Sharing für Datenplatformen Interoperabilität

Hier finden Sie einige häufig gestellte Fragen zum Thema „Wie Delta Sharing eine neue Interoperabilität von Datenplattformen ermöglicht“.

Welches Problem löst Delta Sharing in modernen Datenplattformen? Delta Sharing reduziert aufwendige Datenreplikation und ETL-Strecken zwischen Plattformen. Anstatt Kopien zu erstellen, greifen konsumierende Systeme direkt auf die Dateien im Object Storage zu – abgesichert über ein offenes Protokoll.
Wie ordnet sich SAP Business Data Cloud (BDC) in den Lakehouse-Trend ein? BDC führt die SAP-Warehouse-Historie (BW, BW/4HANA, Datasphere) in eine Lakehouse-Architektur weiter. Es bringt BDC Object Storage für SAP „Data Products“, integriert Datasphere und SAP Analytics Cloud und ergänzt sie um AI-Komponenten sowie SAP Databricks als Developer-Umgebung.
Was sind SAP „Data Products“ in BDC? SAP Data Products sind kuratierte, anwendungsnahe Datensätze, die automatisch aus SAP-Modulen befüllt und im Object Storage abgelegt werden. Durch offene Formate und Protokolle können sie mit geringem Aufwand via Delta Sharing in andere Plattformen geteilt werden.
Was genau ist Delta Sharing? Delta Sharing ist ein offenes Datenaustausch-Protokoll, mitentwickelt von Databricks. Ein Client verbindet sich mit einem Sharing-Server (Katalog), der Berechtigungen prüft und kurzlebige Zugriffstokens ausstellt. Damit liest der Client die Dateien direkt aus dem Object Storage – sicher und ohne physische Replikation.
Wie nutzt BDC Partner Connect Delta Sharing? BDC Partner Connect nutzt Delta Sharing, um einen bidirektionalen Datenaustausch zwischen BDC und Partnern wie Databricks-Workspaces (AWS, Azure, GCP) zu ermöglichen. Weitere Plattformen wie BigQuery und Snowflake sollen folgen – „Zero Copy“ wird damit zum Standard.
Welche Tools und Plattformen unterstützen Delta Sharing bereits? Neben SAP und Databricks können u. a. Dremio, Starburst sowie BI-Tools wie Tableau und Power BI Delta-Sharing-Daten konsumieren. Zusätzlich existieren Open-Source-Clients für gängige Programmiersprachen und Konnektoren für Excel und Google Sheets.
Wie sieht eine typische Multi-Cloud-, Multi-Tool-Architektur in der Praxis aus? Ein Beispiel: BDC liefert SAP-Stammdaten, Databricks verarbeitet hochfrequente IIoT-Streams, und Dremio läuft on-prem oder in einer EU-Cloud für sensible HR-/Compliance-Daten. BDC teilt Stammdaten mit Databricks; Databricks teilt aggregierte Ergebnisse mit Dremio – jeweils über Delta Sharing.
Welchen strategischen Effekt hat das für Unternehmen? Offene Lakehouse-Technologien und Protokolle schaffen eine Plug-and-Play-Landschaft: Best-of-Breed-Tools lassen sich kombinieren, ohne harten Vendor Lock-in oder massenhafte Replikation. Anbieter wie Databricks und Dremio, die von Beginn an auf Offenheit gesetzt haben, könnten in diesem interoperablen Ökosystem einen strategischen Vorteil haben.

,

avatar

Markus Suhr

Markus Suhr ist seit 2022 als Senior Berater für Machine Learning und Data Engineering bei der NextLytics AG tätig. Mit einschlägiger Erfahrung als Systemarchitekt und Teamleiter im Bereich Data Engineering kennt er sich bestens mit Microservices, Datenbanken und Workflow Orchestrierung aus - insbesondere im Bereich der Open Source Lösungen. In seiner Freizeit versucht er, das komplexe System des Gemüseanbaus im eigenen Garten zu optimieren.

Sie haben eine Frage zum Blog?
Fragen Sie Markus Suhr

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Delta Sharing: Neue Interoperabilität für Datenplattformen
9:54

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge