Anfang 2025 wird ein vollständig integrierter Databricks-Arbeitsbereich Teil der SAP Business Data Cloud.
Einige der Kernkomponenten von Databricks wurden in die SAP Business Data Cloud-Produktsuite integriert:
- Der Mosaic AI- und ML-Arbeitsbereich,
- Der Unity Catalog der Lakehouse-Governance-Schicht und
- Die SQL Warehouse-Abfrage-Engine.
Ferner enthalten sind Kernfunktionen von Databricks wie:
- Jupyter Notebooks als Entwicklungsumgebung und
- Apache Spark und Photon Engine als skalierbare verteilte Computing-Ressourcen.
SAP-Datenmodelle sind nahtlos im Databricks-Katalog verfügbar - und umgekehrt. Dies verspricht eine effiziente, kopierfreie Datenintegration zwischen etablierten SAP-Geschäftsdomänendaten und Drittanbietersystemen - oder sogar unstrukturierten Daten.
Technologisch basiert diese Integration auf den nativen Data-Lakehouse-Innovationen von Databricks wie dem Delta-Lake-Tabellenformat und dem Delta-Sharing-Austauschprotokoll.
Für Unternehmen, die in großem Umfang auf SAP setzen und schon in die Cloud native Datasphere-Umgebung investiert haben, stellt “SAP Databricks“ eine komfortable Lösung dar. Sie bietet eine integrierte Alternative zu einer eigenständigen Databricks-Lösung.
Sie möchten mehr über Szenarien zur Integration von SAP und Databricks erfahren oder fragen sich, ob entweder die Business Data Cloud oder die klassische Databricks-Lösung die richtige Wahl für Sie ist?
Wir beraten Sie gerne zu Ihren Integrationsszenarien mit SAP und Databricks.