Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Business Intelligence

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter
Abonnieren Sie jetzt unseren monatlichen Newsletter:
Newsletter abonnieren
 

Enterprise Databricks vs. SAP Databricks: Strategisches Entscheiden

Mit SAP Databricks, das inzwischen fest in die SAP Business Data Cloud integriert ist, gehen viele Unternehmen über reine Feature-Listen hinaus und stellen sich strategischere Fragen: Wie funktioniert der Datenaustausch über Systemgrenzen hinweg? Welche tatsächlichen Kosten entstehen beim Betrieb von Databricks? Und wie wirken sich diese Faktoren auf Ihre langfristigen Architekturentscheidungen aus?

Im ersten Teil unseres Vergleichs haben wir den Funktionsumfang von SAP Databricks und Enterprise Databricks untersucht und erläutert, wie sich die beiden Varianten hinsichtlich Plattformbetrieb und technischer Flexibilität unterscheiden. Im zweiten Teil richten wir den Fokus auf die zugrunde liegende Datenarchitektur und die wirtschaftlichen Aspekte. Wir werfen einen genaueren Blick auf Zero-Copy Data Sharing über Delta Sharing, vergleichen die jeweiligen Kostenmodelle und geben Ihnen strategische Orientierung, die Ihnen bei der Entscheidung zwischen SAP Databricks und Enterprise Databricks hilft.

Zero-Copy Data Sharing

Die große technologische Neuerung in SAP Business Data Cloud ist sicherlich die tiefgehende Integration von Data Lake Storage in die Plattform. In einer solchen Data Lakehouse Architektur werden Storage- und Compute-Ressourcen entkoppelt, was es dem System erlaubt, dynamisch und kosteneffizient zu skalieren. Gegenüber der klassischen In-Memory Datenbank benötigt ein solches System z.B. nicht dauerhaft große Arbeitsspeicherkapazitäten. Das sogenannte Zero-Copy Data Sharing ist eine Folge dieser Architektur: Um auf Daten im Storage zuzugreifen, muss nicht zwingend immer die gleiche Compute-Ressource genutzt werden. Es ist möglich, unterschiedliche Query Engines auf die gleichen Daten zugreifen zu lassen, ohne diese zu replizieren. Insbesondere können somit auch kompatible Drittsysteme auf die Daten zugreifen, sofern Authentifizierung und Autorisierung technisch ausgehandelt werden.

Genau diese technische Verhandlung von Zugriffsberechtigungen übernimmt das Delta Sharing Protokoll, das maßgeblich von Databricks entwickelt wurde. SAP Business Data Cloud unterstützt das Protokoll und ermöglicht auf diese Weise nicht nur den wechselseitigen Zugriff auf Datenobjekte zwischen Datasphere und SAP Databricks innerhalb der Plattform, sondern auch Datenaustausch mit Drittsystemen.

Den Austausch von Daten über Delta Sharing mit Drittsystem nennt SAP “BDC Connect”. Enterprise Databricks, Google BigQuery, Snowflake und Microsoft Fabric sind bereits als kompatible Drittsysteme von der SAP angekündigt worden.

SAP Databricks unterscheidet sich hinsichtlich Delta Sharing Funktionalität von Enterprise Databricks: während die vollwertige Databricks Plattform bereits mit vielen Drittsystemen kompatibel ist und je nach Verfügbarkeit der entsprechenden Konnektoren auf der Gegenseite den Datenaustausch bidirektional erlaubt, beschränkt SAP Databricks die Konnektivität auf eingehende Datenfreigaben. So kann ein SAP Databricks Workspace also Daten aus einer Delta Sharing Freigabe beliebiger technisch mit dem Protokoll kompatibler Datenquellen lesen. Ausgehende Datenfreigaben können aus SAP Databricks heraus jedoch nur in Richtung der SAP BDC Umgebung erstellt werden.

1_bdc-connect-ecosystem

Zero-Copy Data Sharing verheißt allgemein eine spannende Zukunft, in der große, verteilte Unternehmensplattformen weniger Aufwand für die Synchronisierung von Daten über die verschiedenen Teilsysteme hinweg erfordern. Ein zentraler Aspekt in solchen Landschaften ist allerdings immer die Frage des einheitlichen Berechtigungsmanagement - und diese wird vom Delta Sharing Protokoll nicht beantwortet.


Sehen Sie sich die Aufzeichnung unseres Webinars an: "Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms"

Neuer Call-to-Action


Eine Freigabe mittels Delta Sharing kann vereinfacht als Leseberechtigung auf alle Daten in einer Tabelle betrachtet werden. Erweiterte Zugriffsrechte basierend auf zusätzlichen Attributen, z.B. zeilenweise (Row-Level Security) oder spaltenweise (Column Masking) rollenbasierte (Role-based Access Control) Zugriffsrechte je nachdem ob ein Benutzer ein bestimmtes Attribut oder eine bestimmte Rolle zugewiesen bekommen hat, können mittels Delta Sharing nicht an das empfangene System übermittelt werden. Solche Zugriffskonzepte werden ab einer gewissen Komplexität und Größe einer Datenlandschaft benötigt und müssen aktuell in den verschiedenen Systemen, die auf einen gemeinsamen Datensatz zugreifen, jeweils mit der eigenen Query Engine explizit implementiert werden.

Diese Einschränkung gilt ausdrücklich sowohl für Datenfreigaben zwischen SAP BDC und SAP Databricks als auch für BDC und Enterprise Databricks.

2_bdc-databricks-rls

Kostenvergleich

Wenn zwei Werkzeuge miteinander verglichen werden sollen, führt kein Weg an der Betrachtung zu erwartender Kosten vorbei. Databricks folgt dabei grundsätzlich einem “Pay Per Use” Kostenmodell, sodass nur tatsächlich genutzte Ressourcen dynamisch in Rechnung gestellt werden. Dazu kommen Kosten für die genutzte Infrastruktur auf dem jeweiligen Hyperscaler.

Wie setzen sich die Kosten für Enterprise Databricks zusammen?

Enterprise Databricks verrechnet genutzte Ressourcen in die sogenannten “Databricks Units”, DBU, die letztlich als eine Art on-demand Lizenzgebühr in Rechnung gestellt werden. Als Faustformel taugt dabei, Kosten von 1 EUR pro DBU pro Stunde anzunehmen, was bereits die Betriebskosten für die zugehörigen virtuellen Maschinen beinhaltet, die zusätzlich zu den DBU-Listenpreisen vom Hyperscaler in Rechnung gestellt werden. In Databricks selbst sowie im Kostenmonitoring der Hyperscaler kann sehr granular nachvollzogen werden, welche Ressourcen in welchem Zeitraum welche Kosten verursacht haben. Diese weitgehende Transparenz ermöglicht gezielte Optimierung insbesondere von automatisierten Prozessen und effiziente Skalierung von Compute-Clustern. 

Kosten für den genutzten Storage sowie Netzwerklast stellt der Hyperscaler in Rechnung. Hier gilt: Storagekosten skalieren etwa linear und es gibt Optionen für Mengenrabatte, während bei den Ingress- und Egresskosten Vorsicht geboten ist. Sehr große Datenmengen in einem kurzen Zeitraum über die Systemgrenzen des Cloud-Anbieters zu bewegen kann zusätzliche Kosten verursachen.

Wie verrechnet SAP die Kosten für SAP Databricks?

Die Kostenrechnung für SAP Databricks ist weniger transparent oder zumindest eine Größenordnung abstrakter. Bezahlt wird für SAP “Capacity Units” (CU), die für die gesamte BDC Umgebung als Guthaben vorab gekauft werden und dann je nach Nutzung aus dem vorhandenen CU-Kontingent abfließen. In die anfallenden CU für SAP Databricks gehen sowohl die DBU-Kosten als auch die Infrastrukturbetriebskosten ein. Im SAP CU-Kapazitätsrechner müssen für den Betrieb von SAP Databricks somit vorab bereits unterschiedliche Kontingente für Storage, Compute und Netzwerklast geschätzt werden. Die Abrechnung erscheint somit einfacher, erlaubt gleichzeitig aber auch weniger konkrete Optimierung. Am Ende des Tages gilt für die tatsächlichen Kosten wie immer bei SAP-Produkten: der Endkunde verhandelt einen individuellen Preis mit der SAP, volle Transparenz ist nicht gegeben. 

Eine konkrete Kostenprognose für die Nutzung von Databricks jedweder Ausprägung ist immer eine individuelle Berechnung anhand konkreter (geschätzter) Betriebsparameter für einen spezifischen Verwendungszweck. Sofern Databricks regelmäßig von mehreren Benutzern für produktive Zwecke genutzt wird, dürfte Enterprise Databricks aufgrund der feineren Konfigurations- und Kontrollmechanismen sowie der direkten Abrechnung gegenüber Hyperscaler und Databricks günstiger ausfallen.

Enterprise Databricks vs. SAP Databricks: Unser Fazit und Ausblick

Wir haben SAP Databricks und Enterprise Databricks hinsichtlich ihres Funktionsumfangs, der unterschiedlichen Betriebsaufwände und der Kostenstruktur verglichen. Darüber hinaus haben wir unsere Erkenntnisse zu den Möglichkeiten und Einschränkungen von Zero-Copy Data Sharing in den beiden Systemvarianten dargelegt. Das Fazit bleibt: SAP Databricks ist eine deutlich eingeschränkte Light-Version von Enterprise Databricks mit vereinfachten Betriebs- und Abrechnungsmodi für SAP Kunden.

SAP Databricks hat das Potenzial, in den kommenden Jahren tatsächliche funktionale Schwerpunkte zu entwickeln, die den Einsatz in einer integrierten SAP Business Data Cloud attraktiver machen. Ein voll integriertes Autorisierungsframework liegt nahe, das komplexe rollen- und attributbasierte Zugriffsregeln auf Zeilenebene über Datasphere, SAC und SAP Databricks hinweg ohne zusätzlichen Programmieraufwand vereinheitlicht. Auch echte, durchgängig vereinheitlichte Data Governance über alle Systemkomponenten in einem integrierten Enterprise Data Catalog ist eine Chance für die SAP.

Anfang 2026 sehen wir SAP Databricks jedoch vor allem als eine komfortable Entwicklungsumgebung für bestimmte Nischen: die Entwicklung individueller Machine Learning Applikationen auf Daten, die bereits vollständig in der SAP-Welt vorliegen; komplexe Data Pipelines, die mit Datasphere Bordmitteln schlecht oder ineffizient umgesetzt werden können; komplexe Auswertungen über Daten, die aus organisatorischen Gründen nicht außerhalb der SAP-Systemlandschaft verarbeitet werden dürfen.

Abschließend zeigt sich, dass die Entscheidung zwischen SAP Databricks und Enterprise Databricks keine rein technische Fragestellung ist, sondern eine strategische Plattformentscheidung, die Architektur, Betriebsmodell und langfristige Skalierbarkeit maßgeblich beeinflusst. Um Entscheidungsträger:innen eine schnelle und fundierte Orientierung zu ermöglichen, haben wir die zentralen Erkenntnisse in einer One-Page Executive Comparison zusammengefasst. Sie fasst die wichtigsten Unterschiede und Abwägungen kompakt zusammen und unterstützt Sie dabei, einzuschätzen, welche Databricks-Variante am besten zu Ihren organisatorischen Prioritäten und strategischen Zielen passt.

Executive Comparison Matrix

Dimension Enterprise Databricks SAP Databricks
Strategische Rolle Zentrale unternehmensweite Daten- und AI-Plattform SAP-integrierte Erweiterung der Business Data Cloud
Funktionsumfang Sehr hoch (vollständige Databricks-Plattform) Begrenzt (Kernfunktionalitäten)
Operativer Aufwand Hoch (DevOps, IaC, CI/CD erforderlich) Sehr gering (vollständig durch SAP gemanagt)
Flexibilität & Erweiterbarkeit Sehr hoch Begrenzt durch Plattformdesign
Datenintegration Umfassend (Low-Code-Connectoren, Streaming, Batch) Grundlegend (primär programmatisch)
Zero-Copy Data Sharing Vollständig, bidirektional Eingehend vollständig, ausgehend auf BDC beschränkt
Kostentransparenz Hoch (DBUs + Hyperscaler-Kosten klar nachvollziehbar) Gering (SAP Capacity Units, abstrakte Abrechnung)
Kosteneffizienz im produktiven Betrieb Hoch bei skalierter Nutzung Oft geringer bei wachsendem Einsatz
SAP-Integration Neutral Nativ und tief integriert
Typische Zielgruppe Unternehmen mit komplexen, systemübergreifenden Anforderungen SAP-fokussierte Organisationen mit geringem Betriebsaufwand

Wenn Sie bewerten möchten, welche Databricks-Variante am besten zu Ihrer Systemlandschaft, Ihren Use Cases und Ihrem Betriebsmodell passt, nehmen Sie gerne Kontakt mit uns auf. Wir unterstützen Sie bei der Evaluierung, Analyse und fundierten Entscheidungsfindung – vom ersten Assessment bis hin zu einem konkreten Architekturplan.

 

Erfahren Sie mehr über  Databricks

 

 

FAQ - Enterprise Databricks vs. SAP Databricks

Hier finden Sie einige der häufigst gestellten Fragen zum Thema „Enterprise Databricks und SAP Databricks im Vergleich: Alles was man wissen muss“.

Wie funktioniert Zero-Copy-Datenfreigabe? Zero-Copy-Datenfreigabe ermöglicht es Systemen, auf dieselben Daten zuzugreifen, ohne sie zu replizieren. SAP Databricks unterstützt eingehende Datenfreigaben, jedoch keine ausgehenden, über das Delta Sharing-Protokoll.
Kann ich später zwischen SAP Databricks und Enterprise Databricks wechseln? Ja, Sie können von SAP Databricks zu Enterprise Databricks wechseln, wenn Ihre Anforderungen wachsen, insbesondere für fortgeschrittene Funktionen und bidirektionale Datenfreigaben.
Was ist BDC Partner Connect? BDC Partner Connect ermöglicht den Datenaustausch zwischen SAP Databricks und Drittsystemen wie Google BigQuery und Snowflake über das Delta Sharing-Protokoll.
Was ist der Hauptunterschied zwischen SAP Databricks und Enterprise Databricks? SAP Databricks ist eine vereinfachte Version mit eingeschränkten Funktionen und weniger Kostentransparenz, während Enterprise Databricks erweiterte Funktionen und eine bessere Kostenverfolgung bietet.
Wie wird SAP Databricks abgerechnet? SAP Databricks verwendet „Capacity Units“ (CUs), die sowohl DBU- als auch Infrastrukturkosten abdecken, mit weniger Kostentransparenz im Vergleich zu Enterprise Databricks.
Kann SAP Databricks fortgeschrittene Sicherheitsfunktionen handhaben? Nein, SAP Databricks unterstützt derzeit keine fortgeschrittenen Sicherheitsfunktionen wie Row-Level-Security über Delta Sharing. Diese müssen separat implementiert werden.

,

avatar

Markus Suhr

Markus Suhr ist seit 2022 als Senior Berater für Machine Learning und Data Engineering bei der NextLytics AG tätig. Mit einschlägiger Erfahrung als Systemarchitekt und Teamleiter im Bereich Data Engineering kennt er sich bestens mit Microservices, Datenbanken und Workflow Orchestrierung aus - insbesondere im Bereich der Open Source Lösungen. In seiner Freizeit versucht er, das komplexe System des Gemüseanbaus im eigenen Garten zu optimieren.

Sie haben eine Frage zum Blog?
Fragen Sie Markus Suhr

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Enterprise Databricks vs. SAP Databricks: Strategisches Entscheiden
11:30

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge