Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Business Intelligence

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter
Abonnieren Sie jetzt unseren monatlichen Newsletter:
Newsletter abonnieren
 

Enterprise Databricks vs. SAP Databricks: die wichtigsten Unterschiede

Ein Jahr ist vergangen, seit SAP im Februar 2025 die neue Produktstrategie für ihre Datenplattform vorgestellt hat. Mit der SAP Business Data Cloud ist in diesem Zusammenhang auch SAP Databricks entstanden, das neue Mischprodukt aus der Kooperation der beiden Datenkonzerne. Seit der Ankündigung diskutieren wir regelmäßig die Frage, was SAP Databricks und das Originalprodukt, mittlerweile meist “Enterprise Databricks” genannt, konkret voneinander unterscheidet. Welche Systemumgebung eignet sich für ein bestimmtes Nutzungsszenario, welche Funktionen sind in SAP Databricks enthalten oder nicht enthalten, und gibt es strategische Gründe für die eine oder andere Variante? 

Wir geben Einblick in die Ergebnisse unserer Recherchen und geben Ihnen alle Informationen mit, die Sie für eine informierte Entscheidung benötigen. Im heutigen ersten Teil dieser Übersicht legen wir den Fokus auf den Funktionsumfang der beiden Databricks-Varianten und wie sich diese hinsichtlich des technischen Systembetriebs aus Kundensicht unterscheiden. Im zweiten Teil betrachten wir das sogenannte “Zero-Copy Data Sharing”, Betriebskosten und strategische Überlegungen zur Entscheidung zwischen den Varianten.

Was umfasst die SAP Business Data Cloud über SAP Databricks hinaus? Mehr dazu erfahren Sie in unserer BDC Blog-Serie aus dem letzten Jahr.

Reduziert mit Absicht: Welche Databricks-Funktionen fehlen – und warum?

SAP Databricks ist ein im Funktionsumfang reduzierter Databricks Workspace, der direkt in die Systemlandschaft der SAP Business Data Cloud integriert ist. Neben Datasphere und der Analytics Cloud ist SAP Databricks damit eine Kernkomponente von BDC. Innerhalb einer Instanz von BDC ist genau ein SAP Databricks Workspace verfügbar und wird in der Cloud-Infrastruktur des für BDC gewählten Hyperscalers bereitgestellt, Amazon Web Services, Google Cloud Platform oder Microsoft Azure.

In der Funktionalität beschränkt sich der SAP Databricks Workspace auf Kernfunktionen von Databricks, die seit vielen Jahren als wichtige Bausteine bekannt sind: Databricks Notebooks als interaktive und kollaborative Entwicklungsumgebung für Python und SQL. Skalierbare Compute-Ressourcen auf Basis von Apache Spark oder der eigens entwickelten Databricks Photon Engine für SQL Warehouses. Die Entwicklung von Machine Learning Applikationen wird durch das MLflow Framework und eine entsprechende Benutzeroberfläche für Monitoring, Modell-Versionierung und -Evaluierung, sowie die Bereitstellung von Modellen als Webdienst unterstützt. Nicht zuletzt setzen alle diese Funktionen auf dem Lakehouse-Storage Modell mit Delta Tables als Speicherformat auf und sind mit dem Unity Catalog als zentrale Anlaufstelle für Zugriffssteuerung und Berechtigungsmanagement verbunden. 

Hinsichtlich der Konnektivität bzw. Integration von Daten aus BDC und Drittsystemen gibt es ebenfalls einige Besonderheiten: SAP Databricks kann mittels Delta Sharing Protokoll Tabellen oder Views für die restliche BDC-Umgebung freigeben, sodass Daten direkt und ohne Replikation in der Analytics Cloud oder in Datasphere genutzt werden können. Umgekehrt können freigegebene Daten aus der BDC oder aus Drittsystemen im Databricks Workspace genutzt werden. Aus dem SAP Databricks Workspace heraus können allerdings keine Delta Shares für Drittsysteme freigegeben werden. Ausgehend ist dieses effiziente Zugriffsprotokoll auf die BDC-Umgebung eingeschränkt.

1_bdc-integration

Hinsichtlich eingehender Datenintegration unterstützt SAP Databricks grundsätzlich beliebige Quellen, insofern die Anbindung mit Python programmiert werden kann. In kleinerem Rahmen ist dies sicherlich eine gute Ergänzung zu nativen Konnektoren anderer BDC Komponenten wie Datasphere, aber nicht ideal. Neben der Möglichkeit, Daten per Delta Sharing aus Drittsystemen zu lesen, fehlen im SAP Databricks Workspace hier Low-Code Konnektoren für weit verbreitete Business Software und Datenbanken, sowie von Databricks entwickelte Komfortfunktionen für das Einlesen von Near-Live-Datenströmen (Databricks Autoloader). Das Databricks Jobs Framework zur Prozesssteuerung und Orchestrierung ist in SAP Databricks vorhanden, aber ebenfalls auf grundständige zeitbasierte Trigger und einfache Abläufe beschränkt, native Spark Jobs, SQL Skripte oder Pipelines auf Basis des dbt-Frameworks können nicht wie gewohnt ausgeführt werden.


Sehen Sie sich die Aufzeichnung unseres Webinars an: "Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms"

Neuer Call-to-Action


Schließlich muss noch erwähnt werden, dass im SAP Databricks Workspace sämtliche Compute-Ressourcen ausschließlich im “Serverless” Modus genutzt werden können. Anwender und Administratoren des Workspace haben somit keine direkte Möglichkeit, spezifische Ressourcen zu konfigurieren und für bestimmte Aufgaben zu skalieren.

2_feature-comparison

Enterprise Databricks kommt ohne vergleichbare Einschränkungen und darüber hinaus mit einer langen Liste weiterer Funktionen und Systemkomponenten. Dazu zählt insbesondere eine eigene, vollwertige Benutzeroberfläche für Dashboarding und Business Intelligence samt LLM-gestützter Interaktionsmöglichkeiten in natürlicher Sprache. Im Bereich der generativen KI-Modelle und agentischer Systeme integriert Databricks regelmäßig die nötigen Werkzeuge für Entwicklung und Betrieb der aktuellen Innovationen: Retrieval Augmented Generation (RAG) und Agentic-AI können sowohl programmiert als auch über low-code Eingabemasken aus vorkonfigurierten Bausteinen komponiert werden.

Datenintegrationsfunktionen gehen in Enterprise Databricks deutlich weiter als in SAP Databricks: Autoloader für effizientes Laden von Dateiinhalten aus Storage-Diensten in beinahe Echtzeit und low-code Konnektoren für die Anbindung von verbreiteten Softwareprodukten und Datenbanken sind vorhanden. Darüber hinaus können mit Databricks Job unterschiedlichste Workflows zusammengestellt und orchestriert werden. Mit Spark Declarative Pipelines (bis 2025 als Delta Live Tables bezeichnet) können komplett virtuelle Datenmodelle konstruiert und für maximale Performance in Echtzeit synchronisiert und vorberechnet werden. Das eigene Applikationsentwicklungsframework und ein Marktplatz zum Austausch von Daten und Applikationen mit anderen Databricks Workspaces runden das Angebot ab.

Als Zwischenfazit kann festgestellt werden, dass SAP Databricks hinsichtlich der Funktionalität keinerlei Vorteile gegenüber Enterprise Databricks bringt. Exklusive Features im SAP Databricks Workspace für eine tiefere Integration mit der SAP-Landschaft z.B. hinsichtlich übergreifender Zugriffssteuerung gibt es (derzeit) nicht.

Plattformbetrieb als Entscheidungsfaktor: SaaS vs. PaaS

SAP Databricks und Enterprise Databricks stellen im Betrieb durchaus unterschiedliche Anforderungen an eine Organisation. Kurz und pointiert formuliert heißt das: SAP Databricks ist Software-as-a-Service (SaaS), Enterprise Databricks ist Platform-as-a-Service (PaaS). Ganz zutreffend ist diese Feststellung nicht, denn auch in SAP Databricks haben Sie wiederum eine weitgehend offene Plattform, die ich in vielerlei Weise nutzen kann. Aber die Aufwände, den Workspace für Anwender zur Verfügung zu stellen, sind auf ein Minimum reduziert. Compute-Ressourcen sind komplett hinter dem “Serverless”-Label versteckt und die Anbindung an Cloud-Storage erfolgt ebenfalls vollständig durch das SAP BDC Deployment. Wiederum verkürzt ausgedrückt: SAP Databricks bekomme ich auf Knopfdruck in meine SAP BDC Systemlandschaft bereitgestellt.

Enterprise Databricks betreiben Organisationen in aller Regel selbst oder mit Unterstützung durch einen Dienstleister im eigenen Cloud-Mandanten. Für einen schnellen POC lassen sich die benötigten Ressourcen wie Storage und Netzwerkkomponenten ebenfalls auf Knopfdruck beim gewünschten Hyperscaler ausrollen, im produktiven Betrieb erfordern die Anforderungen hinsichtlich Informationssicherheit allerdings immer vollständig definierte und nachvollziehbare Konzepte und Prozesse, die am besten mit einem Infrastructure-as-Code-Ansatz und den zugehörigen CI/CD Pipelines erreicht werden können. Die Einstiegshürde liegt hier deutlich höher als im Gesamtpaket der SAP Business Data Cloud, die dem Kunden solche Prozesse weitestgehend abnimmt.

3_devops-cycles

Zwischenfazit: SAP Databricks vs. Enterprise Databricks

Im ersten Teil unseres Vergleichs von Enterprise Databricks und SAP Databricks zeigt sich schon deutlich, dass die Entscheidung zwischen diesen Varianten eine Abwägung zwischen Funktionsumfang und Betriebsaufwand darstellt. SAP Databricks erfordert weniger Know-How aus hinsichtlich Infrastruktur-DevOps-Feld oder verspricht zumindest deutlich geringerer Konfigurationsaufwand für Kunden und ihre Teams. Demgegenüber fehlen einige spannende technische Features der Databricks Plattform. Insbesondere, dass in einem SAP Databricks Workspace viele der Low-Code-Komponenten zur Anbindung an Drittsysteme nicht verfügbar sind, widerspricht gewissermaßen dem Anspruch der SAP-Systemlandschaft, Technologie für ein möglichst breites Publikum zugänglich zu gestalten.

Im zweiten Teil unseres Systemvergleichs schauen wir genauer auf das sogenannte “Zero-Copy Data Sharing” und welche Unterschiede sich daraus ergeben. Zudem werden wir einen Blick auf die Kostenstruktur werfen und weitere strategische Aspekte beleuchten, die für eine Entscheidung wichtig sind.

Wenn Sie bereits heute bewerten möchten, welche Databricks-Variante besser zu Ihrer Systemlandschaft, Ihren Use Cases und Ihrem Betriebsmodell passt, sprechen Sie uns gerne an. Wir unterstützen Sie bei der Einordnung, Bewertung und Entscheidungsfindung - von der ersten Analyse bis zur konkreten Architektur.

 

Erfahren Sie mehr über  Databricks

 

FAQ - Enterprise Databricks vs. SAP Databricks

Hier finden Sie einige der häufigst gestellten Fragen zum Thema „FEnterprise Databricks und SAP Databricks im Vergleich: Alles was man wissen muss“.

Was ist SAP Databricks? SAP Databricks ist ein in die SAP Business Data Cloud integrierter Databricks Workspace mit reduziertem Funktionsumfang und vollständig serverlosem Betrieb.
Was ist Enterprise Databricks? Enterprise Databricks ist das vollständige Produkt von Databricks mit allen Plattformfunktionen für Data Engineering, Analytics, Machine Learning und artificial intelligence.
Worin liegt der größte funktionale Unterschied? SAP Databricks bietet nur Kernfunktionen, während Enterprise Databricks zusätzliche Komponenten wie BI-Dashboards, Low-Code-Integration, RAG und Agentic-AI umfasst.
Welche Compute-Optionen gibt es in SAP Databricks? In SAP Databricks stehen Compute-Ressourcen ausschließlich im Serverless-Modus zur Verfügung, ohne individuelle Konfiguration durch den Kunden.
Wie unterscheiden sich die Integrationsmöglichkeiten? Enterprise Databricks bietet Autoloader, Low-Code-Konnektoren und flexible Orchestrierung, während SAP Databricks hier deutlich eingeschränkt ist.
Welche Rolle spielt Delta Sharing?

SAP Databricks unterstützt Delta Sharing innerhalb der BDC, erlaubt jedoch kein externes Teilen von Daten an Drittsysteme.

Wie unterscheiden sich die Betriebsmodelle? SAP Databricks ist stark SaaS-orientiert und sofort einsatzbereit, Enterprise Databricks erfordert eigenes Plattform- und DevOps-Know-how.
Gibt es exklusive SAP-Features in SAP Databricks? Nein. Aktuell bietet SAP Databricks keine exklusiven Funktionen gegenüber Enterprise Databricks.

 

,

avatar

Markus Suhr

Markus Suhr ist seit 2022 als Senior Berater für Machine Learning und Data Engineering bei der NextLytics AG tätig. Mit einschlägiger Erfahrung als Systemarchitekt und Teamleiter im Bereich Data Engineering kennt er sich bestens mit Microservices, Datenbanken und Workflow Orchestrierung aus - insbesondere im Bereich der Open Source Lösungen. In seiner Freizeit versucht er, das komplexe System des Gemüseanbaus im eigenen Garten zu optimieren.

Sie haben eine Frage zum Blog?
Fragen Sie Markus Suhr

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Enterprise Databricks vs. SAP Databricks: die wichtigsten Unterschiede
10:05

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge