Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Dashboarding

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter Teaser
Hier für unseren monatlichen Newsletter anmelden!
Newsletter abonnieren
 

Databricks

Einheitliche Daten und Analysen für Ihr Unternehmen

Databricks ist das marktführende Data-Lakehouse-Produkt und Vorreiter für universell einsetzbare cloudbasierte Datenverarbeitungs- und Analyseplattformen. Es bietet eine zentrale Anlaufstelle für eine Vielzahl von Akteuren aus datengesteuerten Unternehmen: von Domain-Experten und Analysten bis hin zu Dateningenieuren und Datenwissenschaftlern. Führen Sie alle Unternehmensdaten in einem zentral verwalteten, skalierbaren Speicher zusammen und verwandeln Sie sie in nutzbare Datenbestände für Reporting, Planung und Prognosen.

Databricks ist Pionier und Namensgeber im Data Lakehouse Bereich.. Diese Architektur trennt Speicher- und Rechenressourcen, sodass beide unabhängig voneinander skalierbar sind.. Die Kommunikation zwischen Speicher- und Computing-Schichten verwendet Protokolle und Konzepte, die Parallelisierung und horizontale Skalierung nativ unterstützen. Auf diese Weise lassen sich deutlich größere Datenmengen speichern und verarbeiten als in herkömmlichen Datenbanksystemen.

Databricks NextLytics

 

Unsere-Experten haben Databricks als die umfassendste und benutzerfreundlichste Cloud-basierte Daten- und Analyseplattformam Markt ausgewählt. Unsere Kunden nutzen die hocheffizienten Datenverarbeitungs- und Integrationsfunktionen, um Einblicke zu gewinnen, Wettbewerbsvorteile zu sichern und aus Daten messbaren Wert zu schöpfen.

databricks architecture overview

 

Databricks in Kürze

Databricks vereint Data Science und Business Intelligence in einer zentralen Plattform. Der Umfang der Funktionalitäten lässt sich kaum in wenigen Sätzen erfassen. Die folgenden fünf Fakten, zeigen auf, wie Databricks Ihr Unternehmen unterstützt, Daten in messbaren Erfolg umzuwandeln:

Sicherheit, Governance und Compliance mit Unity Catalog
  • Alles in einer zentralen Plattform: Behalten Sie die Kontrolle über den Datenzugriff und verfolgen Sie alle Änderungen an Ihren Datenstrukturen.
  • Zentrale, einheitliche Steuerung über Warehouse-, Streaming-, ETL-, KI- und Machine-Learning-Anwendungen sowie Business Intelligence hinweg

Security

 

Offenheit für Innovation und Erkenntnisse
  • Databricks integriert führende Open-Source-Tools mit offenen Datenformaten
  • Delta Lake UniForm harmonisiert den Datenzugriff über Formate und Protokolle hinweg, z. B. Apache Iceberg, Apache Hudi
  • Vollständige, nahtlose Interoperabilität mit anderen gängigen Plattformen wie Snowflake, Google BigQuery, Amazon Redshift und Microsoft Fabric

Rocket

 

KI-gestützte Datenintelligenz
    • Databricks integriert kontextsensitive KI-Unterstützung und ermöglicht schnellere Arbeitsabläufe bei technischen und analytischen Aufgaben.
    • Erstklassige Analysen in natürlicher Sprache und Datenvisualisierung ermöglichen es auch nicht-technischen Experten, Daten als Wettbewerbsvorteil zu nutzen.
    • Das integrierte Databricks ML/AI-Entwicklungs- und Betriebs-Framework vereint sämtliche Anforderungen Ihres Unternehmens in einer Lösung.

Machine Learning

 

Kosteneffizienz durch transparente Preisgestaltung
  • Verbrauchsbasiertes Preismodell: Sie zahlen nur für tatsächlich genutzte Rechen- und Speicherressourcen.
  • Optimierter Ressourcenverbrauch: automatisch skalierende Recheneinheiten und bedarfsgesteuerte serverlose Ressourcen steuern den Verbrauch effizient.

Income

 

Das führende Data Lakehouse
  • Die Data Lakehouse-Architektur kombiniert maximale Leistung und Kosteneffizienz
  • Kontinuierliche Innovation: Databricks wird von den Erfindern beliebter Open-Source-Technologien wie Apache Spark, mlflow, Delta Lake und Unity Catalog
  • Databricks im Forrester Wave™ Data Lakehouses - Vergleich (Q2 2024): ausgezeichnet als Gewinner und damit führende Plattform unter allen namhaften Datenplattformen.

Datalake

 

Databricks im Vergleich zu SAP Business Data Cloud und Microsoft Fabric

Databricks ist die funktionsreichste und innovativste Cloud-Datenplattform auf dem Markt. Mit dem Aufkommen der Data-Lakehouse-Architektur konvergiert die klassische Data-Warehouse-Technologie in Richtung ähnlicher Skalierbarkeit und Funktionen. In den vergangenen Jahren haben Plattformen zunehmend Tools für spezifische Aspekte der Daten-, Analyse- und KI-Landschaft integriert. Heute haben mehrere Anbieter Komplettlösungen für nahezu jedes mögliche Szenario im Angebot, mit dem Unternehmen im Umgang mit Daten konfrontiert werden könnte:

  • Microsoft Fabric
  • SAP Business Data Cloud,
  • Databricks
  • Google BigQuery, Amazon Redshift von AWS sowie Snowflake bieten ihre nativen Lösungen und zusätzlichen Ökosystemen an.

Darüber hinaus erobern Dremio und MotherDuck ihre Nischen auf dem aufstrebenden Lakehouse-Markt.

Bei diesen vielfältigen Angeboten ist es kaum möglich, den Funktionsumfang und die Reife all dieser potenziellen Alternativen gegeneinander abzuwägen. 

Wir haben einen übersichtlichen Quervergleich zwischen vier Hauptakteuren in einer Matrix für Sie zusammengestellt: 

 

Databricks_Logo

 

 Business Data Cloud

SAP_logo_klein

 

Microsoft Fabric

Microsoft-Fabric

 

dremio-logo-sva-2023

 

Betriebsmodell

Cloud Platform-as-a-Service
(AWS, GCP, Azure)

Cloud Platform-as-a-Service 

Cloud Platform-as-a-Service 

Public/Private Cloud Software-as-a-Service (Dremio oder beliebiger Cloud-Provider)

On-Premises Betrieb ist möglich.

Funktionsumfang

Data Lakehouse,
Business Intelligence und Data Science / KI

Data Warehouse,
Business Intelligence und Data Science / KI

Data Warehouse, Data Lakehouse,
Business Intelligence und Data Science / KI

Data Lakehouse, Self-Service Analytics (SQL)

Stärken

Offene Schnittstellen und Konnektivität, Kosteneffizienz

Enterprise Software Integration (SAP)

Enterprise Software Integration (Microsoft)

Offene Schnittstellen und Konnektivität, Kosteneffizienz

Fazit

All-in-one Plattform mit pro-code / low-code Fokus

All-in-one Plattform mit low-code / no-code Fokus

All-in-one Plattform mit low-code / no-code Fokus

Lakehouse-Spezialsystem mit pro-code / low-code  Fokus

 

Next-Gen Data Warehousing - Ihr Daten-Ökosystem neu gedacht

Databricks vereint modernste Komponenten und Funktionen für Data Warehousing und Data Engineering in einer Plattform. Ob große Datenmengen, hohe Geschwindigkeit, komplexe Muster oder sich ständig ändernde Quellschemata – Databricks bietet die passenden Tools, um Daten effizient zu erfassen und zu harmonisieren. Semantisch reichhaltige, normalisierte Datenmodelle lassen sich mühelos auf Basis von Delta-Lake-Tabellen erstellen. . Noch nie war es so einfach,   zentrale und vertrauenswürdige Datenquelle für alle Analysezwecke aufzubauen - und das auf nur einer Plattform.

lakehouse concept

 

Alle Datenquellen - eine Plattform

Databricks unterstützt Sie dabei, relevante Daten wie historische Batch-Daten aus Altsystemen oder Echtzeit-Streaming Daten aus verschiedenen Quellen in eine einheitliche Umgebung zu integrieren.

Anstelle von fragmentierten Datenpipelines mit verschiedenen Tools bietet Databricks eine zentrale Plattform für die Datenerfassung, -verarbeitung und -verwaltung. Dies ermöglicht eine zuverlässige Grundlage für Analyse-, Reporting- und maschinelle Lernprojekte - über Teams und Anwendungfälle hinweg.

Zu den zentralen Funktionen gehören:

Autoloader
Änderungen an einem Objektspeicher oder einer Dateisystemquelle überwachen sowie geänderte oder neue Dateien automatisch in Echtzeit verarbeiten.

Lakeflow ETL
Intuitive Benutzeroberfläche zum Erstellen von Pipelines zum Datenimport aus verschiedenen Quellsystemen.

Lakehouse Connect
Integration bestehender Datenbanken als Plug-in inkl. direkter Abfrage - als wären sie ein weiterer Namespace im Databricks Unity Catalog.

Spark-JDBC
Native Apache Spark-Job-Parallelisierung, um Daten mit maximalem Durchsatz zu und von jedem entfernten JDBC-kompatiblen System zu übertragen.

Effiziente Nutzung skalierbarer Rechenleistung für Big Data und Analysen

Databricks nutzt Apache Spark zur Verarbeitung großer Datenmengen und anspruchsvoller Arbeitslasten. Die Plattform skaliert Ressourcen automatisch - je nach Umfang der Tasks. Dank dieses verbrauchsorientierten Preismodells zahlen Sie nur für die tatsächlich genutzten Berechnungen. Dank dieser Flexibilität können Teams umfangreiche Datensätze verarbeiten, komplexe Transformationen sowie erweiterte Analysen durchführen, ohne sich Gedanken um Kapazitätsengpässe oder unerwartete Kosten machen zu müssen.

Apache_Spark_logo

 

Gemeinsame Entwicklung ohne Tool-Brüche

Mit Databricks arbeiten Entwickler und Datenwissenschaftler in gemeinsamen Arbeitsbereichen effektiv zusammen. Die Plattform unterstützt mehrere Programmiersprachen – u. a. Python, SQL und R – und wird damit zur idealen Umgebung für die Entwicklung und Pflege von Datenpipelines. Darüber hinaus erleichtert die integrierte Git-Integration die Versionskontrolle, fördert strenge Dokumentationspraktiken und ermöglicht es Teams, auf transparente Weise zusammenzuarbeiten und den Entwicklungsfortschritt zu verfolgen. Lösungen können direkt über Jupyter Notebooks auf der Plattform entwickelt, getestet und bereitgestellt werden - so können Entwicklungsteams nahtlos vom Prototyping zur Produktion übergehen, ohne zwischen unterschiedlichen Tools wechseln zu müssen.

databricks devops best practices git terraform

Databricks DevOps-Prozesse am Beispiel von Azure DevOps: Über den drei Databricks-Systemumgebungen ist der Infrastructure-as-Code-Prozess dargestellt, der Systemkomponenten wie Workspaces und Berechtigungsverwaltung, Spark-Cluster, Databricks-Jobs usw. mit Terraform definiert, überprüft und bereitstellt. Der Entwicklungsprozess für die Datenverarbeitung im Lakehouse ist in der unteren Hälfte dargestellt. SQL- und Python-Notebooks sowie zentrale Python-Bibliotheken werden im Dev-Workspace von Databricks entwickelt, versioniert und mit Git synchronisiert, automatisch getestet und über die Pipeline bereitgestellt.

 

Eine zentrale Datenbasis für zuverlässige Datenprodukte

Mit Databricks erstellen Sie ein vollständig virtuelles Echtzeit-Datenmodell über Ihren logischen Layer hinweg - basierend auf Delta Live Tables. Folgen Sie gängigen Datenarchitekturmustern wie Data Vault oder Medallion und nutzen Sie branchenübliche Tools wie dbt für die kollaborative Modellierung, um das gewünschte Ergebnis zu definieren - statt sich mit der technischen Logik der Massenverarbeitung zu beschäftigen. Sobald das zentral verwaltete Datenmodell in Unity Catalog eingerichtet ist, können Leistung und Änderungsverlauf in der gesamten Landschaft mit integrierten Funktionen für den Delta-Tabellenverlauf und die Datenherkunft verfolgt werden. KI-gestützte,verständlich formulierte Anmerkungen im Unity Catalog machen es Fachanwendern leichter, sich im Datenmodell zurechtzufinden und über Self-Service SQL-Abfrageoberflächen und BI-Dashboards Einblicke zu gewinnen.

databricks central database

 

BI- und KI-Strategie gemeinsam denken - mit Databricks

Databricks ist eine ausgereifte, sich ständig weiterentwickelnde Entwicklungsplattform für Machine Learning, Deep Learning, generative KI, Retrieval Augmented Generation, agentische KI-Systeme sowie weitere Varianten aktueller datenwissenschaftlicher Trends. Wie kein anderes Softwareprodukt kombiniert Databricks KI und BI zu einem echten Data-Intelligence-Arbeitsbereich - für schnelle Erkenntnisse und Wettbewerbsvorteile.

Daten auf einen Blick verstehen - mit intuitiven Dashboards von Databricks

Mit den integrierten Dashboards von Databricks lassen sich wichtige Leistungskennzahlen in Echtzeit überwachen - ganz ohne zusätzliche Software oder aufwendige Einrichtung. Dank verschiedener Visualisierungsoptionen können Datenteams schnell verständliche Berichte erstellen. So erkennen Sie schneller Trends, können Erkenntnisse direkt teilen und fundierte Entscheidungen für Ihr Unternehmen treffen.

Erschließen Sie Geschäftswert mit ML-Workflows

Die Entwicklung,Feinabstimmung, Bewertung und Bereitstellung von Machine-Learning-Modellen wird unter dem Begriff MLOps zusammengefasst. Die ML-Plattform von Databricks unterstützt Sie, Modelle für maschinelles Lernen entlang dieses Prozesses in einer integrierten Umgebung zu trainieren, einzusetzen und zu verwalten. Dabei arbeiten Sie in einer integrierten Umgebung, die direkt auf Ihre Daten zugreift und diese verarbeitet. Durch diese enge Verknüpfung von Daten und Modellierung gewinnen Sie Erkenntnisse basierend auf den aktuellsten Informationen. So lassen sich durch intelligente Automatisierung und prädiktive Analysen neue Möglichkeiten erschließen und Arbeitsabläufe optimieren. 

Statt mehrere Softwarelösungen zu kombinieren, um einen durchgängigen MLOps-Prozess abzubilden, stellt Databricks Ihren Data Scientists alle notwendigen Bausteine zur Verfügung:

‣ Datenzugriff und Feature-Engineering

Integrieren Sie alle Ihre Quelldaten im Unity Catalog und nutzen Sie Jupyter Notebooks oder Spark SQL, um Rohdaten in optimierte Features für Ihr ML-Modell umzuwandeln.

 Feature Store

Vollständig definierte Features werden im Delta Lake-Format im Unity Catalog gespeichert und als dedizierte Feature-Tabellen für den Einsatz in ML-Modellen bereitgestellt.

 Training von Modellen

Für die Entwicklung und das Training neuer ML-Modelle, können Sie die Rechenleistung von Apache Spark, beliebige Python-Bibliotheken von Drittanbietern und Machine-Learning-Frameworks wie TensorFlow, XGBoost, Keras oder Scikit-Learn nutzen. Mit der vollständig integrierten mlflow-Umgebung behalten Sie dabei den Überblick über Versionen, Experimente und Performance.

Modellverfolgung und -bewertung

Modellversionen werden direkt im Unity Catalog gespeichert und mlflow verfolgt den vollständigen Versuchs- und Leistungsverlauf zur Bewertung.

Modellbereitstellung

Produktionsreife Modelle lassen sich direkt aus dem Unity Catalog unter dem zentralen Governance-Schema mit mlflow per REST-API bereitgestellen. Alternativ können sie in Spark SQL für Ad-hoc-Inferenzen in Analyseabfragen integriert oder mit dem Databricks Apps-Framework in vollständig benutzerorientierte grafische Anwendungen umgewandelt werden.

Neue Wege gehen mit agentischer und generativer KI

Databricks treibt Innovation durch den Einsatz agentischer und generativer KI voran und ermöglicht Zugriff auf LLM-Basismodelle sowie KI-Integration in SQL-Abfragen. Das Mosaic AI Agent Framework ist ein umfassendes Toolkit, welches die Entwicklung, Bereitstellung und Evaluierung produktionsreifer KI-Agenten, wie z. B. RAG-Anwendungen (Retrieval Augmented Generation) vereinfacht. Dieses Framework unterstützt die Integration externer Tools wie LangChain und LlamaIndex, sodass Entwickler bevorzugte Frameworks verwenden und gleichzeitig den verwalteten Unity-Catalog sowie das Agentenbewertungs-Framework von Databricks nutzen können.

Das Mosaic AI Agent Framework bietet eine Vielzahl an Funktionen zur Optimierung der Agentenentwicklung. Entwickler können KI-Agenten erstellen und anpassen, eigene Agenten-Tools zur Erweiterung der LLM-Funktionen erstellen, Agenteninteraktionen zur Fehlerbehebung nachverfolgen und die Agenten hinsichtlich Qualität, Kosten und Latenz bewerten. Darüber hinaus unterstützt das Framework die Qualitätsverbesserung der Agenten mithilfe von DSPy, die Automatisierung der Prompt-Entwicklung und die Feinabstimmung. Schließlich können Agenten mit Funktionen wie Token-Streaming, Request/Response-Protokollierung und einer integrierten Überprüfungs-App für Benutzerfeedback in der Produktion eingesetzt werden.

Entscheidungsträger mit KI unterstützen

Mit dem Databricks-Assistenten stellt Databricks ein leistungsstarkes KI-Tool zur Verfügung, das die Leistungsfähigkeit großer Sprachmodelle nutzt, um Benutzer auf vielfältige Weise mithilfe generativer KI zu unterstützen. Dies kann durch Abfragen von Daten in natürlicher Sprache, durch Generierung von SQL- oder Python-Codes, durch Erklärung komplexer Code-Segmente oder gezielter Hilfe bei der Fehlersuche erfolgen.

Der Assistent basiert auf der DatabricksIQ Intelligence Engine und ist tief in die Databricks-Plattform integriert. Er kann personalisierte kontextbezogene Antworten zu Daten, Code und Teilen Ihrer Konfiguration liefern. DatabricksIQ integriert Informationen aus dem Unity-Catalog, Ihren Dashboards, Notizbüchern, Datenpipelines und Dokumentationen, und generiert Antworten, die auf Ihre Geschäftsprozesse und Arbeitsabläufe abgestimmt sind.

Mit Databricks unternehmensweit Mehrwert schaffen

Die strategische Rolle von Databricks in modernen Cloud- und Datenlandschaften

Unternehmensweite Zusammenarbeit und Governance stärken:

Databricks unterstützt eine sichere und effiziente Zusammenarbeit in der Cloud mit integrierten Sicherheits-, Compliance- und Kollaborationswerkzeugen. So können Dateningenieure, Geschäftsanalysten und Domain-Experten gemeinsam an datengetriebenen Lösungen arbeiten.

Icons Governance

 

Geschäftsergebnisse beschleunigen - durch einfache Dateninfrastruktur:

Die Lakehouse-Architektur von Databricks kombiniert die Funktionalitäten von Data Lakes und Data Warehouses in einer Plattform. Dies reduziert die Gesamtbetriebskosten, verringert die Komplexität und richtet Datenstrategien auf Geschäftsziele aus.

Parallel

 

SAP und Databricks: Was ist die Business Data Cloud?

Die SAP Business Data Cloud vereint mehrere bisher getrennte Produkte in einer leistungsfähigen Cloud-Plattform für Datenmanagement und Business Intelligence:

SAP Datasphere
  • Modernes Cloud-Data-Warehouse mit HANA-In-Memory-Datenbank
  • Enge Integration mit klassischen SAP-Enterprise-Produkten wie ERP-, HR- oder SAP-BW-Warehouses und BI-Lösungen
  • Datenaustausch im Unternehmen und Aufbau zentraler Datenmodelle mittels Citizen-Developer-Funktionen

SAP Analytics Cloud
  • Planungsfunktionen mit enger Verknüpfung zu Datenmodellen von Datasphere oder dem BW-Backend

SAP Databricks
  • Mosaic AI- und ML-Arbeitsbereich
  • Unity Catalog
  • SQL Warehouse-Abfrage-Engine
  • Entwicklungsumgebung & Computingressourcen

Business Analytics Cloud

 

Anfang 2025 wird ein vollständig integrierter Databricks-Arbeitsbereich Teil der SAP Business Data Cloud.
Einige der Kernkomponenten von Databricks wurden in die SAP Business Data Cloud-Produktsuite integriert:

  • Der Mosaic AI- und ML-Arbeitsbereich,
  • Der Unity Catalog der Lakehouse-Governance-Schicht und
  • Die SQL Warehouse-Abfrage-Engine.

Ferner enthalten sind Kernfunktionen von Databricks wie:

  • Jupyter Notebooks als Entwicklungsumgebung und
  • Apache Spark und Photon Engine als skalierbare verteilte Computing-Ressourcen.

 

SAP-Datenmodelle sind nahtlos im Databricks-Katalog verfügbar - und umgekehrt. Dies verspricht eine effiziente, kopierfreie Datenintegration zwischen etablierten SAP-Geschäftsdomänendaten und Drittanbietersystemen - oder sogar unstrukturierten Daten.

Technologisch basiert diese Integration auf den nativen Data-Lakehouse-Innovationen von Databricks wie dem Delta-Lake-Tabellenformat und dem Delta-Sharing-Austauschprotokoll.

Für Unternehmen, die in großem Umfang auf SAP setzen und schon in die Cloud native Datasphere-Umgebung investiert haben, stellt “SAP Databricks“ eine komfortable Lösung dar. Sie bietet eine integrierte Alternative zu einer eigenständigen Databricks-Lösung.

Sie möchten mehr über Szenarien zur Integration von SAP und Databricks erfahren oder fragen sich, ob entweder die Business Data Cloud oder die klassische Databricks-Lösung die richtige Wahl für Sie ist?

Wir beraten Sie gerne zu Ihren Integrationsszenarien mit SAP und Databricks.

 Sie haben Fragen oder benötigen Unterstützung für Ihr nächstes Projekt?

 
Wir stehen Ihnen als erfahrener Projektpartner zur Seite und unterstützen Sie dabei, Datenprobleme – von der Integration bis zum Einsatz von Machine-Learning-Modellen – effektiv zu lösen.

Möchten Sie mehr über Machine Learning erfahren?

In unserem Blog finden Sie weitere interessante Artikel zu diesem Thema

Apache Airflow 3.0: Alles, was Sie zum neuen Release wissen müssen

Seit dem 22. April 2025 ist Apache Airflow 3.0 öffentlich verfügbar. Es ist der erste Major Release...

Apache Airflow 3.0: Alles, was Sie zum neuen Release wissen müssen

Databricks-Integration in SAP Business Data Cloud: Interview mit M. Ingerfeld

SAP und Databricks haben im Februar 2025 endlich greifbare Ergebnisse ihrer bereits seit 2 Jahren...

Databricks-Integration in SAP Business Data Cloud: Interview mit M. Ingerfeld

Business Data Cloud - Was hat es damit auf sich?

Gestern hat SAP auf der Veranstaltung SAP Business Unleashed 2025 ihre lang erwartete Ankündigung...

Business Data Cloud - Was hat es damit auf sich?
Inhaltsverzeichnis
Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Weiteres Blogartikel