Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Business Intelligence

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter Teaser
Hier für unseren monatlichen Newsletter anmelden!
Newsletter abonnieren
 

So nutzen Sie SAP Databricks zur Integration von ServiceNow-Daten

Vor kurzem haben SAP und Databricks ihre strategische Partnerschaft bekannt gegeben, in deren Rahmen Databricks als native Komponente in die SAP Business Data Cloud integriert wird. Die nahtlose Kommunikation zwischen den beiden Systemen ermöglicht es Datenexperten, Data-Science-Lösungen zu entwickeln, Machine-Learning-Funktionen wie das Verfolgen von Experimenten und die Versionierung bereitgestellter Modelle zu nutzen, sowie von Delta Lake, dem leistungsstarken Open-Source-Storagesystem, zu profitieren. Die Einbindung von Databricks- Workspaces in das SAP-Ökosystem kann eine Lösung für zwei Themen sein, die bisher als besonders problematisch galten: kostengünstiger, aber leicht zugänglicher Massenspeicher und die Verfügbarkeit von nativen Tools zur Erfassung von Daten von Drittanbietern. Dieser Artikel zeigt ein Beispiel dafür, wie Sie Letzteres jetzt ohne zusätzliche lizenzierte Integrationstools und -produkte erreichen können.

In einem kürzlich erschienenen Artikel haben wir einen Überblick aus der Vogelperspektive zu der SAP Databricks-Integration gegeben und einige wichtige Fragen zur strategischen Bedeutung, zur Architektur und zu einigen potenziellen Einschränkungen beantwortet. Nun ist es Zeit für ein praktisches Beispiel. Wir werden eine einfache Datenapplikation entwickeln, die Daten aus der ServiceNow-API als reales Beispiel abruft und in eine historisierte Tabelle in SAP Datasphere einspeist. Der Prozess wird so geplant, dass er in einem vorab festgelegten Zeitrahmen ausgeführt wird, wobei die Planungsfunktionen von Databricks genutzt werden, die standardmäßig Überwachungs- und Warnfunktionen bieten. Beginnen wir mit einem Überblick über die Architektur der Anwendung.

Architektur

Die Anwendung besteht aus einem einzigen Python-Notebook, das den Datenfluss koordiniert. Die Verwendung von Notebooks ermöglicht die Zusammenarbeit zwischen Ingenieuren und Datenanalysten und bietet eine schnelle und einfache Möglichkeit, den gesamten Prozess zu planen. Das folgende Diagramm zeigt den Datenfluss und wie die einzelnen Komponenten miteinander in Beziehung stehen.

 

ServiceNow_Dataflow_Diagram

 

Das Quellsystem ist ServiceNow, eine cloudbasierte Plattform, die Unternehmen dabei unterstützt, digitale Workflows in den Bereichen IT, Personalwesen, Kundenservice und anderen Geschäftsbereichen zu automatisieren und zu verwalten. Wir werden die REST-API abfragen und Tickets des Kundensupports schrittweise abrufen. Dabei werden jedes Mal nur die zuletzt aktualisierten Einträge zurückgegeben, wodurch sich die Größe der Datenmenge erheblich reduziert. Das Ziel ist eine historisierte Tabelle in Databricks oder SAP Datasphere. Eine historisierte Tabelle verfolgt historische Änderungen von Dimensionsdaten im Laufe der Zeit, indem sie den Zeitraum angibt, in dem jeder Datensatz als aktiv gilt. Wenn eine Änderung in einem bestimmten Datensatz festgestellt wird, wird ein neuer Eintrag hinzugefügt und der aktuellste Datensatz entfernt. Eine typische historisierte Tabelle vom Typ SCD 2 besteht aus zwei Metadaten-Spalten (Zeitstempel „valid_from“ und „valid_to“), natürlichen und Ersatzschlüsseln sowie mehreren anderen Attributen, die Änderungen unterliegen können.

Typical_SCD_type_2_historized_table

Solche historisierten Tabellen lassen sich ganz einfach mit dlt (Data Load Tool) erstellen und pflegen, einer Open-Source-Python-Bibliothek, die leichtgewichtige APIs für das Laden von Daten aus mehreren Quellen, das Speichern in gängigen Datenbankformaten oder Cloud-Speichern und eine intuitive Möglichkeit zur Verfolgung von Änderungen in Datensätzen enthält. Es geht lediglich darum, unsere Quelle und unser Ziel zu definieren - in diesem Fall die ServiceNow REST API und SAP Datasphere. Anschließend müssen wir noch einige Konfigurationen vornehmen und die Pipeline starten. dltHub übernimmt dann die schrittweise Datenextraktion aus der Quelle und die Übernahme in das Zielsystem.

 


Neuer Call-to-Action


 

Implementierung

Die Anwendung besteht aus drei einfachen Methoden, die die Quellkonfiguration definieren, eine Verbindung zum Ziel (SAP Datasphere) herstellen und die dltHub-Pipeline ausführen. Sensible Informationen wie Anmeldedaten können sicher im Secret Scope von Databricks gespeichert und innerhalb des Notebooks abgerufen werden.

 

Databricks_SAP_BDC

 

Die Planung des Prozesses ist unkompliziert und kann über die SAP Databricks-Benutzeroberfläche erfolgen. Es ist möglich, komplexe Cron-Ausdrücke für das Intervall zu definieren, Benachrichtigungs-E-Mails bei Erfolg und Misserfolg zu erhalten und sogar Parameter für die Ausführung anzugeben.

 

SAP_Databricks_UI

 

Das Ergebnis ist eine vollständig historisierte Tabelle mit Daten aus der ServiceNow-Tabellen-API. Bei jeder nachfolgenden Pipeline-Ausführung werden nur neue Daten aufgenommen und Änderungen und Aktualisierungen in bestehenden Datensätzen auf der Grundlage des definierten zusammengesetzten Schlüssels verfolgt.

Interoperabilität in der Praxis

Der vorgestellte Ansatz ist in hohem Maße portabel und ein Paradebeispiel dafür, was die Interoperabilität von Systemen in einem Ökosystem aus offenen API-Spezifikationen und Open-Source-Tools leisten kann: Das Python-Modul „dlt“, das wir für das Laden von Daten im ELT-Stil verwenden, verfügt über zahlreiche vordefinierte Schnittstellen zu Quell- und Zielsystemen und harmonisiert alle Datentransporte auf einen Mindeststandard. Anstatt Daten aus der ServiceNow-API zu extrahieren, könnten wir problemlos zu jeder REST-API, relationalen Datenbank oder Objektspeicherquelle wechseln. Zu den unterstützten Datenquellen zählen Salesforce, Shopify, Google Analytics, Jira, Asana und viele mehr. Die Konfiguration verschiedener Zielsysteme erfordert hingegen nur geringfügige Änderungen an der Pipeline-Konfiguration und eröffnet vielfältige Möglichkeiten für die Verwendung von Databricks und SAP-Systemen. Der Databricks Unity Catalog ist ein typisches Zielsystem für die Datenübermittlung und kann problemlos als dauerhafte, vollständig wiederholbare permanente Erfassung der aus der Quelle abgerufenen Änderungen genutzt werden. Bewahren Sie eine Delta-Tabelle wie diese als Archivierungsebene auf und erstellen Sie von dort aus alle verfeinerten nachgelagerten Datenobjekte.

SAP-Systeme können unter Verwendung von SAP HANA ODBC-Verbindungen direkt angesteuert werden. Auf diese Weise können wir die vorgestellte Pipeline nutzen, um Daten aus praktisch jedem Quellsystem in jedes SAP-System zu übernehmen, auf dem eine HANA-Datenbank läuft: S4, BW oder Datasphere. Und das Beste daran: Damit dies funktioniert, benötigen wir nicht einmal Zugriff auf einen SAP Databricks- Workspace. Jeder Databricks- Workspace auf Azure, Google Cloud oder AWS kann zur Ausführung dieser Art von Pipeline verwendet werden. Wenn Sie die Grenzen der Effizienz wirklich ausreizen wollen, brauchen Sie nicht einmal Databricks. Der Python-Code kann überall ausgeführt werden - in serverlosen Applikationsframeworks, auf lokalen Servern oder innerhalb von Apache Airflow-Tasks. Ein schönes Beispiel für Interoperabilität und die unendlichen Möglichkeiten der Optimierung automatisierter Datenverarbeitungssysteme, um Ihren spezifischen Prozessanforderungen oder technischen Präferenzen gerecht zu werden.

Die nun unmittelbar bevorstehende Zukunft mit SAP Databricks und dessen nativer Delta Sharing-Integration in die SAP Business Data Cloud macht diesen Ansatz für uns besonders attraktiv: Anstatt Daten über eine langsame ODBC-Verbindung zu übertragen, kann SAP Databricks alle eingehenden Daten in seinem nativen Delta Table-Format speichern und diese Daten ohne Datenreplikation an BDC weitergeben.

ServiceNow-Daten mit SAP Databricks integrieren: unser Fazit

Dieses praktische Beispiel veranschaulicht einen einfachen, aber effektiven Anwendungsfall von SAP Databricks für die Erstellung einer Anwendung zur Datenextraktion und -erfassung.

Durch die Verwendung von dltHub können wir Informationen aus ServiceNow schrittweise in SAP Datasphere oder jede andere HANA-Datenbank einlesen und so eine konsistente und überprüfbare Änderungsverfolgung ermöglichen. Die Integration optimiert nicht nur die Entwicklung und Planung durch eine intuitive Pro-Code-Schnittstelle, sondern erhöht auch die Betriebssicherheit durch integrierte Überwachungs- und Warnfunktionen.

Während sich unser Beispiel auf eine einfache ServiceNow-Integration konzentrierte, lässt sich derselbe Ansatz auch auf komplexe Unternehmensszenarien übertragen und bildet somit eine solide Grundlage für erweiterte Analysen, maschinelles Lernen und (nahezu) Echtzeit-Datenprodukte in der SAP Business Data Cloud.

Wenn Sie mehr erfahren möchten, nehmen Sie einfach Kontakt zu uns auf - wir freuen uns auf den Austausch mit Ihnen!

 

Erfahren Sie mehr über  Databricks

FAQ

Welchen Vorteil bietet die Nutzung von SAP Databricks zur Integration von ServiceNow-Daten? Durch den Einsatz von SAP Databricks können Unternehmen ServiceNow-Daten einlesen, ohne zusätzliche lizenzierte Integrationstools zu benötigen. Die Kombination aus Databricks und SAP Datasphere ermöglicht kosteneffiziente Speicherung, nahtlose Datenaufnahme und die Historisierung von Datensätzen zur konsistenten Änderungsverfolgung – alles innerhalb des SAP Business Data Cloud-Ökosystems.
Wie fließen die Daten von ServiceNow in SAP Datasphere? Der Prozess beginnt mit Abfragen der REST-API von ServiceNow, wobei aktualisierte Kundensupport-Tickets schrittweise abgerufen werden. Die Daten werden in einem Python-Notebook auf Databricks mithilfe von dltHub verarbeitet, das die inkrementelle Extraktion und Übernahme übernimmt. Schließlich werden die Daten in eine historisierte Tabelle in SAP Datasphere (oder einem anderen HANA-basierten System) geschrieben, wodurch Änderungen im Zeitverlauf nachvollzogen werden können.
Was ist eine historisierte Tabelle und warum ist sie wichtig? Eine historisierte Tabelle (oft als SCD Typ 2 modelliert) verfolgt Änderungen in Dimensionsdaten, indem sowohl aktuelle als auch historische Datensätze gespeichert werden. Jeder Datensatz wird mit Gültigkeitszeiträumen (valid_from und valid_to) versehen, um vollständige Nachvollziehbarkeit zu gewährleisten. Dies ist entscheidend für Audits, Analysen und Berichte, bei denen das Verständnis vergangener Werte ebenso wichtig ist wie die Analyse des aktuellen Zustands.
Wie wird die Integration abgesichert und geplant? Anmeldedaten (z. B. ServiceNow-API-Keys, SAP-Datasphere-Zugänge) werden sicher im Secret Scope von Databricks gespeichert. Die Pipeline kann direkt über die Databricks-Benutzeroberfläche mit cron-ähnlichen Ausdrücken geplant werden; Monitoring und E-Mail-Benachrichtigungen sind standardmäßig verfügbar. So wird sowohl der sichere Umgang mit sensiblen Informationen als auch die zuverlässige Automatisierung wiederkehrender Datenladungen gewährleistet.
Funktioniert dieser Ansatz auch mit anderen Systemen als ServiceNow und SAP Datasphere? Ja. Die vorgestellte Methode ist hochgradig portabel. Anstelle von ServiceNow können auch andere REST-APIs oder SaaS-Plattformen wie Salesforce, Shopify, Google Analytics oder Jira angebunden werden. Auf der Zielseite lassen sich Daten in den Databricks Unity Catalog, SAP S/4HANA, BW oder jedes andere HANA-basierte System über ODBC schreiben. Das Pipeline-Design erfordert lediglich geringfügige Konfigurationsänderungen, um neue Quellen oder Ziele zu unterstützen.
Benötige ich einen SAP-Databricks-Workspace, um diese Integration zu nutzen?

Nicht unbedingt. Zwar bietet SAP Databricks eine nahtlose Integration mit der SAP Business Data Cloud, aber dasselbe Python-Notebook und die dltHub-Pipeline können auch in jedem anderen Databricks-Workspace (Azure, AWS, GCP) oder sogar außerhalb von Databricks – auf lokalen Servern, in serverlosen Frameworks oder Apache-Airflow-Tasks – ausgeführt werden. SAP Databricks sorgt lediglich für zusätzliche Effizienz und eliminiert die Notwendigkeit der Datenreplikation über Delta Sharing.

 

 

, ,

avatar

Apostolos Kouzoukos

Apostolos ist seit 2022 als Data Engineering Consultant für die NextLytics AG tätig. Er verfügt über Erfahrung in Forschungsprojekten zu Deep-Learning-Methoden und deren Anwendungen im Fintech-Bereich sowie über einen Hintergrund in der Backend-Entwicklung. In seiner Freizeit spielt er gerne Gitarre und hält sich mit den neuesten Nachrichten aus den Bereichen Technologie und Wirtschaft auf dem Laufenden.

Sie haben eine Frage zum Blog?
Fragen Sie Apostolos Kouzoukos

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
So nutzen Sie SAP Databricks zur Integration von ServiceNow-Daten
8:57

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge