Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Business Intelligence

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
Megamenü_CTA_Webinar
Live Webinar:
Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms
Kostenlos anmelden!
 

Databricks AutoML für Zeitreihen: Schnelle und zuverlässige Absatzprognosen

Unternehmen, die ihre Entscheidungen auf Daten und belastbare Erkenntnisse stützen, sichern sich einen entscheidenden Wettbewerbsvorteil und erschließen großes Potenzial für effizientere und optimierte Prozesse. Um diese Vorteile zu realisieren, müssen zunächst die richtigen Daten gesammelt und anschließend in geeignete Analysemodelle eingespeist werden – beispielsweise zur Prognose von Umsatz oder Absatz für zukünftige Zeiträume.

Business-Intelligence-Lösungen wie Power BI oder SAP Analytics Cloud unterstützen zwar einfache Prognoseverfahren und Planungsaufgaben, stoßen jedoch schnell an ihre Grenzen, sobald die Anforderungen komplexer werden.

Databricks ist eine umfassende Plattform für Machine Learning, Data Science und KI-Entwicklung, die sich hervorragend für die Erstellung innovativer und präziser Prognoseanwendungen eignet. Zwischen einfachen Planungsfunktionen und hochkomplexen, individuell entwickelten ML-Modellen liegt ein breites Feld für Predictive Analytics mit mittlerem Schwierigkeitsgrad – und genau hier setzt AutoML an. AutoML ermöglicht präzise Vorhersagen, ohne dass tiefgehende mathematische Expertise erforderlich ist.

Im Folgenden zeigen wir, wie sich Databricks AutoML für Zeitreihenprognosen nutzen lässt – und wie sich damit Geschäftsdaten mit minimalem Programmieraufwand in handlungsrelevante Erkenntnisse verwandeln.

Databricks AutoML

Databricks vereint Data Engineering, Analytics und Machine Learning auf der Lakehouse-Plattform – einer integrierten Umgebung, die skalierbare Rechenleistung, zuverlässige Datenspeicherung und kontrollierte Zusammenarbeit zusammenführt.

In einem früheren Beitrag zu Databricks & MLflow haben wir bereits gezeigt, wie sich Experimente nachverfolgen, Modelle versionieren und Deployments vereinfachen lassen. Darauf bauen wir nun auf:

Ausgehend von einem einfachen Verkaufsdatensatz visualisieren wir zunächst Trends und Saisonalität, bevor Databricks AutoML potenzielle Prognosemodelle automatisch erkundet. AutoML trainiert und optimiert Modelle im großen Stil, generiert dabei nachvollziehbare Notebooks und registriert die Ergebnisse in MLflow. So lassen sich Modelle reproduzieren, anpassen und problemlos in den produktiven Betrieb überführen.

01. Databricks AutoML Flowchart NB

Wichtige AutoML-Funktionen im Überblick

  • Automatisierte Zeitreihen-Feature-Erstellung
    Automatisch generierte Lags, gleitende Durchschnitte, Feiertags- und Kalendermerkmale erfassen Trends und Saisonalitäten – ganz ohne manuelle Feature-Engineering-Aufwände.

  • Modellfindung und -optimierung „out of the box“
    AutoML testet Modelle wie Prophet, ARIMA/SARIMA, Gradient Boosted Regressors oder Deep-Learning-Ansätze (sofern verfügbar) und optimiert deren Hyperparameter skalierbar.

  • Transparente, lesbare Notebooks
    Automatisch erstellte Notebooks zeigen alle Schritte – von der Datenvorbereitung über Feature-Erstellung bis hin zu Training und Evaluierung – und können jederzeit überprüft, angepasst oder erneut ausgeführt werden.

  • Robuste Evaluierung und Backtesting
    Rolling-Window-Validierung, Prognoseplots, Fehlermetriken (z. B. MAPE, RMSE) sowie Baseline-Vergleiche sorgen dafür, dass die Modelle signifikante Verbesserungen gegenüber einfachen Prognosen liefern.

  • Ein-Klick-Operationalisierung
    Nahtloses MLflow-Tracking, Modellregistrierung mit Versionierung und einfache Bereitstellung für Batch-Scoring oder Echtzeit-Model-Serving.

 

Databricks & AutoML: Ein End-to-End Beispiel

Unser Ziel: die monatlichen Gesamtumsätze eines Einzelhandelsunternehmens zu prognostizieren. Zunächst visualisieren wir die Verkaufsdaten - um Muster, Trends und saisonale Effekte zu erkennen.

02.Databricks & AutoML end-to-end example

Es zeigt sich ein deutliches Muster: Die Umsätze erreichen im März ihren Höhepunkt, sinken danach deutlich ab und erholen sich im weiteren Jahresverlauf langsam wieder.
Auf dieser Basis starten wir das Training und die Optimierung der Prognosemodelle. Dabei definieren wir Parameter wie Zeit- und Zielspalte, Prognosehorizont sowie Speicherorte für Modellregistrierung und Vorhersagen.

03.Databricks & AutoML


Sichern Sie sich jetzt Ihren Platz für unser Webinar am 11. November!

Kostenloses Webinar: Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms Navigating between Databricks, SAP Business Data Cloud, Fabric & Dremio     Hier anmelden!  Webinar ausschließlich auf Englisch


Anschließend startet das Experiment – AutoML übernimmt die gesamte Vorverarbeitung, Modelloptimierung und das Training vollständig automatisiert. Bereits nach wenigen Minuten stehen die Ergebnisse zur Verfügung, und das beste Modell wird im Unity Catalog gespeichert – bereit für den produktiven Einsatz.

04.Databricks & AutoML end-to-end example

Databricks AutoML testet und bewertet verschiedene Zeitreihenmodelle anhand von Kennzahlen wie MAPE (Mean Absolute Percentage Error), RMSE (Root Mean Square Error) und weiteren Metriken.
Ein automatisch erzeugtes Python-Notebook ermöglicht anschließend die Ausführung und Erstellung von Prognosen für zukünftige Zeiträume.

05.Databricks & AutoML

Das optimale Modell wird geladen, und Vorhersagen für die kommenden sieben Monate werden generiert. Die durch AutoML erstellte Visualisierung zeigt, dass die Prognose die tatsächlichen Werte sehr genau abbildet und die historischen Trends präzise fortschreibt.

06. BatchInference

Die Absatzprognose sagt einen deutlichen Frühjahrs Aufschwung voraus, gefolgt von einem kurzfristigen Rückgang und einer moderaten Erholung – ein Beleg dafür, dass das Modell zyklische und temporäre Marktdynamiken zuverlässig erfasst und somit wertvolle Erkenntnisse für die Geschäftsplanung liefert.

AutoML in der SAP Business Data Cloud

SAP-Systeme sind weit verbreitet und zählen zu den wichtigsten Quellen für betriebswirtschaftliche und operative Daten. Zwar lassen sich erweiterte Analysen auch außerhalb des SAP-Ökosystems durchführen, doch ist dies oft mit zusätzlichem Aufwand durch Drittanbieter-Tools oder individuelle Schnittstellen verbunden.

Mit der SAP Business Data Cloud steht nun eine integrierte Lösung zur Verfügung: Sie verbindet die SAP Datasphere direkt mit dem Databricks-Workspace – beispielsweise für die oben gezeigten AutoML-Zeitreihenprognosen.
Datenprodukte können dabei ohne Replikation zwischen SAP Datasphere und Databricks ausgetauscht werden. Databricks führt die AutoML-Experimente oder individuelle Machine-Learning-Workflows aus, während die Ergebnisse nahtlos zurück in das SAP-Analytik-Ökosystem oder externe BI-Tools wie Microsoft Fabric oder Power BI übertragen werden können.

07.bdc-sap-databricks

Da SAP-Systeme stark auf Low-Code/No-Code-Oberflächen setzen, ist der Funktionsumfang zwar benutzerfreundlich, jedoch begrenzt. Mit den in Databricks AutoML verfügbaren Features lässt sich diese Lücke schließen:
SAP Databricks vereint die einfache Bedienbarkeit der SAP-Welt mit der Flexibilität einer professionellen Entwicklungsumgebung und fördert so datengetriebene Innovation direkt auf Grundlage verlässlicher Geschäftsdaten aus den operativen Quellsystemen.

Databricks AutoML: Unser Fazit

Databricks AutoML macht Zeitreihenprognosen praxisnah, transparent und produktionsreif – in einem durchgängigen Prozess:
Das System automatisiert die Feature-Erstellung und Modellsuche, generiert nachvollziehbare Notebooks zur Prüfung und Anpassung, führt eine strenge Validierung mit Rolling-Backtests und Kennzahlen wie MAPE oder RMSE durch und erleichtert die Bereitstellung über MLflow und Unity Catalog.

Im gezeigten Beispiel liefert dieser End-to-End-Workflow nicht nur ein präzises Modell, sondern bildet auch saisonale Muster – wie Umsatzspitzen, Nachfragetäler und anschließende Erholungsphasen – realitätsnah ab.
Wer also schnelle, verlässliche und erklärbare Umsatzprognosen benötigt, findet in AutoML auf der Lakehouse-Plattform eine leistungsfähige Standardlösung.

Haben Sie Fragen zu diesem oder anderen Themen? Wir freuen wir uns darauf, mehr über Ihre Herausforderungen zu erfahren und helfen Ihnen gerne dabei, optimale Lösungen zu finden und diese umzusetzen. 

 

Erfahren Sie mehr über  Databricks

FAQ - Databricks AutoML

Hier finden Sie einige der häufig gestellten Fragen zur Databricks AutoML.

Wofür wird Databricks AutoML eingesetzt? Databricks AutoML automatisiert den Prozess der Zeitreihenprognose. Es erstellt automatisch Features, trainiert Modelle und optimiert sie für Aufgaben wie Umsatz- oder Absatzprognosen.
Wie geht AutoML mit Zeitreihendaten um? AutoML erstellt automatisch Verzögerungswerte, gleitende Durchschnitte, Feiertagsindikatoren und Kalendermerkmale, um Trends und Saisonalitäten zu erfassen – ohne manuelle Eingriffe.
Welche Modelle nutzt Databricks AutoML? AutoML prüft verschiedene Prognosemodelle wie Prophet, ARIMA/SARIMA, Gradient Boosted Regressors und Deep-Learning-Modelle und optimiert sie automatisch für bestmögliche Leistung.
Wie bewertet Databricks AutoML die Modellqualität? Mit Rolling-Window-Validierung, Prognoseplots, Kennzahlen wie MAPE und RMSE sowie Baseline-Vergleichen stellt AutoML sicher, dass das Ergebnis gegenüber einfachen Modellen signifikant verbessert wird.
Welchen Vorteil bieten die generierten Notebooks? Die automatisch erzeugten Notebooks sind leicht verständlich und enthalten den kompletten Prozess – von der Datenaufbereitung bis zur Modellbewertung. Dadurch lassen sich Modelle prüfen, anpassen und erneut ausführen.
Wie kann das beste Modell bereitgestellt werden? Das beste Modell wird im Unity Catalog gespeichert und kann über MLflow für Batch-Scoring oder Echtzeit-Serving produktiv genutzt werden.

,

avatar

Apostolos Kouzoukos

Apostolos ist seit 2022 als Data Engineering Consultant für die NextLytics AG tätig. Er verfügt über Erfahrung in Forschungsprojekten zu Deep-Learning-Methoden und deren Anwendungen im Fintech-Bereich sowie über einen Hintergrund in der Backend-Entwicklung. In seiner Freizeit spielt er gerne Gitarre und hält sich mit den neuesten Nachrichten aus den Bereichen Technologie und Wirtschaft auf dem Laufenden.

Sie haben eine Frage zum Blog?
Fragen Sie Apostolos Kouzoukos

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Databricks AutoML für Zeitreihen: Schnelle und zuverlässige Absatzprognosen
7:59

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge