Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Business Intelligence

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter
Abonnieren Sie jetzt unseren monatlichen Newsletter:
Newsletter abonnieren
 

Agentic AI meets SAP BW

Ich sitze vor der UI und starre auf den Bildschirm: „Aktivierung läuft… Editor nicht änderbar." Man könnte jetzt wie immer einen Kaffee holen. Oder Mails checken. Oder - wie ich es an diesem Tag getan hab - anfangen, ernsthaft darüber nachzudenken, ob das wirklich so bleiben muss. Irgendwo auf der Welt deployt gerade ein AI Agent eine komplette Microservices-Architektur und ich mappe AUFTRAGSDAT auf ORDER_DATE.

Also fange ich an zu suchen. Denn das kann doch nicht sein: Da redet die ganze Branche über Agentic AI, SAP arbeitet mit Joule an einer eigenen Vision, die aber vor allem in der Cloud läuft, für SAP-Partner keine attraktiven Einstiegsangebote hat und bei der wie immer vieles mehr Ankündigung als Realität ist - und für BW-Entwickler ändert sich: nichts.

Beim Recherchieren stolpere ich über eine MCP-Server-Liste von Marian Zeis auf GitHub, die sich ausschließlich mit SAP-Tooling beschäftigt. Jackpot - sowas gibt es schon? Und dann, beim Durchscrollen: ein MCP Server für ABAP. Derselbe Stack, auf dem BW läuft. Doppelter Jackpot.

Ich probiere es aus. Erste Minute: geflasht. Das Ding funktioniert wirklich. AI, die direkt über dieselbe Schnittstelle ins SAP-System schreibt wie Eclipse ADT selbst - kein Umweg, kein Screenshot, kein Copy-Paste.

Ein paar Wochen später: DSAG Technologietage in Hamburg. Marians Vortrag über KI-gestützte SAP-Entwicklung mit MCP-Servern. Der Saal ist proppevoll, was schon allein zeigt, wie groß das Interesse ist. Keine Joule-Demo, kein AI Units-Pricing. Stattdessen: Open Source Mindset und eine Live-Demo, die End-to-End zeigt, wie sich die Rolle des Entwicklers gerade verschiebt.

Auf der Heimfahrt von Hamburg denke ich: Moment mal. ADT API. Das gibt es doch auch für die BW Modeling Tools. Und so wurde aus einer Inspiration noch am selben Abend ein Projekt: bw-modeling-mcp.

Link zum Github repository: https://github.com/dnic-dev/bw-modeling-mcp 

Was ist MCP?

Ein reines AI-Modell hat keinen direkten Zugriff auf externe Systeme. Es verarbeitet Eingaben und generiert Ausgaben, mehr nicht. Erst eine agentic Umgebung wie Claude Code, OpenAI Codex oder Gemini CLI gibt dem Modell Tools: Bash, HTTP, Dateisystem.

Aber selbst damit kommt man bei SAP BW nicht weit. Denn die BW Modeling REST API ist nicht öffentlich dokumentiert. Sie ist die interne Schnittstelle die Eclipse BWMT selbst verwendet und nie öffentlich dokumentiert oder als offizielle Schnittstelle bereitgestellt hat. Claude weiß schlicht nicht, welche Endpoints es gibt, welche XML-Strukturen erwartet werden, wie das Lock-Protokoll  und interne Session-Handling funktioniert. Dieses Wissen steckt im MCP Server: reverse-engineered aus Eclipse BWMT, sauber in Tool-Implementierungen gekapselt und damit für jedes MCP-fähige AI-Tool nutzbar.

Genau das macht Model Context Protocol zum richtigen Ansatz: ein offener Standard, ursprünglich von Anthropic entwickelt, der AI-Modellen ermöglicht, strukturiert externe Systeme anzusprechen und echte Operationen auszuführen. Das Modell entscheidet selbstständig, wann es welches Tool braucht, das Tool führt die Operation aus, das Ergebnis fließt zurück ins Modell  und es arbeitet weiter, bis die Aufgabe erledigt ist.

Bei bw-modeling-mcp bedeutet das konkret: Der Server verbindet sich mit der BW Modeling REST API (/sap/bw/modeling/), jede Schreiboperation folgt dem BW-Locking-Protokoll - Lock, aktuelles Objekt-XML lesen, Änderungen anwenden, vollständiges XML zurückschreiben, aktivieren. Was in Eclipse ein Entwickler Klick für Klick macht, führt Claude hier per Prompt beschrieben und ohne manuelle Zwischenschritte aus.

Architekturdiagramm zur Integration von Claude (Agentic Environment) mit BW-Modeling-MCP, das über eine lokale Node.js-Anwendung und eine BW Modeling REST API mit dem SAP BW/4HANA System kommuniziert

Wo das Potenzial wirklich liegt

Von Anfang an war klar, dass der Server zwei grundlegende Anwendungsfelder bedienen soll:

  • Read-only: Bestehende BW-Strukturen auslesen, analysieren, verstehen

  • Write: Objekte anlegen, modifizieren, aktivieren - vollständig agentic

Die Möglichkeiten, die sich daraus ergeben, sind vielfältig. In diesem Beitrag greifen wir ein paar typische Beispiele auf, um schnell verständlich zu machen, was der Server kann und wie er funktioniert.

as Potenzial geht jedoch weit über das hinaus, was auf den ersten Blick offensichtlich ist. BW-Systeme enthalten jahrelang gewachsenes Wissen - Modellierungsentscheidungen, komplexe Business-Logik tief verschachtelt in Transformationslogiken und Query-Definitionen. Ein AI-Assistent, der direkt darin lesen und navigieren kann, eröffnet völlig neue Perspektiven: für die Analyse bestehender Strukturen, aber auch für die Überführung in moderne Datenplattformen - einer, der die Semantik hinter gewachsenen BW-Strukturen versteht und daraus eigenständig einen Zielzustand ableiten kann, der zur neuen Plattform passt.


Sehen Sie sich die Aufzeichnung unseres Webinars an: "Bridging Business and Analytics: The Plug-and-Play Future of Data Platforms"

Neuer Call-to-Action


Das BW fragen

Starten wir mit dem ersten Anwendungsfall: Bestehende BW-Strukturen auslesen, analysieren, verstehen.

Man kann dem MCP einfache Fragen stellen, zum Beispiel: Gib mir alle Custom-Queries im System mit Ersteller, InfoProvider und Erstell- und Änderungsdatum. In einem produktiven System würde man das je nach Rolle und Kontext enger fassen. Ein IT-Administrator fragt vielleicht nach Queries die nicht den Namenskonventionen entsprechen oder seit über einem Jahr nicht mehr angefasst wurden. Ein Entwickler interessiert sich eher dafür welche Queries auf einem bestimmten InfoProvider laufen, gerade wenn ein Umbau geplant ist. Und der Fachbereich fragt ggf. ganz anders: erkläre mir was Query X genau macht, welche Kennzahlen sie enthält und welche Variablen den Filter steuern. Auf unserem Demo-BW/4HANA System fragen wir einfach alle Custom-Queries ab, zugegeben auf einem System, auf dem schon etwas länger keine neue Query mehr entwickelt wurde.

Search for all BW Queries whose technical name starts with "Z". For each result, read the full query definition. Then present a summary table with the following columns: Technical Name, Description, InfoProvider, InfoArea, Package, Status, Responsible, Created On, Changed On. Sort by Created On descending.
 

Das Ergebnis: 28 Queries, sauber tabellarisch aufbereitet mit allen relevanten Kopfdaten, ergänzt um eine kleine zusammenfassende Analyse. Das Video ist nur minimal geschnitten, an den Stellen wo das Modell überlegt. Was nicht geschnitten ist: die eigentlichen Tool-Aufrufe. Die sind so schnell wie sie aussehen.

Ein weiteres Beispiel das zeigt, was mit Read-Only wirklich möglich ist, ist eine vollständige technische und fachliche Datenherkunftsanalyse. Das Datenmodell, das wir dabei unter die Lupe nehmen, ist unser NextJuice-Modell, das einige vielleicht aus unserem Seamless Planning Blog kennen. Ursprünglich lag es ausschließlich in der Datasphere, für diesen Einsatzzweck haben wir es ins BW gezogen, aufgebaut über den MCP-Server selbst.

Die Analyse selbst ist bewusst ambitioniert formuliert. Ich will nicht nur wissen, wie das Modell aufgebaut ist, sondern auch, was die Transformationen und Routinen technisch und fachlich tun. Das ist ein Unterschied, der wichtig ist: die Struktur abzulesen ist das eine, aber erst die Erklärung der Business-Logik macht aus der technischen Analyse eine verwertbare Dokumentation. Der Prompt dazu:

Analyze the complete data lineage of aDSO [NJMCPIO]. Explain the business logic behind the transformation logic in plain language. What is being calculated, derived, or looked up? For every routine logic you encounter, retrieve the actual source code and include it in the output. Explain what the code does step by step and how the business logic is implemented. Present the lineage as a structured table sorted by level. Follow with a plain-language summary of the complete data flow from source to target, including the key transformation logic
 

Was dabei passiert, lohnt sich im Detail anzusehen: Claude durchläuft selbstständig die gesamte Abhängigkeitskette, Schritt für Schritt: aDSO auslesen, Where-Used-Analyse auf das Objekt, rückwärts durch die Transformationen, die jeweiligen Quell-Objekte holen. Und sobald es an die Routinen-Codings geht, wechselt Claude von selbst auf den ADT MCP Server und liest den Source Code dort aus. Das ist der gleiche Wechsel den ein Entwickler in Eclipse auch macht, wenn er aus den BW Modeling Tools heraus in die ABAP Development Tools springt, um sich ein Routinen-Coding anzusehen. Nur dass Claude hier nicht die Perspektive wechselt, sondern das richtige Tool aus einem anderen MCP Server anzieht. In meinem Setup ist das vibing-steampunk.

Auch dieses Video ist nur an den Stellen geschnitten, an denen die AI selbst im Denkprozess ist, nicht bei den Tool-Aufrufen. Das Ergebnis ist so ausführlich, dass wir die vollständige Data-Lineage-Analyse als PDF angehängt haben: hier pdf Datei herunterladen.

Das BW modellieren

Auslesen ist die eine Hälfte, aber die eigentlich spannende Frage ist natürlich: kann Claude auch Objekte anlegen, Transformationen bauen, Daten laden? Die Antwort ist: Ja, kann er.
Und um das zu zeigen, nehme ich diesmal bewusst nicht wieder unser NextJuice-Modell, sondern ein Beispiel direkt aus dem echten Leben - tatsächlich die spontane Idee eines Kollegen für seinen allerersten MCP-Prompt. Genau so fängt man also an. Ob man für Bundesliga-Auswertungen wirklich ein SAP BW/4HANA braucht, sei mal dahingestellt - aber als Demo hat es definitiv Charme.

Create a field-based aDSO [NJBULI] with write-interface (Type standard) to store Bundesliga match results in the InfoArea [MCPBW_01]. Include fields for matchday,home team, away team, home goals, away goals, and match date. Use NUMC(2) for matchday so it can serve as a key field. Use aggregation type NONE for all numeric fields. Define matchday, home team, and away team as key fields. Suggest suitable technical names for the fields. Then load the aDSO with a sample dataset of around 30 plausible matches via the Push API.

Was an diesem Beispiel schön ist: es zeigt in einem einzigen Durchlauf drei verschiedene Dinge. Erstens die Modellierung, bei der Claude ein Write-Interface aDSO vom Typ Standard in der richtigen InfoArea anlegt, mit den im Prompt vorgegebenen Eckdaten wie Aggregationsart und Schlüsselfeldern. Zweitens die Feldstruktur, die aus einer fachlichen Beschreibung ("matchday, home team, away team, home goals, away goals, match date") in konkrete BW-Felder mit passenden Datentypen und Längen übersetzt wird, inklusive sinnvoller technischer Feldnamen die Claude selbst vorschlägt. Und drittens das Laden der Daten über die Push API, über die man per REST-Schnittstelle Datensätze direkt ins aDSO schreiben kann. Claude generiert dafür einen plausiblen Datensatz von 30 Spielen und schreibt ihn in einem Rutsch als JSON-Records ins System. Dass Bayern München dabei wieder ziemlich gut dasteht, war zu erwarten - da hätte ich mir ehrlich gesagt etwas mehr Halluzination gewünscht.

Bild2

Was man im Video außerdem sieht: vor jedem schreibenden Tool-Aufruf fragt Claude Code nach, ob es den Aufruf tatsächlich ausführen darf. Das ist kein Zufall, sondern bewusst so eingestellt. In meinem Setup laufen alle lesenden Tools ohne Rückfrage durch, weil sie nichts verändern. Bei schreibenden Operationen wie dem Anlegen eines aDSO oder dem Push ins System muss ich aktiv bestätigen. So bleibt die Kontrolle beim Entwickler, ohne dass man sich durch jedes harmlose Lese-Tool durchklicken muss.

Das Beispiel deckt nur einen Bruchteil dessen ab, was der MCP aktuell kann. Ein Blick auf die weiteren Funktionen:

  • InfoObjects: Merkmale und Kennzahlen anlegen mit allen gängigen Datentypen, Stammdaten- und Textunterstützung, Anzeige- und Navigationsattribute verwalten

  • aDSOs: Felder und InfoObjekte hinzufügen und entfernen, Schlüsselfelder verwalten, Feldeigenschaften wie Aggregationsverhalten anpassen, aDSO-Typen und Einstellungen ändern

  • InfoAreas: anlegen und Objekte zwischen InfoAreas verschieben

  • InfoSources: anlegen, Felder verwalten, aus bestehenden Objekten übernehmen

  • Transformationen: anlegen zwischen allen gängigen Quell- und Zieltypen, Feld-Mappings als Direct-Mapping oder Formel setzen, Start-, End- und Feldroutinen in ABAP oder AMDP hinzufügen, Runtime zwischen ABAP und AMDP umschalten

  • DTPs: anlegen, Filter und Filter-Routinen setzen, Beschreibung und Einstellungen pflegen

  • BW Queries (read-only): vollständige Auflösung von Variablen, Filtern, Layout, berechneten und eingeschränkten Kennzahlen inklusive rekursiv aufgelöster CKF-Formeln, sowie Exceptions und Query-Einstellungen

  • Allgemein: Suche und Where-Used-Analyse, Aktivierung, Sperren freigeben, Objekte löschen, Transportauftrags-Zuordnung

Und wenn es an ABAP- oder AMDP-Coding für Routinen geht, bleibt der BW MCP bei seiner Rolle und überlässt das Schreiben des eigentlichen Quellcodes einem ADT MCP Server. Die beiden arbeiten Hand in Hand, so wie auch in Eclipse die BW Modeling Tools und die ABAP Development Tools nebeneinander laufen. Eine vollständige Übersicht aller Tools findet sich in der README des Projekts.

Selbst ausprobieren

Das Setup ist überraschend unspektakulär. Was es braucht, sind drei Dinge: eine MCP-fähige agentic Umgebung, ein BW/4HANA-System und ein paar Minuten Zeit.

In meinem Setup nutze ich Claude Code, alternativ funktioniert der Server genauso mit anderen MCP-kompatiblen Clients. Das Grundprinzip ist bei allen Clients dasselbe, die konkrete Konfiguration aber unterschiedlich. Für Claude Code sind es im Wesentlichen drei Schritte: das Repository von GitHub klonen, mit npm install und npm run build einmal bauen, und in der .mcp.json im Projektverzeichnis den Server samt BW-Zugangsdaten eintragen. Die vollständige Anleitung inklusive Beispiel-Konfiguration steht in der README des Projekts.

Wo Claude Code läuft, ist Geschmackssache. Ich nutze die native Integration in VS Code, genauso gut funktioniert aber eine normale PowerShell, das integrierte Terminal in VS Code oder auch eine Terminal-Ansicht in Eclipse.

Und damit zu der Frage, die an dieser Stelle oft kommt: Muss ich dafür irgendwo einen Server aufsetzen? Nein. Der Begriff "MCP Server" ist hier missverständlich, denn trotz des Namens handelt es sich nicht um einen Server im klassischen Sinne. Der MCP ist ein lokales Node.js-Skript, das die agentic Umgebung beim Start mitstartet und das nur so lange läuft wie die Sitzung aktiv ist. Der MCP-Server spricht vom lokalen Rechner aus mit der REST-API des BW-Systems, genau wie es Eclipse BWMT auch tut.

Agentic AI meets SAP BW: Unser Fazit und wie es weitergeht

Was bisher zu sehen war, ist erst der Anfang. Der MCP deckt schon einen großen Teil der typischen BW-Entwicklungs- und Analyse-Szenarien ab und an neuen Features wird kontinuierlich gearbeitet. Das Query-Lese-Tool etwa ist erst vor wenigen Tagen dazu gekommen, nach meiner Bekanntmachung auf LinkedIn letzte Woche. Und der Server ist inzwischen auch in der kuratierten Liste von Marian Zeis gelandet - derselben Liste, über die ich vor wenigen Monaten selbst auf das Thema gestoßen bin. Auf der Roadmap stehen als nächstes unter anderem CompositeProvider, Planungsobjekte, eine Kompatibilität mit BW on HANA 7.5 und Launchpad-Funktionen wie Prozessketten.

Ein Muster, das sich dabei wahrscheinlich fortsetzen wird: neue Objekttypen kommen meistens zuerst im Read-Modus dazu. Das hat einen einfachen Grund. Lesen ist vergleichsweise geradlinig, Create, Update und Modify dagegen deutlich komplexer, weil BW intern mit Locking, Session-Handling, Transporten und vielen kleinen API-Besonderheiten arbeitet, die erst sauber gekapselt werden müssen, bevor eine schreibende Operation wirklich stabil ist. Das bedeutet aber nicht, dass es dabei bleibt. Der Anspruch ist, den MCP Schritt für Schritt zu einem Werkzeug zu machen, das ein BW-System vollumfänglich verstehen und auch darin arbeiten kann.

Daneben stellen sich weitere Fragen, die wir spannend finden und sicher noch vertiefen werden: Wie viel Tokens "verbraucht" eine typische BW-Operation, wie ist die allgemeine Performance und welche Rolle spielt Prompting dabei, also welche Formulierungen liefern die besten Ergebnisse bei möglichst geringem Ressourceneinsatz? Wie gut funktioniert der MCP-Server mit anderen AI-Plattformen wie OpenAI Codex oder Microsoft Copilot Studio, oder mit modell-agnostischen Tools wie OpenCode, die zusätzlich auch lokale Modelle unterstützen. Und natürlich: Welche sicherheitsbezogenen Fragen stellen sich, wenn AI-Assistenten agentic in Systemen mit kritischen Datenmodellen arbeiten - etwa im HR-Reporting? Das sind keine akademischen Fragen, sie entscheiden am Ende darüber, ob aus einem spannenden Ansatz ein produktives Werkzeug wird.

Interessiert an der Optimierung Ihres BW-Systems oder benötigen Sie Unterstützung bei der Implementierung? Kontaktieren Sie uns noch heute für eine persönliche Beratung und erfahren Sie, wie unsere Lösungen Ihre SAP BW/4HANA-Umgebung transformieren können.

Erfahren Sie mehr über SAP BW

FAQ - Agentic AI meets SAP BW

Hier finden Sie einige der am häufigsten gestellten Fragen zur Agentic AI in SAP BW.

Was ist bw-modeling-mcp? bw-modeling-mcp ist ein Open-Source MCP Server, der es AI-Agenten ermöglicht, direkt in einem SAP BW/4HANA-System zu arbeiten. Er kapselt die BW Modeling REST API - dieselbe Schnittstelle, über die auch Eclipse BWMT mit dem System kommuniziert - und stellt sie als MCP-Tools zur Verfügung. AI-Clients wie Claude Code können damit BW-Objekte lesen, anlegen, ändern und aktivieren, direkt im System.
Was unterscheidet MCP von klassischen AI-Tools im BW-Kontext? Klassische AI-Tools generieren Text oder Code. Der Output bleibt außerhalb des Systems und muss manuell übertragen werden. Über MCP greift die AI dagegen direkt zu: sie beschreibt ein aDSO nicht nur, sie legt es an. Sie erklärt eine Transformation nicht nur, sie liest deren Source-Code aus dem System.
Wie funktioniert die Verbindung zwischen AI und SAP BW technisch? Der AI-Client startet bw-modeling-mcp lokal als Node.js-Prozess. Die Kommunikation läuft über stdio. Der MCP Server übersetzt die Tool-Aufrufe in HTTPS-Requests an die BW Modeling REST API, inklusive CSRF-Handling, Session-Management, Lock-Handles und Aktivierungslogik - die Mechanismen, die in Eclipse normalerweise verborgen sind.
Welche BW-Objekte werden aktuell unterstützt? Lesen und Schreiben:
  • InfoObjects
  • aDSOs (inkl. Write-Interface und Push API)
  • InfoAreas und InfoSources
  • Transformationen inkl. Field-, Start- und End-Routinen (ABAP und AMDP)
  • DTPs inkl. Filter-Routinen
Nur Lesen:
  • BW Queries inkl. Variablen, Filter, CKFs, RKFs, Ausnahmen, Layout

Dazu kommen allgemeine Funktionen wie Suche, Where-Used-Analyse, Aktivierung und Transportsteuerung.

Die vollständige Liste steht im GitHub Repository.

 

Welche Use Cases zeigt der Blog?

Zwei Szenarien mit unterschiedlichem Charakter:

  • Lesend: Analyse bestehender BW Queries und vollständige Data-Lineage eines aDSO inklusive Business-Logik und Routinen-Code

  • Schreibend: Komplettes Anlegen eines Write-Interface aDSO aus einer fachlichen Beschreibung heraus, inklusive Beladung über die Push API

Welche Rolle spielt Agentic AI dabei? Agentic AI heißt: die AI antwortet nicht nur, sie wählt selbstständig Tools aus und führt Aufgaben Schritt für Schritt aus. Im BW-Kontext entscheidet der Agent selbst, wann er ein Objekt ausliest, wann er eine Where-Used-Analyse startet, wann er eine Transformation analysiert oder zum ADT MCP Server wechselt, um Source-Code zu lesen. Der Prompt beschreibt das Ziel, nicht den Weg.
Ist bw-modeling-mcp produktionsreif? Der Server ist in aktiver Entwicklung und wurde bisher ausschließlich gegen unsere internen Demo-Systeme getestet. Für den ersten Kontakt empfehlen wir daher eine Sandbox oder ein Entwicklungssystem. Genau aus diesem Grund haben wir auch einen Call for Testers gestartet: wer bw-modeling-mcp gegen sein eigenes BW-System ausprobiert und Feedback zurückgibt, hilft direkt mit, das Projekt stabiler und breiter einsetzbar zu machen. 

 

 

 

,

avatar

David Nicolay

David bringt 13 Jahre Erfahrung als SAP-Berater im Bereich SAP Data & Analytics sowie Energiewirtschaft mit. Seine Expertise erstreckt sich von der Kundenbetreuung und Beratung bis hin zur IT-Konzeption, Architektur und Entwicklung von SAP-Lösungen. Besonders spezialisiert ist er auf SAP Planung (BPC und SAP Analytics Cloud), SAP BW/4HANA und SAP Datasphere. Privat geht David gerne Apnoetauchen und ist begeisterter Home-Barista.

Sie haben eine Frage zum Blog?
Fragen Sie David Nicolay

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Agentic AI meets SAP BW
17:27

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge