Die TDWI Konferenz 2024 fand auch dieses Jahr wieder im MOC München statt und feierte dabei Geburtstag. Zum 20. Mal trafen sich vom 11. bis 13.06. ca. 1000 Data Experts und Fachanwender:innen, um sich über aktuelle Herausforderungen und Entwicklungen im Analytics Markt auszutauschen. Die TDWI Konferenz setzte dabei erneut auf eine ausgewogene Mischung aus Fachvorträgen, Keynotes und dem Austausch mit Herstellern und Dienstleistern in einem Expo-Bereich.
Dabei stellte sie dieses Jahr einen Rekord ein: So gab es über 200 Vortragseinreichungen, aus denen das Komitee das Programm zu erstellen hatte. Umso erfreulicher war Anfang des Jahres die Mitteilung, dass die Einreichung der ORDIX AG angenommen wurde. Unter dem Titel „Mesh Dich nicht ein! Vom klassischen DWH zum agilen Data Mesh" referierten Matthias Jung, Wolfgang Kettler und Kwang-Il Son über die Herausforderungen, die es auf dem Weg von einer klassischen, bis hin zu einer modernen Datenplattform zu bewältigen gibt und wie Microsoft Fabric als End-to-End Analytics Service dabei unterstützen kann. Nicht zu kurz sollte dabei auch das Thema Daten- und Unternehmenskultur kommen. So geht insbesondere die Einführung einer Data Mesh-Architektur und die damit verbundene Demokratisierung von Daten, sowie die Dezentralisierung von Plattformen oftmals mit starken Einschnitten und Veränderungen in teilweise über Jahrzehnte gewachsenen Unternehmensstrukturen und -prozessen einher.
Data Mesh, Hub-Spoke - ja was denn nun?
Während sich auf dem TDWI Kongress 2023 noch mehr mit der grundsätzlichen Architektur eines Data Meshs auseinandergesetzt wurde, trugen dieses Jahr einige Anwender:innen ihre Erfahrungen vor. Zu beobachten war, dass sie weniger Data Mesh-Architekturen nach Lehrbuch umsetzen, sondern vielmehr angepasste Abwandlungen, die auf ihre individuellen Anforderungen angepasst wurden. So wurde in einem Vortrag auch die Frage gestellt: „Ist das hier überhaupt noch ein Data Mesh?“ Rein nach Lehrbuch ist die Frage darauf meistens mit einem „Nein“ zu beantworten, was in der Diskussion aber auch nur eine untergeordnete Rolle spielen sollte. Wesentlich essenzieller – und genau darauf wird sich der Fokus in den kommenden Jahren immer deutlicher richten – ist ein besserer Umgang mit Daten. Laut einer Studie von NVP aus dem Jahr 2021 geben 92,2 % der weltweit führenden Unternehmen an, dass Kultur, Menschen, Prozesse, Organisation und Change Management die größten Hindernisse auf dem Weg zu einer Data Driven Company sind, während lediglich 30 % jener Unternehmen bereits eine klare Datenstrategie definiert haben.
Die Demokratisierung von Daten bietet zahlreiche Chancen und kann die Produktivität in Unternehmen deutlich erhöhen. Es ist jedoch nicht damit getan, die Plattform auszutauschen. Der Aufbau einer dezentralen Datenplattform greift tief in etablierte Prozesse und Strukturen innerhalb eines Unternehmens ein. Es müssen Menschen abgeholt und überzeugt, Ängste und Vorurteile beiseite geräumt werden. Ohne eine klare Vision, einen guten Change Management-Prozess und ohne eine klare Unternehmens- und Datenstrategie laufen Datendemokratisierungsprojekte – unabhängig von ihrer Architektur – Gefahr zu scheitern: „Culture eats strategy for breakfast“ (Peter F. Drucker).
(Cloud) Daten-Plattformen im Fokus
Datenplattformen, gleichwohl ob sie Data Warehouse oder einen anderen Namen tragen, standen auch dieses Jahr wieder im Fokus. Zu beobachten war eine deutliche Entwicklung in Richtung Lakehouse-Architekturen. Die Trennung von Compute und Storage bringt hinsichtlich der Skalierbarkeit zahlreiche Vorteile mit sich und insbesondere im Cloud-Umfeld lassen sich die Kosten damit stark optimieren.
Neben wenigen Ausnahmen – meistens dann aus regulatorischen Gründen – setzen viele Anwender:innen mittlerweile auf eine Cloud-first-Strategie und entwickeln oder betreiben ihre Datenplattform in der Cloud. Erfahrungsberichte aus Cloud-Migrationsprojekten oder jenen, die das zum Thema hatten, suchte man vergebens. Während dieses Thema auf den TDWI-Kongressen der vergangenen Jahre noch stark im Fokus stand, hat es – zumindest auf diesem Kongress – spürbar an Relevanz verloren.
Die Architektur von Datenplattformen im Generellen beschäftigt den Markt jedoch weiterhin stark. Ein Vortrag, der Data Warehouse, Datalake und Lakehouse als Architekturen gegenübergestellte, schloss mit der Frage ab: „Ist das eigentlich das Ende von SQL?“ Die Antwort fiel eindeutig aus: „Nein.“ Mit modernen Tools wie dbt oder einem mächtigen Cloudservice wie Microsoft Fabric ändern sich zwar Technologien und Plattformen, SQL als Abfragesprache bleibt jedoch weiter gesetzt.
Spannend ist ebenso die Entwicklung hinsichtlich der Motivatoren zum Aufbau einer modernen Datenplattform. Waren diese in den vergangenen Jahren deutlich mehr technisch getrieben, z. B. durch Performanceengpässe, Probleme im Betrieb, etc., verschieben sich diese mehr und mehr auf die Fachseite. Durch die rasante Entwicklung im KI-Umfeld sind es die Fachbereiche, welche die Umsetzbarkeit entsprechender Use Cases fordern und dadurch die Grenzen bestehender Datenplattformen transparent machen. Haben Datenplattformen in der Vergangenheit meistens ein Schatten-Dasein geführt, ist deren Notwendigkeit deutlich in den Vordergrund gerückt. Mittlerweile ist allseits bekannt: Nur mit einer guten Datenstrategie und einer modernen und flexiblen Datenplattform lasen sich die KI Use Cases von heute und morgen umsetzen.
Weniger „wie" und mehr „warum": Technik ist nicht (mehr) das Problem
„Ich bin Chief Data Officer und möchte nicht zum Chief Integration Officer werden.“ Der ganzheitliche Umgang mit Daten und deren Wertschöpfung war ebenfalls ein Hauptthema auf dem diesjährigen TDWI-Kongress. Getreu dem Motto „keep it simple“ war in vielen Fachvorträgen zu erkennen, dass Unternehmen genau das in den Fokus rücken. Anwender:innen, die mit Daten arbeiten, um daraus Werte zu schaffen, sollen dazu möglichst einfach in der Lage sein und nicht durch infrastrukturelle Probleme oder Ähnliches gebremst werden. Der Markt bietet eine Vielzahl an Technologien an, die die gängigen technischen Probleme lösen können. Es spielt an dieser Stelle auch nur eine untergeordnete Rolle, für welchen Technologie Stack sich entschieden wird. Vielmehr stehen auch hier wieder die Themen Unternehmenskultur und Datenstrategie im Zentrum des Handelns.
Fachabteilungen sollen befähigt werden, besser mit Daten arbeiten zu können. Sie sollen – insbesondere in einem dezentralen Ansatz wie einer Data Mesh Architektur – mehr Verantwortung für Daten übernehmen. Zentrale IT-Strukturen sollen dadurch abgebaut und Bottlenecks damit aufgelöst werden. Eine Antwort auf das „Wie?“ liefern eine klare Data Governance-Strategie, eine stabile Datenplattform sowie ein guter Onboarding-Prozess der einzusetzenden Software. Deutlich komplexer kann die Beantwortung des „Warum?“ sein. Neben dem tiefen Eingriff in bestehende Prozesse sind es primär die Mitarbeitenden, die es hinsichtlich ihrer zukünftigen Rolle und dem daraus resultierenden Mehrwert für sich selbst, aber auch für das gesamte Unternehmen, zu überzeugen gilt. Dies betrifft Fachanwender:innen, die fortan mehr Verantwortung für Daten übernehmen sollen, gleichermaßen wie Mitarbeitende aus der IT, deren Aufgaben- und Verantwortungsbereich sich ebenfalls verändern wird. Erfolg oder Scheitern entsprechender Transformationsprojekte hängt dabei wesentlich von der Beantwortung der „Warum?“-Frage innerhalb der Unternehmen ab.
Datenqualität: Herausforderungen unverändert, Use Cases im Wandel
Während Themen wie Data Mesh, Lakehouse, Self-service Analytics und Co im Markt aktuell sehr stark wahrgenommen werden, existieren auch jene, die bereits seit vielen Jahren eine zentrale Rolle spielen. Die von BARC jährlich veröffentlichte Studie „Data, BI and Analytics Trend Monitor“ listet alle Themen auf, die den Analytics und BI Markt beschäftigen. Während die Bedeutung einiger Themen stark schwankt, fällt ein Thema auf, dass seit nunmehr 5 Jahren unangefochten auf Platz 1 steht: „Master Data/DQ Management“.
So war auch das Thema Datenqualität und Data Catalog eines der Hauptthemen auf dem diesjährigen TDWI Kongress. Die erste Schlussfolgerung liegt dabei auf der Hand: Es existiert anscheinend keine Software und kein Vorgehensmodell, die dieses Problem nachhaltig lösen kann. Die Frage, ob es überhaupt möglich ist, ein höchst individuelles Thema wie Datenqualität mithilfe von Standardsoftware zu lösen, muss an dieser Stelle jedoch auch gestellt werden. Die dauerhafte Präsenz des Themas auf Platz 1 der BARC-Studie lässt vermuten, dass es nicht möglich ist. Datenqualität ist nach wie vor ein sehr individuelles Thema, das von der Datenstrategie eines Unternehmens abhängt und eng mit der gelebten Datenkultur verknüpft ist.
Deutlich verändert haben sich in den letzten Jahren jedoch die Use Cases, die Datenqualitätsprobleme sichtbar machen. Interessanterweise kann der Herausforderer an dieser Stelle auch gleichzeitig bei der Lösung etwaiger Probleme unterstützen: KI. Es sind bei vielen Unternehmen die KI Use Cases, die eine unzureichende Datenqualität transparent machen, denn KI-Modelle können nur so gut sein, wie die zugrunde liegenden Daten, auf denen sie trainiert wurden oder die sie heranziehen. Dass man sich KI an dieser Stelle auch zunutze machen kann, demonstrierte ein Fachvortrag eines großen deutschen Einzelhandelsunternehmens. Hier wurde der Metadatenkatalog einer Datenbank ausgelesen und aus Attributen mithilfe von GenAI ein Data Catalog erzeugt. Mit beeindruckenden Ergebnissen: so wurden ca. 80 % der analysierten Objekte und Attribute richtig katalogisiert.
Die Frage nach KI Use Cases, dem ROI und (EU) Regulatorik
In ebenfalls zahlreichen Fachvorträgen ging es um potenzielle KI Use Cases und wie man diese in ein Business Case überführen kann. Während Budgets für KI-Projekte in der Vergangenheit oftmals gerne unter die Kategorie „Jugend forscht“ fielen und der Business Value nicht immer direkt erkennbar war, findet man mittlerweile deutlich häufiger KI Use Cases vor, deren ROI planbar und deren Projekterfolg – auch – daran gemessen werden kann. Die rasante Entwicklung in diesem Bereich zeigt auch, dass konkrete Business Cases zunehmend leichter umzusetzen sind. Neben dem im vorherigen Abschnitt genannten Beispiel zum Katalogisieren von Daten, setzen Unternehmen zunehmend auf Chatbots, die insbesondere im Service-Umfeld eingesetzt werden. Die Entwicklung der generativen Bilderzeugung ist mittlerweile so weit vorangeschritten, dass mit ihr Bilder erzeugt werden können, die sich von einem echten Bild kaum noch unterscheiden lassen. Wie ein Fachvortrag eindrucksvoll unter Beweis stellte, eignet sich dies vornehmlich für das Erzeugen von Produktbildern.
Dass auf Unternehmen, die KI-Anwendungen nutzen wollen, hinsichtlich Regulatorik in Zukunft deutlich höhere Anforderungen zukommen, gehört zur Kehrseite der Medaille. So müssen Unternehmen durch den EU AI Act heute schon einige Aspekte mehr in ihren Data Governance-Strategien hinsichtlich Regularien, Transparenz und dem ethischen Umgang mit KI berücksichtigen. Die Anforderungen daran werden zukünftig deutlich steigen.
Sollten Sie Interesse haben, sich über aktuelle Themen im Data Management-Bereich auszutauschen oder konkrete Fragestellungen zu den Themen der TDWI Konferenz haben, zögern Sie nicht auf uns zuzukommen.
Seminarempfehlung
Wer vielleicht das erste Mal in das Thema “Daten” reinschnuppern möchte, empfehlen wir unser kostenloses Webinar:
POWER BI FÜR FACHANWENDER - VON DATEN ZU ENTSCHEIDUNGEN - KOSTENLOSES WEBINAR PW-BI-01
Mehr erfahren