Die verf?gbaren Datenmengen wachsen im digitalen Zeitalter stetig. An Chat-GPT erfahren wir momentan, welche Ver?nderungen in k?rzester Zeit in Gang kommen, sobald ein neuer Algorithmus die Welt betritt. Nachfolgend wird gezeigt, welche IT-Architektur Unternehmen f?r Business Analytics und den Umgang mit Big Data ben?tigen.
Mit Business Analytics gro?e Datenmengen verarbeiten
Im Zuge der Digitalisierung erleben wir eine enorme Beschleunigung durch die permanente Weiterentwicklung der Technologie. Experten haben errechnet, dass sich die Datenmengen innerhalb der kommenden 3 Jahre verf?nffachen werden. Mehr als 50 Prozent der Unternehmen geben zu, dass sie mit dem wachsenden Datenvolumen nicht mehr Schritt halten k?nnen. Schon heute bleiben 70 Prozent aller Daten ungenutzt.
F?hrungskr?fte sind sich einig: Unternehmensdaten sind das wertvollste Kapital und sichern langfristig ihre Gesch?ftsf?higkeit. Doch sie haben vielfach keine Vorstellung, wie sie die Datennutzung technologisch organisieren, die Daten besser vernetzen und daraus einen Mehrwert f?r ihr Unternehmen generieren. Mit Business Analytics lassen sich deutlich mehr Daten verarbeiten als mit Business Intelligence. Zudem k?nnen durch eine erweiterte Analytics-Architektur erweiterte Analyse-Techniken zum Einsatz kommen, wodurch sich Entscheidungen verbessern und Leistungen gesteigert werden.
Eine Vorbereitung auf Big Data ist erforderlich
Big Data verlangt es, nicht nur die internen strukturierten Daten, sondern auch externe und semistrukturierte Daten (z.B. Texte aus Kundenabfragen im Web oder Mobilfunk) sowie unstrukturierte Daten (z.B. Bilder und Tonaufnahmen, die nur mittels KI ausgewertet werden k?nnen) zu verarbeiten. Darin liegt der Beginn des Wandels von Business Intelligence (BI) zu Business Analytics (BA). Wer ihn vollziehen will, braucht u.a. eine moderne und agile Daten-Architektur, die mit den neuen Herausforderungen mitw?chst und sich an ver?ndernde Bed?rfnisse des Managements flexibel anpasst.
Die Grenzen des Data Warehouse
Die meisten Organisationen arbeiten bisher ausschlie?lich mit Data Warehouse (DWH): einer zentralen Datenbank, die alle unternehmensweit gespeicherten Daten f?r die Analyse bereitstellt und zur Entscheidungsfindung heranzieht. Doch das DWH ist eine statische, nur f?r Business Intelligence geeignete Architektur. Aufgrund des rigiden Daten-Ablageschemas wird es vielen dynamischen Anforderungen nicht gerecht. Sobald neue Datenquellen hinzukommen oder sich Gesch?ftsziele oder Entscheidungskriterien ?ndern, geraten statische IT-Architekturen an ihre Grenzen.
Versuchen Unternehmen, am DWH festzuhalten, entstehen oft Notl?sungen: Mit erheblichem manuellen Aufwand werden abteilungsspezifische L?sungen aufgebaut oder aufrecht erhalten, die ohne Integration teilweise „neben“ der IT laufen und fehleranf?llig, langsam und kaum verwertbar sind. Im Laufe der Zeit w?chst oft die Anzahl der improvisierten L?sungen so an, dass ein „IT-Flickenteppich“ – eine gewachsene statt geplante Architektur – entsteht. Es wird „angebaut, umgebaut, eingebaut“, dennoch funktioniert das Ganze nicht optimal.
Die Flexibilisierung der Analytics-Architektur: Data Lake und Data Lakehouse
Um das Data Warehouse zu flexibilisieren, empfiehlt sich zun?chst, eine bimodale IT einzuf?hren. Dabei kombiniert man den stabilen, auf Effizienz ausgerichteten Betrieb des DWH (Modus 1) mit einer agilen Struktur zur Bew?ltigung neuer datentechnischer Herausforderungen (Modus 2). In Erg?nzung zum Data Warehouse wird oft ein Data Lake oder ein Data Lakehouse eingef?hrt. Ein Data Lake ist von vornherein auf die automatisierte Verarbeitung gro?er Datenmengen ausgelegt, die im Rohformat gespeichert werden und flexibel ohne manuellen Aufwand f?r sehr unterschiedliche Zwecke verarbeitet werden k?nnen.
Das Data Lakehouse ist eine moderne Datenarchitektur, die Elemente von Lake und Warehouse kombiniert. Das erm?glicht die zentrale Speicherung gro?er Mengen strukturierter und unstrukturierter Daten in einem Repository; gleichzeitig werden Funktionen wie Datenverarbeitung, Abfrageoptimierung und Zugriffskontrolle f?r analytische Zwecke optimiert. Im Data Lakehouse wird also eine Integration beider Welten angestrebt.
Au?erdem sind in einer Analytics-Architektur spezielle Werkzeuge integriert f?r maschinelles Lernen (Muster-Identifikation), die Vorhersage von Trends und zur Beantwortung komplexer Optimierungsfragen. Eine analytische Architektur erlaubt es beispielsweise, durch Anwendung von Algorithmen – mit einer Eintrittswahrscheinlichkeit von 70 und mehr Prozent – Erkenntnisse dar?ber zu gewinnen, was zuk?nftig passieren wird (Predictive Analytics). So lassen sich fr?hzeitig angemessene und vorausschauende Entscheidungen treffen. Das ist ein wesentlicher Vorteil von Business Analytics.
Im Vergleich dazu kann man mit Business Intelligence bzw. einem Data Warehouse nur strukturierte und vergangenheitsorientierte Daten auswerten (Descriptive Analytics). Es handelt sich um ein Reporting, das nachtr?glich analysiert, warum und was geschehen ist.
Auf der Basis einer analytischen Architektur – der Voraussetzung f?r die Anwendung von Business Analytics – kann sich ein Unternehmen aus einer schl?ssigen Datenwelt mit entscheidungsrelevanten Informationen versorgen lassen. Das ist der Weg zur datengetriebenen Entscheidungsfindung.
Buch zum Thema „Agile Analytics“
In seinem Buch „Agile Analytics“ (Haufe Verlag 2023, ISBN 978-3-648-16435-8) zeigt Dirk B?ckmann auf, wie Unternehmen Business Analytics f?r bessere Entscheidungen nutzen und mithilfe von Agilit?t architektonisch, prozessual und strukturell so organisieren, dass sie der Dynamik des Wettbewerbs und Big Data gewachsen sind. Sie erfahren, wie Advanced Analytics mit agilen Methoden im Unternehmen implementiert und betrieben werden kann. Dadurch k?nnen sie fundiertere Entscheidungen treffen und ihre Leistungsf?higkeit sp?rbar steigern.
https://www.amazon.de/Agile-Analytics-Unternehmen-Entscheidungen-Leistungen/dp/364816435X/
Keywords:Business Analytics, Business Intelligence, Data Lake, Data Warehouse, Datenmengen, Big Data