Der Erfolg der globalen Top-Player geht Hand in Hand mit deren Datenstrategie und der Stringenz bei Entscheidungen.

© Standortagentur Tirol

Datenstrategie verschränkt Wirtschaft und Wissenschaft

Die zuverlässigste Methode, ökonomische, strategische oder markttechnische Entscheidungen zu treffen, basiert auf Fakten. Die Flut von Daten allein repräsentiert allerdings noch nicht diese Tatsachen. Data Drive Decision Making bietet ein Verfahren, das nach wissenschaftlicher Analyse mögliche Wege zum Erfolg aufzeigt. Tiroler Firmen stützen sich immer mehr auf "datengetriebene Entscheidungen". Abzulesen ist das an Umsatz und Gewinn.

Unternehmen kennen das Fragenkonzert nur zu gut: Was tun, wenn? Was passiert, wenn wir in diese Märkte eintreten? Was müssen wir beachten, wenn wir in eine komplexe digitale Strategie investieren? Was hier als einfache Wenn-Dann-Verknüpfung daherkommt, kann sich in Wirklichkeit zum existentiellen Szenario à la „Sein oder Nichtsein“ ausweiten. Experten*innen warnen deshalb vor Blindflügen beim „Rätselraten“ und mahnen den Einsatz „datengetriebener Entscheidungen“ ein. Bei höchster Qualität der Datenbasis winken Wettbewerbsvorteile, die Steigerung der Effizienz, Planungssicherheit und Transparenz. So eng verzahnt waren Wissenschaft und Wirtschaft noch nie!

Der Erfolg der globalen Top-Player geht Hand in Hand mit deren Datenstrategie und der Stringenz bei Entscheidungen. Klingt logisch, musste sich allerdings erst in all den Jahren als Wahrheit etablieren. Planungen, Zukunfts-Konzepte und Prognosen auf der Grundlage einer schier infiniten Flut von digitalisierten Informationen abzuleiten ist harte Arbeit. Sie lohnt sich, wie man am Beispiel von Amazon ablesen kann. Der Technologie- und Handels-Gigant setzt ein Heer von Analytiker*innen ein, um individuelle Produktempfehlungen zu generieren. Zuvor allerdings wird das Kaufverhalten akribisch dokumentiert. Klar, dass der freundliche und treffsichere Hinweis „Kunden, die dieses Buch erworben haben, haben sich auch dafür interessiert …“ den Umsatz wachsen lässt. 2023 betrug er enorme 570 Milliarden Dollar, 12 Prozent mehr als im Jahr zuvor.

Der weltweit agierende Konsumgüterkonzern Procter & Gamble, die Markenreferenz in Punkto Schönheit, Gesundheit, Haushalt und Babypflege, setzt auf Big Data. Markttrends werden erkannt, Produkte zielgerichtet entwickelt und niveauvoll in Werbekampagnen und Handelsketten platziert. Das sorgsame und intelligente Datenhandling lässt auch bei P & G die Kassen klingeln. Im Jahr 2023 freute man sich über ein Handelsvolumen von 82 Milliarden Dollar, ein Plus von 2 Prozent gegenüber 2022.

Ein weiterer Begriff im Konnex zu datengetriebenen Entscheidungen heißt „Predictive Maintenance“. Die vorausschauende Instandhaltung in der Fertigungsindustrie analysiert Datensätze, um den Status von Maschinen und Produktionseinrichtungen zu überwachen. Außerdem wird vorhergesagt, wann Wartungsarbeiten fällig sind. Diese smarte Prozedur hilft dabei, Ausfälle zu vermeiden und verlängert den Lebenszyklus von investitionsintensiver Technik. Automobil- und Flugzeughersteller schwören auf diese datenbasierte Art der Kostenreduktion und erweiterten Verfügbarkeit ihrer Einrichtungen.     

Den Wert erkennen

Es gibt viele Gründe, bei der Entscheidungsfindung im Business die Komfortzone zu verlassen und nicht nur auf das Bauchgefühl des inneren „kaufmännischen Talentes“ zu reagieren. Angesagt ist Agieren im Sinne von Data Driven Decision Making (DDDM), so das ursprünglich englischsprachige Begriffs-Ungetüm.

Welche unternehmerischen Ziele erreicht man mit DDDM?

  • Präzision: Entscheidungen, die anhand vorliegender Daten gefällt werden, sind faktentreu. Sie beruhen auf konkreten Zahlen. Ein klarer Vorsprung, denn Tatsachen minimieren Risiken und verdrängen individuelle Meinungen und bloß Gesagtes.
  • Wettbewerbsvorteil: Daten repräsentieren Muster, Trends, Zyklen, Potentiale. Wer sie erkennt und nützt, schafft den klaren Unterschied zum Mitbewerb. 
  • Transparenz: Entscheidungen nach DDDM-Methode sind in den meisten Fällen sauber dokumentiert. Das erleichtert die Nachvollziehbarkeit, auch lange Zeit nach einem initiierten Meilenstein in der Unternehmensgeschichte. Kommunikation und Vertrauen zwischen den Abteilungen werden gestärkt.
  • Effizienz: Ineffiziente Prozesse werden durch Datenanalyse erkannt und zeitnah optimiert. Das betrifft zum einen die Kostenstruktur, zum anderen die Nutzung von Ressourcen.
  • Prognose: Gewiefte Datenanalyse sagt Strömungen, Entwicklungen und Änderungen voraus. Eine wichtige Voraussetzung für strategische Planung.
  • Individualisierung: Im angesammelten Datenmeer schlummern die Parameter von Individuen. Aus ihnen lassen sich die Präferenzen der Kunden*innen ablesen, um sie danach noch stärker an den (Online)-Lieferanten zu binden. In den meisten Fällen resultiert aus den Bemühungen ein „Daumen hoch“ bei der Kund*innenzufriedenheit.
  • Agilität: DDDM erhöht die Reaktionsgeschwindigkeit von Firmen, wenn sich Variablen wie Kundenwünsche, Lieferantenliste, Kalkulation und Marktumfeld ändern.
  • Messbarkeit: Auswirkungen von Entscheidungen werden ohne Mehraufwand gemessen, wenn entsprechendes Datenmaterial gesichtet wird.        
  • Aufspüren von Chancen: Datengetriebene Entscheidungen helfen dabei, Möglichkeiten und Wachstumsbereiche auszuloten. Ohne Datenanalyse würden manche Trends aus ökonomischer Sicht verschlafen.
  • Risikomanagement: Erst die Zusammenschau aller verfügbaren Informationen lässt Risiken sichtbar werden. Ohne Kenntnis des zu erwartenden Gesamtbildes lassen sich Unternehmen kaum mehr auf unbekanntes Terrain ein.

Ein Weg, der sich lohnt

In mehreren Schritten erfolgt der Marsch von Daten in Richtung abgesicherter Entscheidungen.

1. Die Datenerfassung sammelt die wertvolle Basis aus verschiedenen Quellen, beispielsweise aus Sensoren, Transaktionen, Kundenfeedback, Interaktionen und von externen Anbietern bereitgestellten Datenbanken

2. Bei der Aufbereitung werden Daten „bereinigt“ und in weiterverwendbare Formate zugeschnitten. Nicht alles, was im Datenpool liegt, ist gleichermaßen verwertbar. Dabei werden Duplikate ausgeschieden, Fehler bereinigt und Daten formatiert. 

3. Aufbereitete Daten werden einer Analyse unterzogen. Korrelationen, offensichtliche und verdeckte Muster, Tendenzen und Historien werden erkannt. Statistik, Algorithmen und neuerdings maschinelles Lernen leisten hier wertvolle Dienste.

4. Bei der Auswertung der Daten schlägt die Stunde der kreativen Köpfe, die das Geschäftspotential wittern. Sie interpretieren die Ergebnisse im ökonomischen Kontext und erstellen einen Katalog mit abgeleiteten Handlungsoptionen. 

5. Erst in diesem Stadium ist es sinnvoll und risikoarm zugleich, strategische, taktische und/oder operative Entscheidungen zu treffen. Beruhigend für alle Beteiligten: Weichenstellungen in dieser Phase basieren auf Fakten, also den analysierten Daten. 

6. Kontrolle ist besser. Bei der Implementierung und Überwachung wird sichergestellt, dass die anvisierten Ergebnisse geleifert werden. Über eine Rückkopplung können jederzeit Anpassungen vorgenommen werden.

Die Technologie im Hintergrund

Die Analysemodelle und Algorithmen, die datengetriebene Entscheidungen erleichtern, sind komplex und rechenintensiv. Eine Vielzahl von Technologien hat sich hier herauskristallisiert.

Big Data-Technologie vereint die Sammlung, Speicherung und Auswertung großer Datenmengen. Bekannt ist das Tool Apache Hadoop (ein Data-Lake) zum raschen Ablegen großer Datenvorräte.

Datenbanken/Data-Warehouses bieten effiziente Speicherung und Abfrage umfangreicher Datenmengen. Zu ihnen gehören u.a. SQL, NoSQL, Amazon Redshift und Google BigQuery.

Dezentrale Datenökosysteme bieten über standardisierte Connectoren Zugang zu Metadaten und dahinterliegenden Datensets. Der Vorteil liegt darin, dass zentrale Datenbanken somit dezentral angeschlossen und für einen größeren Teilnehmer*innenkreis verfügbar gemacht werden. Dies ist die Grundlage für einen souveränen, automatisierten und sicheren Datenaustausch der Zukunft. Zu Ihnen gehören u.a. Gaia-X Projekte wie catena-x, manufactoring-x oder aufbauend auf dem OpenSource Connector EDC Projekte wie datahub.tirol, Mobility Data Space oder der Tourism Data Space.

Visualisierungs- und Analyseprogramme wie Tableau, Power BI und Qlink gehören zu den sogenannten Business Intelligence Tools (BI). Unternehmen, die steiles Wachstum vorweisen, müssen ihr System skalierbar halten. Das klassische Cloud Computing, allen voran von den Anbietern Amazon (AWS), Microsoft (Azure) und Google, bietet hier maßgeschneiderte Optionen bei Datenhandling und Storage. Das „Internet der Dinge“ (IoT) sammelt ständig Daten aus den verschiedensten Bereichen. Es stellt ein System verbundener Rechner dar, in dem mechanische und digitale Maschinen, Objekte und Lebewesen mit eindeutigen Kennungen ausgestattet sind. Sie werden in Netzwerke übertragen, ohne dass eine Interaktion zwischen Mensch und Computer nötig ist. Das IoT begegnet uns beispielsweise bei Fitnesstrackern, Smartwatches und Smart Buildings. Die dort gewonnen Daten bilden die Basis für erfolgversprechende Analysen. Komplexe Datenstrukturen müssen häufig in verständliche Grafiken und Diagramme konvertiert werden. Tools wie D3.js oder Plotly helfen bei der Visualisierung. 

 

KI assistiert  

Immer mehr Schützenhilfe erhalten Unternehmen bei datengetriebenen Entscheidungen, wenn die Künstliche Intelligenz die Prozesse begleitet. Eine automatisierte Analyse kann nämlich große Datenmengen in kurzer Zeit unter die Lupe nehmen. Die KI entdeckt im vorliegenden Material Zusammenhänge, die für die menschliche Wahrnehmung verborgen bleiben. Maschinelles Lernen ermöglicht den Einsatz von Prognose-Modellen, die sich auf Zukünftiges, beispielsweise auf Finanzen, Nachfrage, Veränderung der Zielgruppen und vorausschauende Wartung bei komplexen Produktionssystemen fokussieren. Mit Hilfe von KI werden Produkte und Services effektiver personalisiert, indem die Vorlieben der Kunden herausgefunden werden. Entscheidungen werden in Echtzeit umgesetzt, Handlungsempfehlungen sofort generiert.

  • Im Gesundheitswesen: Die Basis bilden Patient*innen-Daten, die automatisch ausgewertet werden. Das Ergebnis sind individuelle Therapien und die Früherkennung von Krankheiten.
  • Im Einzelhandel: Über eine Feedback-Schleife gelangen bereinigte und analysierte Verkaufsdaten in das Lagersystem der Handelskette. Der Bestand vorgehaltener Produkte kann daraufhin optimal angepasst werden.
  • Im Finanzwesen: Im Bankengeschäft kann die KI-gestützte Datenanalyse Risiken bewerten und Betrügereien – im besten Fall – vor der Missetat erkennen. Transaktionen werden in Echtzeit diagnostiziert.

Tiroler bauen auf Datenstrategie

Zukunftsorientierte Unternehmen und öffentliche Einrichtungen in Tirol kennen die Vorteile einer smarten Datenstrategie. Hier fünf Beispiele (Firmen der Redaktion bekannt):

1 Maschinenbau: Die zentral hinterlegten Daten stammen aus den Sensoren von Produktionsanlagen, die in der Auto-Zulieferindustrie eingesetzt werden. Mit Hilfe eines Analysetools werden Wartungsintervalle vorausgesagt. Bares Geld wird gespart, wenn das Wartungsfenster in eine produktionsfreie Zeit gelegt wird.

2 Lebensmittellager: Ein namhafter Händler erhebt Daten über die Verkaufszahlen in den einzelnen Outlets. Hier geht es vor allem um den Bereich Molkereiprodukte, die entsprechende Kühlung erfordern. Auf der Grundlage der analysierten Datenströme werden Stückzahlen für verkaufsintensive Zeiten (Ostern, Weihnachten, …) errechnet. Lagerhaltung und Logistik profitieren von den nahezu exakten Prognosen.

3 Logistik: Warenverkehr und Datenverkehr gehen in Europa Hand in Hand. Innovative Transportunternehmen haben das erkannt und führen Kundendaten und sensorische Daten aus den LKW zusammen. So wird in Echtzeit ermittelt, welches Fahrzeug auf der Strecke zwischen Calais und Catania im Ruhrgebiet laden oder entladen kann. Auf diese Weise sind immer weniger Leerfahrten nötig, das hilft dem Budget und der Umwelt.

4 Gesundheit: Eine renommierte Tiroler Gesundheitseinrichtung gleicht Daten aus medizinscher Diagnose mit den Lebensgewohnheiten von Klient*innen ab. Hier können sehr präzise Voraussagen über potenzielle Krankheitsbilder gemacht werden. Mit sanften therapeutischen Methoden wird gegengesteuert. Krankenstände werden so minimiert.

5 Marketing: Ein Tiroler Startup, das im Bereich e-Marketing tätig ist, etabliert ein Prognose-Tool, das in der Pharmazie verwendet wird. Eine bereits aktive Grippewelle in einem Bundesland wird anhand der Verkaufsdaten von rezeptfreien Mitteln in Apotheken und bei Online-Händlern erkannt. Aus historischen Vergleichen weiß man, wie sich die Welle auf dem europäischen Kontinent ausbreitet. Nun agieren die Pharma-Lieferanten und bestücken Apotheken und Verkaufsstellen punktgenau mit entsprechenden Medikamenten in jenen Gebieten, wo die virale Krankheitsübertragung gerade einsetzt.
 

Links

>>https://insights.mtd.info/de/kuenstliche-intelligenz-in-der-geschaeftswelt-ai-und-data-driven-decision-making/

>>https://insights.mtd.info/de/

>>https://topbeispiele.de/datengetriebene-geschaeftsmodelle-beispiele/

>>https://exclaimer.com/

>>https://asana.com/de/resources/data-driven-decision-making

>>www.heise.de

>>datahub.tirol

Zurück