Big Data hat für kleine und mittlere Unternehmen keine Relevanz. Eins solche Einschätzung ist öfters zu hören und zu lesen. Zugegeben wird wie manch anderes Buzzword „Big Data“ vereinfacht oder verwirrend gebraucht. Hat Big Data eine tatsächliche Relevanz für kleine und mittlere Unternehmen?
Was ist Big Data?
Eigentlich ist Big Data nur ein Sammelbegriff. Darunter versammeln sich neue Technologien, die das Sammeln, Nutzen, Verwerten, Strukturieren, Vermarkten und vor allem die Analyse von digitaler Massen-Daten zu ermöglichen.
Was ist Data-Mining?
Data-Mining ist die Suche nach dem „Gold im Datenbergwerk“. Das Gold, das hier geschürft wird, sind Erkenntnisse, Modelle, Aussagen Zusammenhänge oder die Überprüfung von Hypothesen.
Häufig wird Data-Mining auf große Datenmengen (Big Data) angewendet. Oft sind herkömmliche Methoden zur Analyse dieser Daten nicht sinnvoll oder nicht möglich.
Big Data- Der Unterschied zu Business Intelligence
Business Intelligence (BI) und Big Data haben beide das Ziel Daten systematisch zu analysieren und auszuwerten. Bei BI wird zu Anfang festgelegt, welche Daten zu welchen Zweck in welcher Struktur hierzu verwendet werden. Bei Big Data sollte man Eingrenzungen tunlichst unterlassen. Möglichst alle Zusammenhänge, die ein Ereignis definieren und begleiten sollten, ermittelt und eine Auswertung zugänglich gemacht werden. Logischerweise werden die Datensätze bei einer solchen Herangehensweise extrem groß.
Die Basis für Big Data ist also der Zugang zu Daten, zu vielen Daten. Oder eben Big Data. Charakterisierend ist aber nicht nur das massenweise Vorkommen von Daten. Bestimmte Eingenschaften der Daten sind gefragt. Man spricht im Zusammenhang mit Big Data auch von den „vier V“.
Volumen – Eine Menge Daten
Das Hauptmerkmal, das Daten „Big“ macht, ist die schiere Menge. Der Rohstoff für Data-Mining geht nicht aus, da die Gesamtmenge der Informationen jedes Jahr exponentiell wächst. Einschätzungen von Experten nach soll die Datenmenge die weltweit auf Servern lagert bis zum Jahr 2025 mehr als 175 Zettabytes (eine 175 mit 21 Nullen) anwachsen. Würde man diese Daten auf herkömmliche DVDs speichern, könnte man diese zu 23 Türmen mit Fundament auf der Erde aufschichten, deren Spitzen bis zum Mond reichen würdenVariety – Die Vielfalt machts
Immer mehr Daten digitalisiert. Zu den traditionellen Datentypen (strukturierte Daten) gehören zum Beispiel Dinge auf einer Rechnung wie Datum, Betrag und Zeit. Dies sind Dinge, die sich gut in eine relationale Datenbank abbilden lassen.
Diese strukturierten Daten werden immer mehr durch unstrukturierte Daten ergänzt. Solche finden sich z.B. in Twitter-Feeds, Audiodateien, Bilder, Webseiten, Weblogs etc. Sprich alles, was erfasst und gespeichert werden kann, aber kein Metamodell hat, das sie ordentlich definiert.
Unstrukturierte Daten sind ein grundlegender Baustein innerhalb Big Data Strategien. Der beste Weg, unstrukturierte Daten zu verstehen, ist der Vergleich mit strukturierten Daten. Man kann sich strukturierte Daten vorstellen, die in einem Satz von Regeln gut definiert sind. Zum Beispiel wird Geld immer aus Zahlen bestehen und mindestens zwei Dezimalstellen haben; Namen werden als Text ausgedrückt usw. Daten folgen also einem bestimmten Muster.
Bei unstrukturierten Daten hingegen gibt es keine Regeln. Ein Bild, eine Sprachaufnahme, ein Tweet – sie alle können unterschiedlich sein. Allerdings drücken sie Ideen und Gedanken aus, die auf menschlichem Verständnis beruhen. Dieses Verständnis gilt es mit Technologie nachzuvollziehen, um unstrukturierte Daten für das Data-Mining nutzbar zu machen.Veracity – Vertrauenswürdigkeit der Daten
Veracity bezieht sich auf die Vertrauenswürdigkeit der Daten. Kann sich der Data Miner darauf verlassen, dass die Daten repräsentativ sind? Wichtig ist zunächst mit Sicherheit die Herkunft der Daten. Interne Daten kann man naturgemäß mehr vertrauen als externen. Aber auch die Sorgfalt, die man bei der Datenpflege walten lässt, spielt eine große Rolle, ob man Daten trauen kann. Gab es Regeln, Modelle, Prozesse zur Datenerfassung die nachvollziehbar sind. Kurz gesagt: Man sollte schon wissen, woher die Daten kommen und wie sie zustande kamen.Velocity – Immer schneller und schneller
Die Geschwindigkeit ist die Häufigkeit der eingehenden Daten, die verarbeitet werden müssen. Je nach Datenquelle kann die Geschwindigkeit mit den sich Daten ändern sehr herausfordernd sein. Im Zweifelsfall können nicht aktualisierte Daten ein Gesamtbild wesentlich beeinträchtigen.
Was macht Big Data Analytics?
Big Data Analytics beschreibt verschiedene Methoden und analytische Herangehensweisen. Zum einen erreicht man über die Analyse der Daten Erkenntnisse und Ergebnisse, die sich in Reports und deren Visualisierung darstellen lassen. Die so auf bearbeiteten Daten sollen Entscheidungen für Unternehmen leichter machen. Big Data Analytics konzentriert sich dabei auf das Aufsuchen, Entdecken und Vorhersagen.
Machine Learning Modelle zeichnen sich dadurch aus, dass eine Software auf Basis vieler Daten seine Leistungsfähigkeit automatisch optimiert und so zu neuen Erkenntnissen führt. Darauf basierend werden dann Vorhersagen von Ereignissen innerhalb bestimmter Prozesse getätigt. Das kann die frühzeitige Erkennung von Risiken und Ausfällen betreffen oder eine Empfehlung sein, was man einer bestimmten Kundengruppe anbieten sollte.
Der Mittelstand zögert
Eine Studie der Commerzbank mit dem Titel „Rohstoff des 21. Jahrhunderts: Big Data, Smart Data – Lost Data?“ brachte zutage, dass das Thema Big Data im deutschen Mittelstand gelinde gesagt ausbaufähig erscheint. Eine Befragung von Unternehmen ergab, dass noch eine zögerliche Grundhaltung den Ton angibt. Gründe hierfür waren mögliche Probleme im Datenschutz (30%), der Mangel an Fachkräften (40%) und mangelnde Motivation der Führung (31%). Und nur 8% der befragten Unternehmen erfassten zum Zeitpunkt der Befragung ihre Daten systematisch.
Nützt Big Data dem Mittelstand?
Die Hürden für KMU Big Data zu nutzen scheinen zunächst hoch und große Industrieunternehmen im Vorteil zu sein. Könnte man doch meinen großen Konzernen würde es wesentlich leichter fallen, die nötigen Ressourcen bereitzustellen, um Big Data Strategien zu verfolgen. Darüber hinaus ist naturgemäß der Zugang zu großen Datenmengen für große Organisationen viel einfacher. Das Wort „Big“ aus Big Data wir allerdings dabei oft fehlgedeutet. Denn auch viele kleine Datenquellen (intern oder/und extern), die kombiniert werden können, ergeben eine eventuell eine sehr gute Datenbasis.
Anwendungsfälle für Big Data im Mittelstand | |
---|---|
Vertrieb & Marketing– Kosten senken– Umsatzsteigerung – Marktanalysen – Wettbewerberanalysen – Optimierung Point of Sales – Kundenmotivation erkennen – Cross- und Up-Selling Optimierung – Kampagnenoptimierungen – Kundensegmentierungen | Produktentwicklung– komplexe Daten in Echtzeit auswerten– Neuentwicklung – Verbesserungen – Trendanalysen neuer Produktideen – Steigerung der Kosteneffizienz – Fernüberwachung Parameter |
Produktion– Optimierung mit Maschinendaten– Produktionsplanung mit Echzeitdaten aus dem Verkauf – Früherkennung von Problemen – Vorausschauende Instandhaltung von Maschinen – Prozessoptimierung in der Produktion | Distribution und Logistik– Lieferketten optimieren– Logistik optimieren auf Basis Verkehrstelematik – Optimierung Transportkosten |
Finanzen & Controlling– Echtzeit-Reaktionen– Simulationen – Szenarien – Prävention von Manipulationen – Risikocontrolling in Echtzeit – Kreditrisiken erkennen |
KMU sind manchmal im Vorteil
Allerdings haben Mittelständler einen gewaltigen Vorteil gegenüber den großen Playern der Industrie: Agilität.
Big Data Analytics geht es im Kern darum Trends aufzuspüren und Einsichten zu gewinnen, um sich an ein sich veränderndes Geschäftsumfeld anzupassen. Diese Trends zu entdecken ist das eine, schnell darauf reagieren zu können allerdings eine andere Disziplin. “KMU-Schnellboote” können dies wesentlich besser als “Industrie-Tanker” von dieser Datenanalyse profitieren.
Warum in die Ferne schweifen..
Ein weiterer Vorteil für KMU-Unternehmen ist, wenn es bereits auf eine gute Grundstruktur an integrierten Daten als Bezugsgröße zurückgreifen kann. In der oftmals seit Jahren (manchmal Jahrzehnten) betriebenen Business Software wie ERP-Systeme schlummert eventuell der Datenschatz, den es sich zu heben lohnt. Oft sind dabei über Schnittstellen zahlreiche andere Systeme von Webshops bis zu CAD-Systemen angedockt. Auch deren Daten hat der Mittelständler im Zugriff und kann neu in Beziehung gebracht zu neuen Einsichten führen.