Big Data – Relevant für den Mittelstand?
6 Okt

Big Data – Relevant für den Mittelstand?

Big Data hat für kleine und mittlere Unternehmen keine Relevanz. Eins solche Einschätzung ist öfters zu hören und zu lesen. Zugegeben wird wie manch anderes Buzzword „Big Data“ vereinfacht oder verwirrend gebraucht. Hat Big Data eine tatsächliche Relevanz für kleine und mittlere Unternehmen?

Was ist Big Data?

Eigentlich ist Big Data nur ein Sammelbegriff. Darunter versammeln sich neue Technologien, die das Sammeln, Nutzen, Verwerten, Strukturieren, Vermarkten und vor allem die Analyse von digitaler Massen-Daten zu ermöglichen.

Was ist Data-Mining?

Data-Mining ist die Suche nach dem „Gold im Datenbergwerk“. Das Gold, das hier geschürft wird, sind Erkenntnisse, Modelle, Aussagen Zusammenhänge oder die Überprüfung von Hypothesen.

Häufig wird Data-Mining auf große Datenmengen (Big Data) angewendet. Oft sind herkömmliche Methoden zur Analyse dieser Daten nicht sinnvoll oder nicht möglich.

Big Data- Der Unterschied zu Business Intelligence

Business Intelligence (BI) und Big Data haben beide das Ziel Daten systematisch zu analysieren und auszuwerten. Bei BI wird zu Anfang festgelegt, welche Daten zu welchen Zweck in welcher Struktur hierzu verwendet werden. Bei Big Data sollte man Eingrenzungen tunlichst unterlassen. Möglichst alle Zusammenhänge, die ein Ereignis definieren und begleiten sollten, ermittelt und eine Auswertung zugänglich gemacht werden. Logischerweise werden die Datensätze bei einer solchen Herangehensweise extrem groß.

Die Basis für Big Data ist also der Zugang zu Daten, zu vielen Daten. Oder eben Big Data. Charakterisierend ist aber nicht nur das massenweise Vorkommen von Daten. Bestimmte Eingenschaften der Daten sind gefragt. Man spricht im Zusammenhang mit Big Data auch von den „vier V“. 

  1. Volumen – Eine Menge Daten

    Das Hauptmerkmal, das Daten „Big“ macht, ist die schiere Menge. Der Rohstoff für Data-Mining geht nicht aus, da die Gesamtmenge der Informationen jedes Jahr exponentiell wächst. Einschätzungen von Experten nach soll die Datenmenge die weltweit auf Servern lagert bis zum Jahr 2025 mehr als 175 Zettabytes (eine 175 mit 21 Nullen) anwachsen. Würde man diese Daten auf herkömmliche DVDs speichern, könnte man diese zu 23 Türmen mit Fundament auf der Erde aufschichten, deren Spitzen bis zum Mond reichen würden
  2. Variety – Die Vielfalt machts 

    Immer mehr Daten digitalisiert. Zu den traditionellen Datentypen (strukturierte Daten) gehören zum Beispiel Dinge auf einer Rechnung wie Datum, Betrag und Zeit. Dies sind Dinge, die sich gut in eine relationale Datenbank abbilden lassen. 
    Diese strukturierten Daten werden immer mehr durch unstrukturierte Daten ergänzt. Solche finden sich z.B. in Twitter-Feeds, Audiodateien, Bilder, Webseiten, Weblogs etc. Sprich alles, was erfasst und gespeichert werden kann, aber kein Metamodell hat, das sie ordentlich definiert.  
    Unstrukturierte Daten sind ein grundlegender Baustein innerhalb Big Data Strategien. Der beste Weg, unstrukturierte Daten zu verstehen, ist der Vergleich mit strukturierten Daten. Man kann sich strukturierte Daten vorstellen, die in einem Satz von Regeln gut definiert sind. Zum Beispiel wird Geld immer aus Zahlen bestehen und mindestens zwei Dezimalstellen haben; Namen werden als Text ausgedrückt usw. Daten folgen also einem bestimmten Muster. 
    Bei unstrukturierten Daten hingegen gibt es keine Regeln. Ein Bild, eine Sprachaufnahme, ein Tweet – sie alle können unterschiedlich sein. Allerdings drücken sie Ideen und Gedanken aus, die auf menschlichem Verständnis beruhen. Dieses Verständnis gilt es mit Technologie nachzuvollziehen, um unstrukturierte Daten für das Data-Mining nutzbar zu machen. 
  3. Veracity – Vertrauenswürdigkeit der Daten 

    Veracity bezieht sich auf die Vertrauenswürdigkeit der Daten. Kann sich der Data Miner darauf verlassen, dass die Daten repräsentativ sind?  Wichtig ist zunächst mit Sicherheit die Herkunft der Daten.  Interne Daten kann man naturgemäß mehr vertrauen als externen.  Aber auch die Sorgfalt, die man bei der Datenpflege walten lässt, spielt eine große Rolle, ob man Daten trauen kann. Gab es Regeln, Modelle, Prozesse zur Datenerfassung die nachvollziehbar sind. Kurz gesagt:  Man sollte schon wissen, woher die Daten kommen und wie sie zustande kamen. 
  4. Velocity – Immer schneller und schneller 

    Die Geschwindigkeit ist die Häufigkeit der eingehenden Daten, die verarbeitet werden müssen. Je nach Datenquelle kann die Geschwindigkeit mit den sich Daten ändern sehr herausfordernd sein. Im Zweifelsfall können nicht aktualisierte Daten ein Gesamtbild wesentlich beeinträchtigen. 
Versino Financial Suite für SAP Business One Finanzwesen


Was macht Big Data Analytics? 

Big Data Analytics beschreibt verschiedene Methoden und analytische Herangehensweisen. Zum einen erreicht man über die Analyse der Daten Erkenntnisse und Ergebnisse, die sich in Reports und deren Visualisierung darstellen lassen. Die so auf bearbeiteten Daten sollen Entscheidungen für Unternehmen leichter machen. Big Data Analytics konzentriert sich dabei auf das Aufsuchen, Entdecken und Vorhersagen.

Machine Learning Modelle zeichnen sich dadurch aus, dass eine Software auf Basis vieler Daten seine Leistungsfähigkeit automatisch optimiert und so zu neuen Erkenntnissen führt. Darauf basierend werden dann Vorhersagen von Ereignissen innerhalb bestimmter Prozesse getätigt. Das kann die frühzeitige Erkennung von Risiken und Ausfällen betreffen oder eine Empfehlung sein, was man einer bestimmten Kundengruppe anbieten sollte.  

Der Mittelstand zögert

Eine Studie der Commerzbank mit dem Titel „Rohstoff des 21. Jahrhunderts: Big Data, Smart Data – Lost Data?“ brachte zutage, dass das Thema Big Data im deutschen Mittelstand gelinde gesagt ausbaufähig erscheint. Eine Befragung von Unternehmen ergab, dass noch eine zögerliche Grundhaltung den Ton angibt. Gründe hierfür waren mögliche Probleme im Datenschutz (30%), der Mangel an Fachkräften (40%) und mangelnde Motivation der Führung (31%). Und nur 8% der befragten Unternehmen erfassten zum Zeitpunkt der Befragung ihre Daten systematisch.

Nützt Big Data dem Mittelstand?

Die Hürden für KMU Big Data zu nutzen scheinen zunächst hoch und große Industrieunternehmen im Vorteil zu sein. Könnte man doch meinen großen Konzernen würde es wesentlich leichter fallen, die nötigen Ressourcen bereitzustellen, um Big Data Strategien zu verfolgen. Darüber hinaus ist naturgemäß der Zugang zu großen Datenmengen für große Organisationen viel einfacher.  Das Wort „Big“ aus Big Data wir allerdings dabei oft fehlgedeutet. Denn auch viele kleine Datenquellen (intern oder/und extern), die kombiniert werden können, ergeben eine eventuell eine sehr gute Datenbasis.

Anwendungsfälle für Big Data im Mittelstand

Vertrieb & Marketing

– Kosten senken
– Umsatzsteigerung
– Marktanalysen
– Wettbewerberanalysen
– Optimierung Point of Sales
– Kundenmotivation erkennen
– Cross- und Up-Selling Optimierung
– Kampagnenoptimierungen
– Kundensegmentierungen

Produktentwicklung

– komplexe Daten in Echtzeit auswerten
– Neuentwicklung
– Verbesserungen
– Trendanalysen neuer Produktideen
– Steigerung der Kosteneffizienz
– Fernüberwachung Parameter

Produktion

– Optimierung mit Maschinendaten
– Produktionsplanung mit Echzeitdaten aus dem Verkauf
– Früherkennung von Problemen
– Vorausschauende Instandhaltung von Maschinen
Prozessoptimierung in der Produktion

Distribution und Logistik

– Lieferketten optimieren
– Logistik optimieren auf Basis Verkehrstelematik
– Optimierung Transportkosten

Finanzen & Controlling

– Echtzeit-Reaktionen
– Simulationen
– Szenarien
– Prävention von Manipulationen
– Risikocontrolling in Echtzeit
– Kreditrisiken erkennen


KMU sind manchmal im Vorteil

Allerdings haben Mittelständler einen gewaltigen Vorteil gegenüber den großen Playern der Industrie: Agilität. 
Big Data Analytics geht es im Kern darum Trends aufzuspüren und Einsichten zu gewinnen, um sich an ein sich veränderndes Geschäftsumfeld anzupassen. Diese Trends zu entdecken ist das eine, schnell darauf reagieren zu können allerdings eine andere Disziplin. “KMU-Schnellboote” können dies wesentlich besser als “Industrie-Tanker” von dieser Datenanalyse profitieren.

Warum in die Ferne schweifen..

Ein weiterer Vorteil für KMU-Unternehmen ist, wenn es bereits auf eine gute Grundstruktur an integrierten Daten als Bezugsgröße zurückgreifen kann. In der oftmals seit Jahren (manchmal Jahrzehnten) betriebenen Business Software wie ERP-Systeme schlummert eventuell der Datenschatz, den es sich zu heben lohnt. Oft sind dabei über Schnittstellen zahlreiche andere Systeme von Webshops bis zu CAD-Systemen angedockt. Auch deren Daten hat der Mittelständler im Zugriff und kann neu in Beziehung gebracht zu neuen Einsichten führen.

Kontakt Versino
Aktuelle SAP Tools zur Integration & Datenanalyse

SAP Tools zur Integration & Datenanalyse 2023

In der aktuellen digitalen Landschaft gelten Daten unumstritten als das zentrale Element jedes Unternehmens. Der richtige Umgang mit Datenanalyse oder ...
MariProject Dashboards

Dashboard Funktionen in MARIProject

SAP Business One hat spätestens seit der Version 9 ausgeprägte Funktionalitäten, um Dashboards zu erstellen. Aber auch MARIProject, integrierte Projektsoftware ...
Kennzahlen

Mehr Kennzahlen Transparenz im ERP System

Viele Unternehmen erhoffen sich durch die Einführung einer ERP-Software mehr Transparenz im Bereich ihrer Kennzahlen. Übersichtlicher wird es allerdings nur, ...
Data Lake Vs Warehouse

Data Warehouse oder Data Lake

Data Lakes und Data Warehouses sind Schlagwörter, die man hört, wenn es um die Datenaufbewahrung im Kontext mit Big Data ...
BIG DATA für KMU

Big Data – Relevant für den Mittelstand?

Big Data hat für kleine und mittlere Unternehmen keine Relevanz. Eins solche Einschätzung ist öfters zu hören und zu lesen ...
DATA Sience

Datenanalyse für KMU

Eine kritische Analyse "Datenanalyse für KMU" oder "Data Science" müsste eigentlich für mittelständische Unternehmen eines der Top-Themen sein. Denn es ...