Big Data Analysen als Entscheidungshilfen für Unternehmen
„Big Data“ wird im Deutschen meist mit „riesige Datenmengen“ übersetzt. Dabei geht es jedoch nicht um die Daten an sich, sondern vielmehr um die Methodik, mit der Datenströme nutzbar gemacht werden. Im Gegensatz zur herkömmlichen Datenverarbeitung werden beim Big Data Management Analyse-Methoden verwendet, die in hoher Geschwindigkeit ein riesiges und ständig wachsendes Datenvolumen erfasst, speichert und analysiert. Unternehmen verwenden diese Daten, um einen wirtschaftlichen Nutzen daraus zu ziehen. Dabei werden verschiedene Quellen verwendet, zum Beispiel:
Diese Vorgehensweise ist nichts Neues. Allerdings gewann der Begriff „Big Data“ durch den Branchenanalytiker Doug Laney erst in den frühen 2000er Jahren an Bedeutung. |
Wie funktioniert eine Big Data Analyse?
Mithilfe neuer Big Data Analysen können Unternehmen eine Vielzahl von Datenquellen schnell analysieren. Dadurch erhalten Sie interessante Erkenntnisse über die aktuelle Marktsituation, bestehende und potentielle Kunden sowie das eigene Unternehmen. Das Verfahren kann dabei als eine Art Entscheidungshilfe betrachtet werden, denn neugewonnene Daten können direkt anhand ihrer Relevanz gefiltert werden.
Verschiedene Werkzeuge helfen dabei, den immer weiter wachsenden Datenstrom nach wichtigen Informationen zu filtern. Die zunehmende Vernetzung durch intelligente Autos, Smart Homes und andere Datenquellen machen es herkömmlichen Verarbeitungssystemen unmöglich, alle Daten zu berücksichtigen. Big Data Analytics verwenden komplizierte Prozesse, um alle wichtigen Informationen zu speichern und zu ordnen. Aus diesen Datenanalysen können Unternehmen wiederum wichtige Erkenntnisse ziehen, die sie zur Steigerung der Produktivität und der Kundenzufriedenheit einsetzen können. Für diese Aufgaben gibt es auf dem Markt Softwarelösungen verschiedener Hersteller.
Eigenschaften und Besonderheiten von Big Data
Im Vordergrund des Interesses stehen wie bei der herkömmlichen Analyse von Daten auch bei Big Data Anwendungen der Wunsch, möglichst viele detaillierte Daten zu bekommen, aus denen neue Informationen herausgelesen werden können. Diese können wiederum für das Erreichen wirtschaftlicher Ziele genutzt werden. Im Gegensatz zur konventionellen Datenverarbeitung spielen bei der Big Data Definition die folgenden Merkmale die wichtigste Rolle:
- Volume: Die riesige Menge an relevanten Daten ist das Hauptmerkmal. Informationsmengen unter einem Terabyte werden in der Regel nicht zur Big Data gezählt. Da Experten davon ausgehen, dass die Datenmengen in den nächsten Jahren immer weiter ansteigen, sind auch den für Unternehmen interessanten Informationen keine Grenzen gesetzt. Das Analysepotential steigt stetig an.
- Velocity: Neben der Menge spielt auch die Geschwindigkeit, mit der die entsprechenden Informationen entstehen und verarbeitet werden, eine wichtige Rolle, wenn es um die Definition von Big Data geht. Je nach Quelle werden Daten nämlich unterschiedlich schnell erstellt bzw. aktualisiert. Ein Nachrichtenportal wird seine Inhalte schneller aktualisieren als ein Moderatgeber. Unternehmen müssen sich darauf einstellen und entsprechend schnell reagieren können.
- Variety: Die Big Data Tools, die von Unternehmen eingesetzt werden, müssen in der Lage sein, Daten aus verschiedenen Quellen beziehen zu können. Die Informationen stammen meist aus einem Netzwerk verschiedener Medien, wie elektronische Handelsforen, soziale Netzwerke oder Blogs. Trotz ihrer Unterschiede hinsichtlich Struktur, Organisation und Formatierung müssen alle Daten gleichermaßen verarbeitet werden können.
Abb. 1: Die drei Merkmale der Big Data im Zusammenspiel
Daneben spielen noch zwei weitere Faktoren eine Rolle für Unternehmen, die mit großen Datenmengen arbeiten:
- Veracity
- Value
Unter dem ersten Begriff werden mehrere Merkmale zusammengefasst, darunter Vollständigkeit und Authentizität. Es geht also vor allem auch darum, eine hohe Qualität der gesammelten Daten zu gewährleisten. Das könnte sich sonst wiederum negativ auf den zweiten Punkt auswirken. Mit „Value“ ist nämlich der wirtschaftliche Mehrwert gemeint, den ein Unternehmen mit Big Data Anwendungen generieren möchte.
Bei Big Data geht es also nicht alleine um die Anwendung spezieller Methoden zur Verarbeitung großer Datenmengen, sondern auch darum, dass dieser Datenstrom bestimmte Kriterien erfüllt.
Die Vorteile von Big Data
Die Datenmengen werden immer größer, weshalb klassische relationale Datenbanksysteme an ihre Grenzen kommen. Genau deshalb kommt Big Data ins Spiel:
Die neuen Datenspeicher- und Analyse-Systeme greifen auf zahlreiche Prozessoren zu und optimieren die Geschwindigkeit der Datenverarbeitung. Das bringt viele Vorteile für die Verarbeitung vieler Datensätze mit sich.
Auch der Export und Import großer Datenmengen erfolgt durch Big Data schnell und effizient.
Ein weiterer Vorteil ist die geringe Latenz und Verarbeitungsdauer. Komplexe Abfragen oder auch mehrere Abfragen gleichzeitig lassen sich ohne große Performance-Einbußen ausführen.
Die Herausforderungen der Big Data Analyse
Die Herausforderungen für Unternehmen liegen in den stetig steigenden Datenmengen. Die Anforderungen an die Datenverarbeitung und -auswertung werden oft zur Problematik.
Denn die einzelnen Kennziffern, welche durch die Big Data Analyse gewonnen wurden, müssen nun verknüpft werden, damit Unternehmen diese strategisch nutzen können.
Eine weitere Herausforderung ist die Datenqualität. Ist der Input fehlerhaft, folgt auch ein inkorrektes Ergebnis. Deshalb sind die Bereiche Data Cleaning und Data Prep essentiell und gehören zu einem Daten-Management dazu.
Kaum hat ein Unternehmen nur eine Datenquelle, aus der man alle Informationen beziehen kann. Deshalb müssen unterschiedliche Datenquellen verwendet werden. Hier entstehen einige Herausforderungen wie unklare Bezeichnungen, abweichende Zeiträume oder unterschiedliche Interpretationen von Kennziffern.
Buchempfehlung
Gleich, Ronald u.a. (Hg.): Controlling und Big Data, 2014.