Die Datenflut durch Automatismen bewältigt

Big Data = Big Problem?

Big Data = Big Problem?

Die Datenflut durch Automatismen bewältigt

Big Data = Big Problem?


Durch Big Data sollen die riesigen Datenmengen, die hauptsächlich durch das Internet entstehen, nutzbringend ausgewertet werden. Der Artikel klärt über Hintergründe und Möglichkeiten von Big Data auf.

Big Data ist der neueste Trend in Sachen IT. Der Begriff steht für die elektronisch gesteuerte Verarbeitung von Massendaten. Und dies ist durchaus wörtlich zu nehmen: Es geht bei Big Data um schier unendliche Datenmengen. Um eine Vorstellung von diesem gewaltigen Datenvolumen zu erhalten, hilft ein Blick auf ein paar Zahlen: Allein im Jahr 2011 soll nach Schätzungen von Analysten das weltweite Datenvolumen um 1,8 Zetabyte gewachsen sein – eine Zahl mit 21 Nullen. Die Menge der Unternehmensdaten ist, obgleich gewaltig, im Vergleich zum Volumen von Big Data verschwindend klein und unbedeutend. Woher aber kommen all diese Datenmengen, und warum sollte man sie überhaupt elektronisch verarbeiten?

Verbesserungen der Hardware

Die Ursachen für Big Data liegen nicht zuletzt in der Entwicklung der IT. In den Anfängen war die Kapazität der Systeme klein und begrenzt, das gilt für den Plattenplatz, den Arbeitsspeicher, die Prozessorleistung oder auch die Transferraten auf den Bus-Systemen. Infolgedessen wurden die beteiligten IT-Komponenten auf Sparsamkeit getrimmt. Kompakte Sprachen produzierten kompakten Code, der 8 Bit oder noch schmaler war. Mittlerweile haben sich 64-Bit-CPUs mit mehreren Rechenkernen durchgesetzt, die in der Lage sind, ein Vielfaches der Daten ihrer Vorgänger zu verarbeiten. Als Arbeitsspeicher wird heute mit mehreren Gigabyte gerechnet, bei Festplatten sogar mit Terabyte. Dank dieser enormen Fortschritte in der Hardwareentwicklung entstanden neue Kapazitäten, die auch gerne genutzt wurden. Neue Sprachen, Betriebssysteme oder auch Entwicklungsbibliotheken stellen viel größere Anforderungen als ihre Vorgänger. Mit jeder neuen Version von Windows verlangte dieses mehr an Plattenplatz und Arbeitsspeicher. Die Situation ist bekannt, man hat sich über Jahre daran gewöhnt.

Das Internet erzeugt die Datenflut

Zum einen ist da die Menge der Verkaufsplattformen zu nennen, darunter Giganten wie Amazon oder Ebay, aber auch all die kleineren Verkaufsshops. Sie alle haben direkten Kontakt mit den Kunden. Während der Kunde früher meist anonym im Laden einkaufte, wirkt sich heute jede noch so kleine Bestellung im Internet datenmäßig aus. Amazon allein versendet an verkaufsstarken Tagen bis zu 150 000 Pakete aus seinem Auslieferungslager in Bad Hersfeld. Dabei entstehen enorme Datenmengen. Es sind aber nicht nur die Handelsplattformen im Internet, die für das Datenvolumen sorgen. Noch größere Datenproduzenten sind Social-Media-Plattformen. Millionen Nutzer der sozialen Netzwerke, wie Facebook, Twitter oder etwa Xing, hinterlassen Unmengen an Datenschnipseln. Bei diesen Daten handelt es sich, anders als bei den Verkaufsportalen, überwiegend um Nachrichten in Textform. Diese Informationshäppchen wären für sich genommen kaum von besonderem Nutzen. In Verbindung mit den vorher erwähnten Einkaufsmöglichkeiten durch Webshops aber gewinnen sie enorm an Bedeutung.

Das Ziel für die Marketiers in den Unternehmen liegt darin, passgenau zu den Einträgen (Postings) der Anwender über Produkte oder Vorlieben die eigenen Produkte zu präsentieren. Wenn ein Nutzer auf Facebook von seiner neuesten Kamera schwärmt und die Leser dieser Meldung just daneben einen Link zum Kauf der Kamera finden, so wäre das eine passgenaue Platzierung und damit eine optimale Verkaufsaktion. Es muss aber nicht so plump sein. Zum Hinweis eines Nutzers, dass er mal wieder „raus“ will, passen Angebote von Touristikunternehmen wie die viel zitierte „Faust aufs Auge“. Innovative Unternehmen nutzen darüber hinaus die Informationen aus den sozialen Plattformen, um Trends und Entwicklungen frühzeitig mitzubekommen, also praktisch als Instrument der Marktforschung. Wer heute die Zeichen der Zeit nicht rechtzeitig erkennt, läuft Gefahr, im Wettbewerb zurückzufallen. Wie schnell das gehen kann, wird am Beispiel des kanadischen Unternehmens Research in Motion (RIM) deutlich: Noch vor wenigen Jahren war RIM mit seinen BlackBerrys Marktführer bei mobilen Endgeräten für Businessanwender. Heute ist das Unternehmen von der Pleite bedroht, weil es die Entwicklung des Markts verschlafen und nicht angemessen reagiert hat.

BI-Techniken als Vorboten für Big Data

Ziel von Big Data ist es, sich um diese Unmengen an Daten und deren nutzbringende Verwendung zu kümmern. Das ist prinzipiell nicht neu. Big Data baut dazu auf mehreren Säulen auf. Die eine Säule wird durch die Grundlagen von Business Intelligence, Data Warehouses und Online-Analytical-Processing-(OLAP-)Techniken gebildet. Die zweite Säule ist die Echtzeitverarbeitung...