06.09.2012 von Folker Lück

Den „Schatz“ bergen – aber vorsichtig

Der Begriff „Big Data“ ist bei vielen IT-Verantwortlichen derzeit in aller Munde. Und dies, obwohl selbst die Experten noch darüber streiten, was unter diesem Begriff eigentlich genau zu verstehen ist. Was also hat es damit auf sich?

Die Sache klingt erst einmal relativ banal: In den meisten Unternehmen liegen zahlreiche Daten ungenutzt herum – und tagtäglich werden es mehr. Diese „Schätze“ zu heben und für den Unternehmensalltag sinnvoll verfügbar zu machen, wird aktuell als eine der größten Herausforderungen der IT angesehen. Genau hier jedoch steckt der Teufel im Detail: Einerseits fallen in nahezu jedem Unternehmen täglich neue Office-Dokumente, E-Mails mit und ohne Anhängen, Bild-Daten und vieles mehr an. Dies sind so genannte strukturierte Daten, welche die Mitarbeiter im Unternehmen möglichst einfach und schnell ablegen und wieder auffinden sollen. Dieses Problem ist beherrschbar und mit vorhandenen Hard- und Software-Mitteln realisierbar.

Hinzu kommen aber mehr und mehr unstrukturierte Daten: Maschinendaten aus der Produktion, Daten von RFID-Funkchips, die im Wareneingang erfasst werden, Sensordaten aus der Hausautomation, Logdaten von IT-Systemen. Aber auch Social-Media-Daten von Twitter, Facebook & Co. oder auch Notizen aus dem Call-Center gelten als unstrukturierte Daten. Sie alle fallen täglich an und in vielen Unternehmen belegen sie Speicherplatz – bringen aber schlichtweg nichts ein, weil niemand so genau weiß, wie man sie gescheit sortiert und analysiert.

Dabei könnten sich genau hier für Unternehmen Wettbewerbsvorteile ergeben, was man am Beispiel von Social Media-Daten am besten begreift: Wer diese unstrukturierten Daten genau im Blick hat, der versteht – im Idealfall – die Bedürfnisse seiner Kunden besser. Wer daraufhin zum Wohle der Kunden seine Prozesse verbessert, der spart womöglich Kosten und hat zufriedenere Kunden, die er im Zweifelsfall besser an sich bindet und die bestenfalls mehr Geld bei ihm ausgeben, als ursprünglich gedacht.

Was erst einmal sehr einfach und logisch klingt, ist aber leider eine enorme Herausforderung für die Firmen. Das Hauptproblem: Klassische, analytische Informationssysteme stoßen bei der Analyse der riesigen Masse nicht strukturierter Daten an ihre Grenzen.

Die Fachzeitschrift Computerwoche hat kürzlich auf den Punkt gebracht, wie es gelingen könnte, den „Schatz“ Big Data zu heben:
Gefordert seien „neue Softwareprodukte, die verschiedene Anforderungen in vier Dimensionen erfüllen müssen“. Diese werden danach genannt:

-    Große Datenvolumina müssen integriert, verarbeitet und gespeichert werden können (Volumen-Dimension).
-    Die zu verarbeitenden Daten sind poly-strukturiert (Struktur-Dimension).
-    Datenquellen müssen schnell und flexibel integriert und analysiert werden können (Geschwindigkeits-Dimension).
-    Die Inhalte müssen ausgewertet und visualisiert werden können (Dimension der Analysekomplexität).


Das liest sich für mich zwar einerseits recht logisch. Doch der Weg in diese „vierte Dimension“ erscheint mir andererseits nicht einfach. Unternehmen sollten sich in einem ersten Schritt einen Überblick verschaffen, welche Lösungen auf dem – nicht gerade leicht überschaubaren – Markt angeboten werden. Bei vielen Offerten handelt es sich um Open-Source-Projekte, auch Cloud-Lösungen finden sich zunehmend. Deren „Marktreife“ und Relevanz für die eigenen Anforderungen sollten Interessenten gründlich prüfen.

Und mit dem richtigen Produkt alleine kommt man nicht weit: Je nach Projektgröße und internen Anforderungen werden für Big Data Experten benötigt, die über mathematisch-analytische Fähigkeiten und entsprechendes Programmier-Know-how verfügen. Diese so genannten Data Scientists sind weltweit rar gesät.

Nicht zuletzt gilt es, Datenschutzrichtlinien und Ethik-Grundsätze im Blick zu behalten. Viele Gesetze hinken aktuell dem, was technologisch machbar ist, weit hinterher. Das macht eine rechtliche Prüfung aber keineswegs einfacher. Zudem sollte man gerade in Hinblick auf Social Media die „Moral-Keule“ nicht unterschätzen: Unternehmen, die personenbezogene Daten aus sozialen Netzwerken genauer unter die Lupe nehmen wollen, können sich schnell Ärger als „Datenspione“ einhandeln. Dann würde der Wert des Big Data-Schatzes womöglich rasant aufgewogen durch einen beträchtlichen Image-Schaden.

((Bildquelle : Herbert Walter Krick  / pixelio.de))

Neuen Kommentar schreiben

Der Inhalt dieses Feldes wird nicht öffentlich zugänglich angezeigt.