Big Data
Big Data-Verfahren ermöglichen Unternehmen eine höhere Reaktionsgeschwindigkeit auf Marktveränderungen.

Bei Big Data handelt es sich um große, komplexe oder sich schnell ändernde Datenmengen, die zunächst überwiegend unstrukturiert vorliegen und sich mit herkömmlichen Verfahren der Datenverarbeitung nicht mehr effizient auswerten lassen.

Big Data beeinflusst zunehmend die Wettbewerbsfähigkeit und damit den wirtschaftlichen Erfolg von Unternehmen, obwohl in vielen Fällen der Nutzen und die zugrunde liegenden Anwendungsfälle nicht wirklich hinreichend bekannt oder definiert sind.

Anwendungsmodelle
Der Nutzen von Big Data Verfahren für Unternehmen
Big Data-Verfahren ermöglichen Unternehmen eine höhere Reaktionsgeschwindigkeit auf Marktveränderungen, da die vorhandenen Dienstleistungen und Produkte frühzeitiger an aktuelle Markttrends angepasst und Produktpaletten schneller durch neue Angebote (z. B. für bestimmte Kundensegmente) ergänzt werden können. Ein auf Big Data abgestimmtes Marketing vermeidet kostspielige Streuverluste. Fertigungsprozesse werden durch unmittelbaren Datenaustausch zwischen den einzelnen Maschinen optimiert („Machine-to-Machine-Kommunikation”).
Ein von Sensoren unterstütztes Qualitätsmanagement verbessert die Kundenzufriedenheit: Während Bestandskunden enger an ein Unternehmen gebunden werden, steigt die Anzahl der Neukunden. Die Vernetzung von Fuhrparks und eine optimierte Maschinenwartung bewirken deutliche Kostensenkungen. Insgesamt lassen sich heute im Wesentlichen Kostensenkungen und Effizienzsteigerungen anführen, um die Anwendung von Big Data Methoden in Unternehmen zu rechtfertigen. Grundlage bei diesen Verfahren ist immer die Möglichkeit, große Datenmengen in die Analysen und Prozesse einzubeziehen, die bislang aufgrund verschiedener Limitationen nicht berücksichtigt werden konnten. Die Gründe hierfür waren zum einen die kostenintensive Datenhaltung (teure Datenspeicher) oder aber die begrenzten bzw. nicht einfach skalierbaren Analyseressourcen.
Entwicklungsprozess
Die Entwicklung von Big Data
Das weltweite Datenaufkommen verdoppelt sich etwa alle zwei Jahre.
Mobile Kommunikation, Social Media, die Möglichkeit von Weblog-Auswertungen, von Unternehmen an ihren Wertschöpfungsketten platzierte Sensoren und Überwachungssysteme haben ebenso zu einem rasanten Anstieg der verfügbaren Datenmengen beigetragen wie die zunehmende Menge an Transaktionsdaten der Finanzindustrie, Wissenschaftsdaten, Patienteninformationen und Energieverbrauchsdaten. Zusätzlich sind im Big Data Bereich viele verschiedene Tools im Einsatz, die erst in Summe und in der richtigen Reihenfolge aneinander gekoppelt die Ziele Kostensenkung oder Effizienzsteigerung erreichen lassen. Diese Tools verändern sich aber sehr schnell und ein Einsatz von den heutigen Distributionen muss morgen nicht unbedingt noch gültig sein, weil viele der Programme auf Open Source Basis erstellt wurden und derzeit – trotz einiger Konsolidierungstendenzen – stetig weiterentwickelt und umgestaltet werden.
Herausforderungen
Herausforderungen bei der Nutzung von Big Data
Unternehmen, die ihre Wettbewerbsposition sichern und ausbauen wollen, müssen sich den Herausforderungen stellen, die von den wachsenden Datenmengen ausgehen. Dabei sind nicht nur die technischen Voraussetzungen für eine Big Data Nutzung zu schaffen. Der Umgang mit Big Data verändert vielmehr auch die Anforderungen an das Unternehmens-Management und beeinflusst Unternehmensstrategien und Organisationsstrukturen.
Die herkömmliche elektronische Datenverwaltung basiert auf tabellengestützten relationalen Datenbanken. Eine unverzichtbare Grundlage bei der Big Data Nutzung bildet die Einführung einer neuen Software, die einen raschen Import großer Datenmengen gewährleistet und die importierten Daten sofort zu nutzen vermag (Real Time Processing). In kürzester Zeit muss eine Verarbeitung vieler Datensätze und zahlreicher Spalten innerhalb einzelner Datensätze erfolgen. Auch bei komplexen Anfragen sind kurze Antwortzeiten sicherzustellen. Big Data Systeme müssen zudem in der Lage sein, viele gleichzeitige Abfragen (Concurrent Queries) zu verarbeiten und verschiedenartige Informationstypen wie Texte, Zahlen und Bilder zu analysieren. Technisch können dies heute Knoten- und Clusterlösungen sicherstellen. Hier ist jedoch viel Erfahrung notwendig, um die Abfragen wirklich performant zu gestalten. Dabei spielt die Anzahl der Knoten und die Datenmenge ebenso eine Rolle, wie die Komplexität der Struktur.
Der Entwicklungsstand von Big Data Software

Derzeit befindet sich die Entwicklung spezieller Big Data Software noch in einer frühen Phase. Google hat das Programmiermodell MapReduce entwickelt, mit dem sich auf Clustern große Datenmengen verteilt berechnen lassen. MapReduce wird von Open-Source-Software wie z.B. Mongo DB und Apache Hadoop sowie bei kommerziell vertriebenen Produkten (u. a. Greenplum und Aster Data) genutzt.

productive-data Vorgehensmodell

Wir als productive-data unterstützen Sie bei der Einführung von Big Data Methoden im Unternehmen. Unsere Berater haben dafür ein eigenes Modell zur Planung, Implementierung und Steuerung der geforderten Lösungen entwickelt. Wir setzen dabei auf die großen Toolhersteller, um für Sie das Investitionsrisiko zu minimieren, Sie vor Fehlentscheidungen zu schützen und Sie technologisch für die Zukunft optimal vorzubereiten.