Big Data

Big Data

Copyright ┬ę Shutterstock/Gorodenkoff

Was bedeutet Big Data?

Mit dem Ausdruck Big Data, der aus den englischen W├Ârtern f├╝r “gro├č” und “Daten” zusammengesetzt ist, werden allgemein gro├če Mengen an semi-strukturierten und unstrukturierten digitalen Daten beschrieben, die die Leistungskapazit├Ąt herk├Âmmlicher IT-Systeme ├╝bersteigen.

Im Deutschen wird auch die Bezeichnung Massendaten verwendet. Auch wenn es keine exakte Grenze der Datenmenge gibt, ab der von Big Data gesprochen wird, so l├Ąsst sich der Umfang in der Regel nicht mehr in Gigabyte oder Terabyte messen. Allein durch die zunehmende Digitalisierung, die Internetnutzung, die Verbreitung von sozialen Netzwerken und mobilen Endger├Ąten, dem Cloud Computing oder dem Internet of Things vervielfacht sich die erschaffene digitale Datenmenge zunehmend schneller.

Neben den Onlinediensten des WWW ergeben sich auch in den Bereichen Mobil- und Telekommunikation, Energieversorgung, Finanz- und Bankwirtschaft, im Gesundheitswesen, aus Fahrassistenzsystemen und Kundenkarten sowie aus dem Einsatz von ├ťberwachungskameras gro├če Datenmengen.

Risiken und Ziel der Datensammlung und -auswertung

Aus diesem Zusammenf├╝hren von Informationen aus unterschiedlichsten Datenquellen ergeben sich neben den Chancen auch Risiken. Vor allem beim Schutz der Daten der Nutzer und im Pers├Ânlichkeitsrecht wirft Big Data neue Fragen auf. Daneben gilt es zu kl├Ąren, wie die Nutzer einer Verwendung ihrer Daten zustimmen oder widersprechen k├Ânnen. ├ťber die Datensammlung in unterschiedlichen Lebensbereichen und die Vernetzung von verschiedenen Datenquellen zielt Big Data darauf ab, einen Datenbestand aufzubauen, der m├Âglichst breit gef├Ąchert und allumfassend ist. Ziel dieses Datenpools ist ein Wissensgewinn durch das Erkennen von Verbindungen und Wechselbeziehungen in den einzelnen Datens├Ątzen.

F├╝nf Dimensionen von Big Data

Die Gr├Â├če eines Datenbestands spiegelt sich in f├╝nf Dimensionen wider.

Die erste Dimension “Volume” bezieht sich auf das Volumen an Daten, das best├Ąndig neu entsteht.
Die zweite Dimension “Variety” stellt auf die Vielzahl an Datenquellen und Datentypen ab. An Datenformaten sind f├╝r Big Data-Sammlungen nicht nur textbasierte Datens├Ątze interessant, sondern auch Audio-, Video- und Bilddaten.
“Velocity” als dritte Dimension dr├╝ckt aus, wie schnell eine neue Datenmenge entsteht, erhoben, ausgewertet und weiterverarbeitet wird. Moderne IT-Systeme erledigen diese Aufgaben in Sekundenbruchteilen, mitunter nahezu in Echtzeit.
Die vierte Dimension “Value” beschreibt den unternehmerischen Mehrwert, den Firmen mit Extrakten aus dem Gesamtdatenbestand erzielen. Die hohen Investitionen in den Aufbau von enormen Datenpools mit entsprechend leistungsf├Ąhigen Speicher- und Analysesystemen wurden mit dem Ziel durchgef├╝hrt, einen unternehmerischen Nutzen aus ihnen zu ziehen.
Als f├╝nfte Dimension besch├Ąftigt sich “Veracity”, auch als “Validity” bezeichnet, mit der Qualit├Ąt und Glaubw├╝rdigkeit der gesammelten Daten. Nur akkurat erhobene, korrekt gespeicherte und mit nachvollziehbaren Algorithmen analysierte Daten liefern einen Mehrwert.

Herausforderungen an IT-Systeme f├╝r komplexe Massendaten

Klassische Methoden der Datenverarbeitung sto├čen bei der Bew├Ąltigung von Big Data aus unterschiedlichen Gr├╝nden an ihre Grenzen. So k├Ânnen die vorliegenden Daten zu umfangreich sein, um in herk├Âmmlichen Datenbanken abgebildet zu werden. Herk├Âmmliche Arbeitsspeicher reichen f├╝r einen Zugriff auf Datenbest├Ąnde in der Gr├Â├čenordnung von Big Data-Volumen nicht aus. Ein zu komplexes Datengeflecht verhindert die manuelle Datenanalyse ├╝ber Standardsoftwarel├Âsungen. Auch wenn die Daten einer permanenten ├änderung unterliegen oder nur in einer kaum strukturierten Form vorliegen, lassen sie sich mit klassischen IT-Verfahren nicht auswerten.

Die Herausforderung im Umgang mit diesen umfangreichen Datenvolumen liegt gleicherma├čen in der Datensammlung und -erfassung, der Speicherung der erhobenen Informationen, der Datenanalyse und der Durchsuchbarkeit des Datenbestands. Auch die Datenbereitstellung, der Transfer von gespeicherten Informationen, die Visualisierung der Datens├Ątze, die Filterung ├╝ber Abfragen und die Aktualisierung der Dateneintr├Ąge bringen aufgrund der umfangreichen Datenmenge andere Schwierigkeiten mit sich als Datenbest├Ąnde, die f├╝r eine Bearbeitung mit herk├Âmmlicher Datenverarbeitungstechnik geeignet sind.

Im Umgang mit Big Data sind kosteneffektive, innovative IT-Umgebungen n├Âtig, die die Informationsverarbeitung im Rahmen von Data Crunching weitgehend automatisiert bew├Ąltigen. Die IT-Systeme m├╝ssen die einzelnen, unstrukturierten Rohdaten klassifizieren, einordnen und zu aggregierten Auswertungen zusammenfassen. In den nun strukturierten und aufbereiteten Daten k├Ânnen ├╝ber Data Mining-Verfahren Zusammenh├Ąnge in den Datenstrukturen erkannt werden.

Einsatzfelder von Big Data

Aus Big Data gewonnene Erkenntnisse kommen sowohl in der Wissenschaft wie auch in der Wirtschaft zum Einsatz. Sie werden in der Trend- und Umfeldforschung, der Dependenzanalyse sowie der Untersuchung des Kunden- und Nutzerverhaltens eingesetzt. Auch in der Steuerung von Produktionssystemen oder in der Rasterfahndung spielt Big Data eine Rolle. In Unternehmen bietet Big Data vor allem f├╝r den Bereich Marketing neue Potenziale.

Neue Potenziale im Marketing Bereich

Sowohl die Ausrichtung von Werbekampagnen auf bestimmte Zielgruppen ├╝ber Targeting-Ma├čnahmen wie auch die individualisierte Kundenansprache im Data-Driven-Advertising wird durch die Analyse gro├čer Datenbest├Ąnde unterst├╝tzt. Im Online-Marketing helfen diese ├╝ber Big Data personalisierten Strategien, die Conversion Rate zu steigern.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte