Ein Zetabyte ‒ das entspricht 1021 Bytes, oder anders ausgedrückt einer Datenmenge eines Full HD Videos mit 250 Milliarden Stunden Länge. Bis 2020 wird sich das weltweite digitale Datenvolumen von 4,4 auf 44 Zetabytes verzehnfachen; in Deutschland allein soll die Datenmenge von 0,2 auf 1,1 Zetabyte steigen.1

Die Herausforderungen für Unternehmen, welche mit diesen stetig wachsenden Datenmengen umgehen wollen, werden durch verschiedene Faktoren komplexer: Zunächst ist schon das stetig zunehmende Tempo, in welchem immer neue Daten generiert werden, eine Herausforderung an die IT-Infrastruktur, da Server und Rechnerkapazitäten immer weiter ausgebaut werden müssen.

Der Anstieg im weltweiten digitalen Datenvolumen ist auch durch ständig neue Datenquellen begründet. Neben der immer stärkeren Nutzung von Social Media und Entertainment Plattformen ‒ auf YouTube allein werden pro Minute über 400 Stunden Videoinhalt hochgeladen ‒ trägt auch die zunehmende weltweite Nutzung von Smartphones zum Datenwachstum bei (pro Tag werden alleine 1,5 Millionen Android Smartphones erstmals in Betrieb genommen). Neben Smartphones sind auch mehr und mehr andere mobile Endgeräte mit Sensoren ausgestattet, welche durch ihre Vernetztheit Daten über das Nutzerverhalten oder Nutzer-Standorte liefern können. Dies beginnt bei Laufschuhen mit integrierten Schrittzählern, geht über den Einsatz von Telematik in Fahrzeugen, bis hin zu Assistenz-Geräten für den Haushalt wie Google Home.

Die Hebelung und Integration dieser neuen Datenquellen stellt Unternehmen vor neue Komplexitäten, da ein immer größerer Anteil der Daten in unkonventionellen Formaten2 vorliegt, sodass sich konventionelle Analyse-Methoden nur begrenzt zur Verarbeitung dieser Daten eignen.

Große Datenmengen, unterschiedliche Datenquellen und -formate und zielgerichtete Analysen zur Schaffung wichtiger Erkenntnisse: das Stichwort, welches in diesem Zusammenhang immer fällt ist „Big Data“. Um diesen Begriff, um welchen eine diffuse Assoziationswolke schwebt, greifbar zu machen, wollen wir hier eine Definition des Begriffes bemühen, welche im Rahmen dieser Veröffentlichung gelten soll: „Big Data“ im engeren Sinne bezeichnet Datenmengen, die zu groß, zu komplex, zu unstrukturiert sind oder sich zu schnell ändern, um sie mit klassischen Methoden der Datenverarbeitung auszuwerten.

„Big Data“ im weiteren Sinne umfasst im Rahmen dieses Artikels zusätzlich die Gesamtheit der Technologien und Methoden, die dazu geeignet sind, aus „Big Data“ im engeren Sinne Mehrwerte für Unternehmen zu Schaffen ‒ d.h. Technologien und Methoden, die es ermöglichen große Datenmengen zu Sammeln, Speichern, Zusammenzuführen und zu Verarbeiten. Wenn nicht ausdrücklich anders benannt, sprechen wir im Folgenden von „Big Data“ im weiteren Sinne.

„Big Data“ im engeren Sinne ‒ also nur die großen und komplexen Datenmengen für sich genommen ‒ ist ohne die Fähigkeiten zur Sammlung, Speicherung, Zusammenführung und Verarbeitung der Daten zunächst wertlos. Sie birgt jedoch großes Potenzial: Zielgerichtet eingesetzt kann „Big Data“ wichtige Fragen, auf welche es bisher keine Antworten gab, beantworten oder auf effizientere Art und Weise relevante Erkenntnisse liefern.

Diese neuen Erkenntnisse können auch in der Versicherungsindustrie ‒ bei Produktentwicklung und Underwriting angefangen, über Marketing und Vertrieb, sowie Bestandsverwaltung, bis hin zu Schadens-Management ‒ großen Mehrwert schaffen. Versicherer verfolgen seit jeher ein datengetriebenes Geschäftsmodell und haben heute Zugriff auf mehr digitalisierte und somit verknüpfbare Daten als je zuvor. Möchte man als Versicherer innovative Produkte entwickeln, Risiken schneller und besser bewerten, den Kundennutzen maximieren und die Kosten des operativen Geschäfts signifikant reduzieren, führt kein Weg vorbei an der Nutzung von „Big Data“ entlang der gesamten Wertschöpfungskette. Die Sammlung, Speicherung, Zusammenführung und Verarbeitung der relevantesten Daten ist hierbei von zentraler Bedeutung.

Es besteht oft Unsicherheit wie und in welchen Bereichen „Big Data“ am besten eingesetzt werden sollte, um ihr volles Potenzial auszuschöpfen. Mit diesem Artikel wollen wir für jeden Schritt der Wertschöpfungskette eines Versicherers konkrete Anwendungsbeispiele aufzeigen, in welchen „Big Data“ von großem Nutzen sein kann. Die intelligente Verknüpfung von Echtzeitdaten und die Anwendung von maschinellem Lernen (Systeme und Algorithmen, welche durch „Lernfähigkeit“ ihre Funktionen selbst verbessern) sind dabei nur eine kleine Auswahl an Anwendungen zur Hebelung des Potenzials von „Big Data“.

Weiter geht es zum zweiten Teil: Big Data in der Versicherungsbranche ‒ Produktentwicklung und Underwriting.

Quellen:
  • 1. http://www.emc.com/leadership/digital-universe/2014iview/executive-summary.htm
  • 2. z.B. in unstrukturierter Form, d.h. Datensätze, welche nicht im Zeilen und Spalten Format vorliegen