Читать книгу Predictive Analytic und die Haftung für fehlerhafte Ergebnisse gegenüber betroffenen Einzelpersonen - Susanne Mentel - Страница 54
a) Vernachlässigung der Datenqualität bei Big Data-Analysemethoden
ОглавлениеEine Forderung nach möglichst fehlerfreien Input-Daten basiert auf der Annahme, nach der der Output einer Berechnung nur so gut sein kann wie die als Input verwendeten Rechengrößen. Die These legt nahe, dass objektiv fehlerhafte Ausgangsdaten zu falschen Schlüssen führen müssen.162 Genau diese Logik wird im Zuge der Big Data-Entwicklung jedoch in Frage gestellt.163 Durch die Verwendung von speziellen neuartigen Analysemethoden müssen fehlerhafte Ausgangsdaten nicht zwingend zu einem unbrauchbaren Ergebnis führen. Die Muster und Zusammenhänge, die in Big Data enthalten sind, würden schon von sich aus aussagekräftige Ergebnisse zu Tage bringen.164 Hinter dieser Erkenntnis steht der Bruch mit traditionellen statistischen Methoden und Grundannahmen. Dazu zählt auch der Aspekt, dass Big Data-Verfahren keine Kausalitäten, sondern nur Korrelationen hervorbringen.165 Es zählt nicht das Wissen darüber, warum ein Zusammenhang besteht. Ausschlaggebend ist allein, dass ein solcher besteht. Diesem Dogma entsprechend veränderte sich auch die Herangehensweise an Analysen. Während es bisher üblich war, dass Analysten eine geeignete Analysemethode auswählen, die nach ihrem Wissen und ihren Erfahrungen zur Analyse der Daten geeignet ist, ist es nun umgekehrt: Die Daten suchen sich die geeignete Methode und ihr statistisches Modell selbst.166 Auch das bisherige Grundprinzip, wonach statistische Methoden auf statistischer Signifikanz beruhen, wird mit Big Data ignoriert. Denn es wird nicht zunächst aus einer kleinen Stichprobe eine Wahrscheinlichkeit errechnet, die dann auf ihre Übereinstimmung mit weiteren Datensätzen geprüft und bei fehlender Übereinstimmung gegebenenfalls wieder verworfen wird.167 Vielmehr wird die Wahrscheinlichkeit für ein gewisses Ereignis direkt aus der Vielzahl an Daten heraus entwickelt. Bei Predictive Analytic-Anwendungen, die schon in der Lage sind, Big Data zu verarbeiten und dementsprechende Analysemethoden nutzen, ist der soeben ausgeführte Aspekt bei der Prüfiung der Haftung im Hinterkopf zu behalten. In diesen Fällen kann nicht ohne weiteres von einer fehlerhaften Datenbasis auf die Fehlerhaftigkeit des Ergebnisses geschlossen werden. Es darf jedoch nicht übersehen werden, dass nicht jede Predictive Analytic-Anwendung bereits mit Big Data angewandt wird.168 Mangels ausreichender Kapazitäten und entsprechendem Know-How sind viele Unternehmen bisher nicht in der Lage, Big Data zu händeln. Der Umgang mit Massendaten im Sinne der Definition von Big Data ist bisher noch Unternehmen vorbehalten, die über die erforderliche Infrastruktur verfügen. Eine fehlerhafte Datenbasis kommt bei gewöhnlichen Predictive Analytic-Anwendungen daher durchaus als mögliche Ursache fehlerhafter Ergebnisse in Betracht. Aus diesem Grund sollen Datenfehler im Folgenden näher spezifiziert werden.