Predictive Analytic und die Haftung für fehlerhafte Ergebnisse gegenüber betroffenen Einzelpersonen. Susanne Mentel

Читать онлайн.
Название Predictive Analytic und die Haftung für fehlerhafte Ergebnisse gegenüber betroffenen Einzelpersonen
Автор произведения Susanne Mentel
Жанр Юриспруденция, право
Серия @kit-Schriftenreihe
Издательство Юриспруденция, право
Год выпуска 0
isbn 9783800592678



Скачать книгу

Analytic sind die Konsequenzen, die entstehen können, wenn der ermittelte Vorhersagewert zu Ungunsten der analysierten Person von der Wirklichkeit abweicht. Von der Realität abweichende Vorhersageergebnisse führen nicht nur zu einem verfälschten Bild für die Nutzer solcher Analysen, sondern können auch fatale Auswirkungen151 auf die fehlerhaft eingestuften Einzelpersonen – im Folgenden: die Betroffenen – haben. Derartige Abweichungen werden in dieser Arbeit als fehlerhafte Ergebnisse bezeichnet, gleichwohl es dem Wesen einer Vorhersage entspricht, dass sie nicht richtig oder falsch ist. Ausgehend von der Höhe des Wertes trifft eine Vorhersage immer nur eine Aussage darüber, ob es wahrscheinlicher ist, dass eine bestimmte Situation oder ein Verhalten eintritt oder nicht. Nichtsdestotrotz ist es das Ziel einer jeden Vorhersage, die im Einzelfall bestehende Ungewissheit durch möglichst treffsichere Ergebnisse zu beseitigen. Eine Vorhersage kann deshalb auch „fehlerhaft“ sein, nämlich dann, wenn sich die anhand des Vorhersagewertes vorgenommene Kategorisierung nicht mit der Realität deckt. Eine Möglichkeit, Abweichungen der Vorhersage von der Wirklichkeit einzuordnen, entstammt den Grundlagen von Hypothesentests.152 Dabei wird die Güte des Modells bzw. der Klassifikation in vier verschiedene Fälle eingeordnet: richtig positiv, falsch positiv, richtig negativ und falsch negativ.153 Die Güte der bereits oben als Beispiel herangezogenen Hypothese „Der Kunde ist kündigungsbereit“ kann diesen Kategorien folgendermaßen zugeordnet werden:

       – Richtig positiv: Der Kunde ist kündigungsbereit und das Modell hat dies richtig vorhergesagt.

       – Falsch positiv: Der Kunde ist kündigungsbereit, das Modell hat den Kunden aber (fälschlicherweise) als nicht kündigungsbereit eingestuft.

       – Richtig negativ: Der Kunde ist nicht kündigungsbereit und das Modell hat dies richtig vorhergesagt.

       – Falsch negativ: Der Kunde ist nicht kündigungsbereit, das Modell hat ihn aber (fälschlicherweise) als kündigungsbereit eingestuft.

      Stimmt die Vorhersage mit der Realität überein und ist das Ergebnis richtig (richtig positiv oder richtig negativ), kann nicht von einer fehlerhaften Vorhersage gesprochen werden. Weicht die Vorhersage jedoch wie im Falle falsch positiver oder falsch negativer Ergebnisse von der Realität ab, werden diese Fälle in der weiteren Untersuchung als fehlerhafte Predictive Analytic-Ergebnisse bezeichnet. Um eine Vorhersage als zutreffend oder fehlerhaft einzuordnen, bedarf es eines Einblickes in die realen Verhältnisse oder Verhaltensweisen der analysierten Person. Ein derartiger Nachweis ist zwar nicht immer, aber doch in vielen Fällen ex post möglich.

      Die Charakterisierung einer Predictive Analytic als bloße Wahrscheinlichkeitsrechnung führt zu dem logischen Schluss, wonach Abweichungen von der Realität, und damit fehlerhafte Ergebnisse im hier verstandenen Sinne, naturgemäß zu erwarten sind. Diese Schwäche einer jeden Vorhersage darf jedoch nicht ohne Konsequenzen bleiben. Eine Haftung ist vor allem dann geboten, wenn gegen ein Gesetz oder eine Sorgfaltspflicht verstoßen wurde und die Predictive Analytic zu Benachteiligungen führt, die aus rechtsdogmatischer Sicht nicht hinnehmbar sind.154 In den folgenden Kapiteln sollen weitere Ausführungen die Auseinandersetzung mit einer Haftung für fehlerhafte Predictive Analytic vorbereiten. Dafür werden im nächsten Abschnitt mögliche Ursachen fehlerhafter Ergebnisse genannt und erörtert (III.). Das daran anschließende Kapitel über mögliche Folgen eines fehlerhaften Predictive Analytic-Ergebnisses für den Betroffenen (IV.) widmet sich ebenfalls der Einleitung der Haftungsfrage. Abschließend wird in vorgezogener Weise untersucht, ob die potenziellen Schäden, die durch fehlerhafte Predictive Analytic-Ergebnisse hervorgerufen werden können, überhaupt rechtlich ersatzfähig sind (V.).

      Durch Predictive Analytic-Software generierte Vorhersagen sind das Ergebnis komplexer Prozesse. In der Folge können auch die Ursachen fehlerhafter Predictive Analytic-Ergebnisse vielfältig sein.

      Eine naheliegende Ursache fehlerhafter Predictive Analytic-Ergebnisse kann in der verwendeten Datengrundlage liegen. Nachdem der Begriff der Daten noch nicht näher untersucht wurde, muss hier eine erste Differenzierung vorgenommen werden. Es kann sich bei dem Begriff der Daten sowohl um Input- als auch um Output-Daten handeln.155 Unter Output-Daten sind im Rahmen einer Predictive Analytic die Ergebnisse einer Analyse zu verstehen. Input-Daten sind die Daten, die der Analyse zugrunde gelegt werden. Um diese Datengrundlage geht es im Folgenden. Sowohl die Masse als auch die teils schlechte Qualität von Daten stellen einen Risikofaktor für Predictive Analytic-Verfahren dar. Durch die zuehmende Digitalisierung der letzten Jahrzehnte sowie insbesondere durch die Big Data-Entwicklung der letzten Jahre, sehen sich Analyse-Tools heute einer ganz anderen Datenmenge und -komplexität ausgesetzt.156 Dabei bedeutet die Menge an Daten nicht zugleich ein Mehr an korrekten und analysefähigen Daten. Dies wird bereits durch eine Aussage Mehrings deutlich, der schon im Jahre 1990 feststellte, dass die Qualität von Information mit zunehmender Dichte abnehme.157 Ganz anders lauten dagegen die Stimmen vieler pro Big Data eingestellter Analysten und Publizisten. So finden sich in der Presse seit Anfang 2010 regelmäßig Beiträge, denen zufolge gerade die Masse an ungenauen Daten als das entscheidende Erfolgskonzept von Big Data-Anwendungen suggeriert wird.158 Der Fokus liege demnach nicht auf richtigen, qualitativ hochwertigen Daten, sondern der Gewinn aus Datenanalysen wird allein auf die Menge an Daten zurückgeführt.159 Ähnliche Annahmen finden sich in der englisch-sprachigen Literatur, wenn darauf abgestellt wird, dass die Masse an Daten es möglich mache, auch aus weniger vertrauenswürdigen Daten wertvolle Einblicke zu erhalten: „Going beyond samples, additional valuable insights could be obtained from the massive volumes of less ‘trustworthy’ data.“160 Der Herausforderung, mit teils ungenauen und unsicheren Daten umzugehen, wird im Rahmen von Big Data mit der Verwendung von Verfahren begegnet, die speziell für die Arbeit mit solchen Daten entwickelt wurden.161 Fehlerhafte Input-Daten sind in Bezug auf solche Big Data-Verfahren als Ursache fehlerhafter Predictive Analytic-Ergebnisse im Folgenden genauer zu untersuchen.

      Eine Forderung nach möglichst fehlerfreien Input-Daten basiert auf der Annahme, nach der der Output einer Berechnung nur so gut sein kann wie die als Input verwendeten Rechengrößen. Die These legt nahe, dass objektiv fehlerhafte Ausgangsdaten zu falschen Schlüssen führen müssen.162 Genau diese Logik wird im Zuge der Big Data-Entwicklung jedoch in Frage gestellt.163 Durch die Verwendung von speziellen neuartigen Analysemethoden müssen fehlerhafte Ausgangsdaten nicht zwingend zu einem unbrauchbaren Ergebnis führen. Die Muster und Zusammenhänge, die in Big Data enthalten sind, würden schon von sich aus aussagekräftige Ergebnisse zu Tage bringen.164 Hinter dieser Erkenntnis steht der Bruch mit traditionellen statistischen Methoden und Grundannahmen. Dazu zählt auch der Aspekt, dass Big Data-Verfahren keine Kausalitäten, sondern nur Korrelationen hervorbringen.165 Es zählt nicht das Wissen darüber, warum ein Zusammenhang besteht. Ausschlaggebend ist allein, dass ein solcher besteht. Diesem Dogma entsprechend veränderte sich auch die Herangehensweise an Analysen. Während es bisher üblich war, dass Analysten eine geeignete Analysemethode auswählen, die nach ihrem Wissen und ihren Erfahrungen zur Analyse der Daten geeignet ist, ist es nun umgekehrt: Die Daten suchen sich die geeignete Methode und ihr statistisches Modell selbst.166 Auch das bisherige Grundprinzip, wonach statistische Methoden auf statistischer Signifikanz beruhen, wird mit Big Data ignoriert. Denn es wird nicht zunächst aus einer kleinen Stichprobe eine Wahrscheinlichkeit errechnet, die dann auf ihre Übereinstimmung mit weiteren Datensätzen geprüft und bei fehlender Übereinstimmung gegebenenfalls wieder verworfen wird.167 Vielmehr wird die Wahrscheinlichkeit für ein gewisses Ereignis direkt aus der Vielzahl an Daten heraus entwickelt. Bei Predictive Analytic-Anwendungen, die schon in der Lage sind, Big Data zu verarbeiten und dementsprechende Analysemethoden nutzen, ist der soeben ausgeführte Aspekt bei der Prüfiung der Haftung im Hinterkopf zu behalten. In diesen Fällen kann nicht ohne