Fehlende Kontextualität von Big-Data-Analysen
Algorithmen, die Big Data-Analysen zugrunde liegen, werden häufig so programmiert, dass sie bestimmte Korrelationen zwischen Daten erkennen, die dann eine Kategorisierung und Vorhersage ermöglichen, z.B. durch die Einteilung von Menschen in Risikogruppen. Dies benötigt jedoch eine Modellierung der Daten, die sie aus ihrem Kontext herauslöst und in das Datenanalysemodell einpasst. Dabei wird häufig übersehen, dass der Kontext Daten eine spezielle Bedeutung gibt, die aber durch das Herauslösen aus dem Kontext verloren geht.1 Diese Dekontextualisierung kann zu Missverständnissen und Fehlinterpretationen führen. Auch wenn Algorithmen darauf ausgelegt sind, Daten zu Mustern zu verknüpfen, ist es keineswegs sicher, dass jede Information auch Teil eines größeren Bildes ist. Boyd und Crawford schreiben in diesem Zusammenhang, dass „Big Data zu häufig die Praxis der Apophänie ermöglicht: Muster zu sehen, wo tatsächlich keine existieren, einfach nur, weil enorme Mengen an Daten Verbindungen zeigen können, die in alle Richtungen ausstrahlen“.2 Auch diese Praxis der Apophänie kann wie alle Formen von Fehlern und Problemen der algorithmischen datenbasierten Entscheidungsfindung für die Betroffenen schwerwiegende Auswirkungen haben.
Besonders in Sicherheitsfragen sind diese sehr schwerwiegend und falsche Entscheidungen haben nicht einfach nur unangenehme Folgen, sondern stellen ernstzunehmende Missstände dar. Menschen können aufgrund von ähnlichen Datenmustern falsch eingruppiert, herausgefiltert und bloßgestellt werden, am Reisen gehindert oder unschuldig verhaftet oder gar gefoltert werden (vgl. z.B. die Fälle von Ould Salek oder Maher Arar). Dennoch sind algorithmische Bewertungs- und Entscheidungsroutinen nicht transparent. Sie basieren auf sich ändernden Datenquellen, welche sowohl falsche Daten als auch falsche Analyseroutinen schwer zu entdecken und damit auch schwer in Frage zu stellen machen.3 Big-Data-basierte Entscheidungen sind nicht nachvollziehbar und auch für die ausführenden Mitarbeiter*innen oder Beamt*innen praktisch kaum einsehbar. Damit ist es für diese auch kaum möglich, sich über solche Einschätzungen hinwegzusetzen. Hinzu kommt der Glaube an die Technik und die Intelligenz des umfassenden Systems: ‚Bestimmt habe ich etwas übersehen, wenn der Computer zu einem anderen Ergebnis kommt. Er wird schon seine Gründe haben.‘ Induktive algorithmenbasierte Methoden definieren gerade bei Einschätzungen eines verdächtigen Verhaltens aus den Daten heraus eine Norm (des unverdächtigen Verhaltens) und damit auch Muster der Abweichung, die als verdächtig gelten. Ein „algorithmischer Grund“ umgeht damit die bis dato geltenden Evaluierungsmethoden, die nicht nur in der Wissenschaft zur Verbesserung der Robustheit angewendet wurden, wie zum Beispiel Proben, Versuche und Experimente.4 „[Datenanalysen, die als] die Überwindung menschlicher Irrationalität bezeichnet worden sind, welche Interpretationen als Quelle von Fehlern und Diskriminierung umgehen, setzen dann im Grunde genommen die datengetriebene Profilerstellung in eine Black Box“.5
In diese Black Box hineinschauen zu können oder sie zu bewerten, ist entscheidend, wenn es um Menschenrechte geht. Eine der Kernprinzipien westlicher Demokratien besteht darin, dass Bürger*innen das Recht und auch die Möglichkeit haben, staatliche Handlungen kritisch zu hinterfragen und nicht nur abhängig von staatlicher Macht zu sein. Jedoch sind gerade diese Rechte gefährdet, wenn man sich Algorithmen- und Big-Data-basierte Entscheidungsfindung anschaut.
- „Algorithmische Gouvernementalität vermeidet sorgfältig alle Arten der Konfrontation, insbesondere mit denen, die von ihren Regulierungsauswirkungen betroffen sind”.6 Die Menschen können häufig gar nicht wissen, ob und wann sie diskriminiert werden.7
- Sollten Menschen dennoch eine Diskriminierung feststellen und gegen sie vorgehen wollen, so ist der Weg der Entscheidung immer noch in der Black Box und es ist nur schwer oder überhaupt nicht möglich, den Fehler auf den Algorithmus oder die Daten zurückzuführen. Selbst wenn man Zugang zum Quellcode des Algorithmus bekommt, ist es sehr schwer, die einzelnen Bestandteile zu unterscheiden und zu analysieren und natürlich ist man angewiesen auf Expert*innen. „Es wird schlicht nicht ökonomisch und noch nicht mal technisch umsetzbar sein, dass Datensubjekte die ‘Richtigkeit’ oder Genauigkeit der Daten oder analytischen Modelle, welche […] genutzt werden, beurteilen und dann anfechten“.8 Wenn wir noch selbst-lernende Algorithmen hinnehmen, ist es praktisch unmöglich.
Weiterhin bleibt die Frage der Verantwortlichkeit: Ist es die Schuld des Algorithmus, des/der Programmierer*in oder des/der ausführenden Mitarbeiter*in oder Beamt*in? Oder sind es falsche oder ungenügende Daten?
Wenn die Programme und Routinen im Allgemeinen gut funktionieren, unter Aufsicht stehen und bessere Ergebnisse als andere oder frühere Methoden liefern, wird es für die Betroffenen äußerst schwierig zu beweisen, dass sie diskriminiert wurden und dass es nicht ihre eigene Schuld ist, z.B. weil sie zu wenig Daten zur Auswertung bereitgestellt haben und das System daher falsche Schlüsse gezogen hat. Diskriminierte Personen müssen in diesen Fällen gegen eine scheinbar objektive Entscheidung vorgehen.
Dieselben Eigenschaften von Big-Data-Analysen, die für ihre ‚Objektivität‘ und Unabhängigkeit von menschlichen (Fehl‑)Entscheidungen gelobt werden, erschweren es deutlich, Fragen der Transparenz und Verantwortlichkeit von privaten und staatlichen Akteuren zu stellen und zu beantworten. Besonders wichtig hierbei ist, dass Algorithmen- und datenbasierte Entscheidungsroutinen sowohl bestehende Datenschutz- als auch Nicht-Diskriminierungsgrundsätze, wie sie zum Beispiel in der Europäischen Grundrechtecharta stehen, unterminieren.9
Boyd, Danah and Crawford, Kate (2012): „Critical Questions for Big Data“, Information, Communication & Society 15(5): 662–79. ↩︎
Boyd, Danah and Crawford, Kate (2012): „Critical Questions for Big Data“, Information, Communication & Society 15(5): 668. ↩︎
Gandy, Oscar H. (2010) „Engaging Rational Discrimination: Exploring Reasons for Placing Regulatory Constraints on Decision Support Systems“, Ethics and Information Technology 12(1): 29–42. ↩︎
Rouvroy, Antoinette (2013) „The End(s) of Critique: Data-behaviourism vs. Due-process“, in: Hildebrandt, M & de Vries, K (eds.) Privacy, Due Process and the Computational Turn. The Philosophy of Law Meets the Philosophy of Technology. Milton Park/New York: Routledge: 143–68. ↩︎
Leese, Matthias (2014) „The New Profiling: Algorithms, Black Boxes, and the Failure of Anti-discriminatory Safeguards in the European Union“, Security Dialogue 45(5): 494–511. ↩︎
Rouvroy, Antoinette (2013) „The End(s) of Critique: Data-behaviourism vs. Due-process“, in: Hildebrandt, M & de Vries, K (eds.) Privacy, Due Process and the Computational Turn. The Philosophy of Law Meets the Philosophy of Technology. Milton Park/New York: Routledge: 143–68. ↩︎
Gandy, Oscar H. (2010) „Engaging Rational Discrimination: Exploring Reasons for Placing Regulatory Constraints on Decision Support Systems“, Ethics and Information Technology 12(1): 40. ↩︎
Gandy, Oscar H. (2010) „Engaging Rational Discrimination: Exploring Reasons for Placing Regulatory Constraints on Decision Support Systems“, Ethics and Information Technology 12(1): 39. ↩︎
Guzik, Kevin (2009) „Discrimination by Design: Predictive Data Mining as Security Practice in the United States’ ‘War on Terror’“, Surveillance & Society 7(1): 3–20.; Leese, Matthias (2014) „The New Profiling: Algorithms, Black Boxes, and the Failure of Anti-discriminatory Safeguards in the European Union“, Security Dialogue 45(5): 494–511.; Lyon, David (Hg.) (2003) Surveillance as Social Sorting: Privacy, Risk, and Digital Discrimination, London/New York: Routledge. ↩︎