Sie sind hier:

Nichts zu verbergen?

Warum Datenschutz keine bloß individuelle Frage ist.

Bei den aktuellen Diskussionen über Möglichkeiten, Grenzen und Gefahren von KI stehen meist textbasierte Dialogsysteme wie ChatGPT oder Roboter im Fokus. Selten jedoch wird thematisiert, dass wir bereits jetzt auf so komplexe Weise mit digitalen Medien und Diensten verbunden sind, dass man durchaus von einer Mensch-Maschine-Vernetzung sprechen kann. Das hat nicht nur Auswirkungen auf jeden Einzelnen, sondern auch auf das soziale Zusammenleben, die Verteilung von Chancen und von Macht. Nun soll hier kein neues Verschwörungsnarrativ eröffnet werden, es geht vielmehr darum, ein kritisches Bewusstsein dafür zu wecken, wie die vernetzte Sammlung und Weiterverwertung von Daten funktioniert und welche ethischen Implikationen damit verbunden sind.

 

Mit jeder Suchanfrage, jeder Bestellung, jedem Klick auf eine Anzeige, jedem Like in einem sozialen Netzwerk werden Daten generiert. Diese werden zunächst zusammengeführt und dann als Trainingsdaten für das weitere maschinelle Lernen des jeweiligen Systems verwendet, um es zu verbessern und zu erweitern. Außerdem eignen sich diese großen, aggregierten Datenmengen dazu, Vorhersagen über Einzelne oder Gruppen von Menschen zu treffen. Das nennt man „Prädiktive Analytik“. So kann beispielweise aus den Facebook-Likes einer Person (die sie freiwillig abgibt) oder daraus, welche Werbung sie anklickt, mithilfe eines prädiktiven Modells eine Abschätzung weiterer noch unbekannter Informationen über diese Person gewonnen werden. Möglich ist das, weil Facebook (oder andere Plattformen) diese Daten mit den gesammelten Daten von vielen anderen Nutzer:innen in Beziehung setzen kann. Einige wenige darunter haben zusätzlich auch sensiblere Daten preisgegeben (bei Social-Media-Plattformen sind „wenige“ aber immer noch einige Hundert Millionen). Diese Angaben werden als Trainingsdaten ebenfalls dem Modell zugeführt und dann auf alle Nutzer:innen angewendet. So entsteht ein immer genaueres und umfassenderes Vorhersagemodell, das schließlich aus wenigen unverfänglichen Informationen einer Person auch hochsensible Informationen, zum Beispiel über ihre sexuelle Orientierung, ihre Kreditwürdigkeit, ihre politische Einstellung o. a., rückschließen kann: Aus den vorhandenen sensiblen Daten einer Unter-Gruppe wird die Wahrscheinlichkeit für das Vorkommen eines bestimmten Merkmals oder eines bestimmten Verhaltens bei allen errechnet. Entsprechen die Likes einer Person einem bestimmten Muster, so lassen sich weitere Informationen über sie relativ treffsicher abschätzen. In der Folge davon betroffen kann jede Person sein – noch relativ harmlos, indem sie mit personalisierter Werbung angesprochen wird, aber bereits schwerwiegender, wenn sie beispielweise einen Kredit beantragt, eine Versicherung abschließen möchte oder in einem Job-Auswahlverfahren steht.

 

Nutzer:innen einer Plattform profitieren kostenlos von deren Diensten, erhalten hilfreiche Informationen und können sich vernetzen – das hat viele praktische Vorteile. Sie „bezahlen“ aber mit ihren Daten. Diese machen das eigentliche Geschäft der Plattformen aus, welches für die Nutzer:innen intransparent bleibt: Die aufbereiteten Daten werden an zahlungskräftige Kund:innen verkauft oder versteigert. Wer diese Daten kauft, erhält potenziell Zugriff auf die Nutzer:innen und kann bestimmen, zu welchen Ressourcen diese Zugang bekommen, welche Informationen sie erhalten und letztlich möglicherweise auch, wann sie von Interesse für Sicherheitsbehörden oder den Jugendschutz sind.

 

In ethischer Hinsicht ist das eine neuartige Situation, denn die Grundfrage der Ethik „Was soll ich tun?“ ist angesichts der gigantischen Datensammlungen obsolet geworden, zumal prädiktive Analytik auch mit anonymisierten Daten funktioniert – der entscheidende Faktor ist die Masse. In der Folge können Mitglieder einer gesellschaftlichen Gruppe bevorzugt oder benachteiligt werden, ihnen kann der Zugang zu Ressourcen ermöglicht oder verweigert werden. Mit anderen Worten: soziale Ungleichheit wird erzeugt und verfestigt. Die Datenschutz-Grundverordnung (DSGVO) war ein wichtiger (wenn auch nicht ausreichender) Schritt, um die informationelle Selbstbestimmung Einzelner abzusichern. Gegen die Verletzung von Privatheit durch prädiktive Analytik bietet sie jedoch keinen Schutz. Nötig ist ein kollektiver Datenschutz, zum Beispiel durch eine Regulierung der Datenweitergabe und der Machtfülle einiger weniger Tech-Konzerne.

 

Prädiktive Analytik ist nicht per se gefährlich, sie ist ein Werkzeug und wie bei jedem Werkzeug kommt es darauf an, wofür es verwendet wird. Sie kann dazu beitragen, soziale Ungleichheit zu verstärken, aber sie kann beispielsweise auch dazu beitragen, medizinische Diagnostik zu verbessern und Krankheiten zu bekämpfen. Nötig ist ein breiter ethischer Diskurs als Grundlage und Voraussetzung für politische Entscheidungen hinsichtlich einer notwendigen Regulierung.

 

Gabriele Isele

 

Weitere nützliche Infos:

https://rainermuehlhoff.de/universitaetsrede

https://rainermuehlhoff.de/predictive-privacy-in-15-minuten-vortrag-forum-privatheit