Sie sind hier:

Künstliche Intelligenz, maschinelles Lernen und menschliche Arbeit

Ich möchte im Folgenden den Blick auf eine ganz andere Seite des Themas lenken, auf eine Schattenseite, die wenig thematisiert wird: die für das Trainieren von KI nötige menschliche Arbeit.

Künstliche Intelligenz (KI) ist derzeit ein prominentes Thema in den Medien, es gibt viele Diskussionen, viel Staunen, viel Begeisterung und auch viel Sorge. Ich möchte im Folgenden den Blick auf eine ganz andere Seite des Themas lenken, auf eine Schattenseite, die wenig thematisiert wird: die für das Trainieren von KI nötige menschliche Arbeit.

KI und maschinelle Lernmodelle müssen ständig trainiert werden, um effizienter zu werden. Dazu sind unzählige Datensätze nötig. Relevante Informationen und Metadaten werden nach bestimmten Regeln gesichtet, sortiert und gekennzeichnet, damit die Maschinen sie einordnen können und die so gespeicherten Informationen zu neuen Informationen zu verarbeiten. Manuelle Datenannotation heißt das. Bevor die KI zum Beispiel das Bild eines Hundes erkennen kann, muss sie mit den verschiedensten Bildern von Hunden gefüttert werden, worauf diese als solche etikettiert sind. Bevor eine KI diskriminierende Inhalte erkennen kann, um sie auszusortieren, muss sie mit Bildern oder Texten genau solcher Inhalte darauf trainiert werden. Da selbst kleinste Fehler dazu führen würden, dass die KI auf falsche Weise lernt und daraufhin Daten falsch vorhersagt, hätte das entscheidenden Einfluss auf die Marktpositionierung eines KI-Anbieters. Datenannotation ist also eine entscheidende Arbeit, aber eine Arbeit, die überwiegend repetitiv und langweilig ist. Es gibt auch automatisierte Datenannotation, aber (noch) liefert die manuelle Annotation genauere Ergebnisse. Es sind sogenannte Clickworker, die rund um den Globus, meist im globalen Süden zu niedrigen Löhnen und repressiven Bedingungen (Bezahlung nach Leistung, nicht nach Stunden; fehlende Pausen; kein Recht auf gewerkschaftliche Organisierung etc.) solche Tätigkeiten ausüben.

Der Vorläufer von ChatGPT hatte Probleme mit Vorurteilen, Hass und rassistischen Stereotypen in seinen Texten. Um diese frei von Diskriminierung, Einseitigkeiten und Polemik generieren zu können, musste die KI also lernen, solche Texte zu erkennen und auszusortieren. Jede:r kann es ausprobieren, Texte von ChatGPT sind meist ausgewogen und korrekt. Wer ahnt aber, dass sich Arbeiter:innen im globalen Süden dafür vorab verstörenden Beschreibungen von Gewalt, von rassistischer und hasserfüllter Sprache aussetzen mussten? Für die Moderation von Social-Media-Kanälen beschäftigt beispielsweise die Firma Sama Mitarbeiter:innen in Kenia. Sie mussten sich Videos von sexueller Gewalt an Kindern, von Folterungen und Morden ansehen, damit Nutzer:innen bei uns vor solch erschreckenden Bildern geschützt werden können. (Inzwischen hat Sama seine Zusammenarbeit mit Facebook eingestellt und bekanntgegeben, dass es aus dem Geschäft mit der Inhaltemoderation aussteigen will – viele der Arbeiter:innen haben aber daraufhin ihre Anstellung verloren oder mussten weniger gut bezahlte Tätigkeiten übernehmen.)

Arbeitsplätze im globalen Süden sind rar und die weltweite Verteilung von Arbeitsplätzen via Internet bewirkt eine verstärkte Konkurrenz um Billiglöhne. Im Allgemeinen ist es eine Mischung aus Armut und guter Infrastruktur (z. B. in Venezuela), die für Crowdworking eine attraktive Grundlage bietet. Selbst wenn, wie etwa in Argentinien, ein Mindestlohn gezahlt wird und die Arbeiter:innen kranken- und rentenversichert sind, liegt dieser Mindestlohn unterhalb der Armutsgrenze. Und viele der Arbeiter:innen schätzen sich durchaus glücklich, mit einem Job am Bildschirm eine vergleichsweise höherwertige Arbeit zu haben. Menschen werden also nicht nur durch Algorithmen ersetzt wie vielfach bei uns, sondern wirken unter prekären Bedingungen auch an den Voraussetzungen dafür mit.

Schritte zu einer Regulierung wären also dringend geboten. Hierzu gehören etwa Zulassungsregeln für Firmen, die Datenannotation anbieten. Solche Regeln müssten ethische Richtlinien und Standards für faire Bezahlung, Schulungen für den Umgang mit traumatisierenden Inhalten, psychologische Betreuung und die Einrichtung von Beschwerdeinstanzen beinhalten. Ebenso wichtig sind Transparenz-Gebote für die Firmen, auf welchen Annahmen ihre Systeme beruhen.

Inwieweit die in der Vorbereitung befindliche KI-Verordnung der EU auch diese Fragen behandelt, wäre zu prüfen.

 

Zum Weiterlesen:

https://netzpolitik.org/2022/reihe-zum-digitalen-kolonialismus-globale-arbeitsketten-der-westlichen-ki/

https://netzpolitik.org/2023/datenarbeit-wie-millionen-menschen-fuer-die-ki-schuften/

https://time.com/6247678/openai-chatgpt-kenya-workers/

 

Gabriele Isele