abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

Der Inhalt ist auch in den folgenden Sprachen verfügbar: English

Artikel

23 Jan 2023

Autor:
die ZEIT

OpenAI und Sama stellten unterbezahlte Arbeiter in Kenia ein, um brutale Inhalte für ChatGPT zu filtern

"Ausgebeutet, um die KI zu zähmen", 20. Januar 2023

Kenianische Arbeiter mussten sich Gewalt und Rassismus ansehen, damit ChatGPT lernt. Das zeigt: KI wird auch in Zukunft eine Technologie der Mächtigen bleiben.

[...] Doch der Preis dafür ist hoch, wie eine Recherche des Time Magazine nun zeigt: OpenAI hat dafür ein Unternehmen in Kenia beauftragt, dessen Angestellte Tausende Textausschnitte mit brutalen Gewalt- und Missbrauchsbeschreibungen lesen und bewerten mussten. Das Ziel: Trainingsdaten für ChatGPT zu generieren, damit das Modell problematische Inhalte besser erkennt. Einige dieser Mitarbeiter bekommen die traumatisierenden Inhalte nicht mehr aus dem Kopf, die sie für Stundenlöhne von höchstens zwei Dollar bearbeiten mussten.

"Verzerrungen auf Internetniveau"

Dazu kommt aber etwas, das noch mehr Schaden verursacht: starke Verzerrungen, Vorurteile, Falschmeldungen und vieles mehr, wie sie eben auch im Internet zu finden sind. In einem der wenigen Forschungsdokumente, die bisher von OpenAI veröffentlicht wurde, wird klar, wie sehr das Unternehmen mit den Implikationen genau dieser Basis kämpft: Die Forschenden gestehen selbst ein, dass GPT-3 Probleme mit Vorurteilen und Diskriminierung hat. Zunächst habe man Filter entwickelt, um Texte mit niedrigerer Qualität aus den Trainingsdaten zu entfernen, so die Forscher im Artikel.

Doch das half offenbar nicht dagegen, dass GPT-3 rassistischen und sexistischen Output produzierte: "Im Großen und Ganzen deutet unsere Analyse darauf hin, dass im Internet trainierte Modelle Verzerrungen auf Internetniveau aufweisen", schreiben die Forscher – eine an sich banale Erkenntnis. Auch ihr eigenes Modell GPT-3 sei nicht davor gefeit und neige trotz der bisherigen Maßnahmen dazu, Stereotype widerzuspiegeln, führen sie schließlich aus an Beispielen für Rassismus, Sexismus und religiösen Vorurteilen, die GPT-3 in seinen Texten generierte. 

Lange schien also nichts zu helfen dagegen, dass Sprachmodelle problematische Inhalte verstärken, die mit der menschlichen Geschichte von Ausgrenzung und Unterdrückung tief verwoben sind. Wie auch, wenn diese Modelle doch von uns Menschen lernen.

Doch dann kam OpenAI auf die entscheidende Idee: Die Systeme maschinellen Lernens sollten lernen, was Hass und Gewalt sind.

Eigentlich hätten spätestens im Juni 2021 alle Alarmglocken schrillen müssen. Da verkündete OpenAI, eine Lösung für Rassismus, Sexismus und Gewalt in den Texten seiner großen Sprachmodelle gefunden zu haben: Sie würden ihre Modelle künftig auch mit Texten zu Themen wie Missbrauch, Gewalt oder Ungerechtigkeit füttern. In diesen Texten sollten die Systeme Muster finden, um künftig Texte mit ähnlichem Inhalt zu erkennen – und sich entweder selbst zensieren oder sogar die Trainingsdaten nachfolgender Sprachmodelle davon reinigen zu können. 

Und weil KI nicht ohne Trainingsdaten lernen kann, die von Menschen annotiert wurden, brauchte OpenAI Leute, die sich Beispiele von Gewalt und Rassismus ansehen, diese als solche klassifizieren und der KI zur Verfügung stellen.

Solche Arbeiten machen klassischerweise jene, die ganz am Ende der Nahrungskette stehen: unterbezahlte sogenannte Clickworker in Entwicklungs- und Schwellenländern, die sich zwischen dieser traumatisierenden Arbeit oder noch schlechter bezahlten Jobs entscheiden können, um sich und ihre Familien zu ernähren. Darauf wird es immer wieder hinauslaufen, warnen Technikethikerinnen schon seit Jahren: "KI ist eine Technologie der Mächtigen", wird Meredith Wittaker nicht müde zu betonen.

So kam Sama ins Spiel. Laut Time Magazine hat OpenAI Tausende Textausschnitte an das Unternehmen geschickt, das seinen Sitz in San Francisco hat, aber in einer Außenstelle in Kenia Klickarbeiter beschäftigt, die für wenig Geld Trainingsdaten für künstliche Intelligenz annotieren. Das Magazin hat nicht nur umfangreichen Schriftverkehr zwischen OpenAI und Sama analysiert, sondern auch vier Angestellte von Sama interviewt. So wurden diese nicht nur schlecht bezahlt – sie erhielten zwischen 1,32 und zwei Dollar pro Stunde – sondern litten auch an den psychischen Folgen der traumatisierenden Arbeit. Einer der Mitarbeiter berichtet, wie er die bildhafte Beschreibung einer Szene, in der ein Mann Sex mit einem Hund hat, während ein kleines Kind zusieht, nicht mehr aus dem Kopf bekommt. "Das war Folter", wird der Mann zitiert, er habe durchgehend Texte über Gewalt, Vergewaltigungen und Hassrede lesen müssen.[...]

Ein Sprecher von OpenAI sagte dem Time Magazine, diese Arbeit sei notwendig, um KI-Anwendungen sicherer zu machen. "Unsere Mission ist es, sicherzustellen, dass künstliche Intelligenz der gesamten Menschheit zugutekommt." In den Ohren der kenianischen Clickworker muss das wie Hohn klingen.