abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

Der Inhalt ist auch in den folgenden Sprachen verfügbar: English, 简体中文, 繁體中文

Artikel

10 Mär 2023

Autor:
Financial Times,
Autor:
ver.di

TikTok- und Meta-Moderator*innen fordern gleiche Bezahlung, Gesundheitsschutz für ihre Psyche und das Recht, sich gewerkschaftlich zu organisieren und Betriebsräte zu gründen

„Für uns sind die Sozialen Medien ein unsicherer Ort“, 13. März 2023

Content Moderatoren filtern gewalttätige Posts, Bilder, Videos und Chats aus den Sozialen Medien. Sie machen die Plattformen sicher, aber arbeiten selbst unter unsicheren Bedingungen. Jetzt begehren sie auf.

Am 9. und 10. März hatte ver.di zu einem Treffen von sogenannten Content Moderatoren eingeladen. Rund 50 von ihnen, die 24 Stunden sieben Tage die Woche sämtliche Inhalte auf den verschiedenen Social-Media-Plattformen kontrollieren und gegebenenfalls löschen, wenn sie die Grenzen des Erlaubten überschreiten, waren aus ganz Deutschland nach Berlin gekommen. Sie arbeiten für TikTok, Facebook, Twitter und Co. Im Englischen werden sie auch „Cleaner“ genannt, Reinigungskräfte, die den Dreck aus dem Internet fegen. Und so prekär oftmals die Situation von Reinigungskräften ist, sind auch die Arbeitsbedingungen der Content Moderatoren in mehrfacher Hinsicht mehr als problematisch: Sie arbeiten im Verborgenen, dürfen über ihre Arbeit nicht sprechen, werden psychologisch kaum unterstützt, obwohl sie täglich zehntausende Posts, Bilder und Videos voll Gewalt und Hass ansehen und löschen müssen. Und sie werden schlecht bezahlt.

Menschliche Filter

Daran wollen die Content Moderatoren jetzt etwas ändern. In Berlin haben sie sich auf drei grundsätzliche Forderungen verständigt: Sie fordern gleiche Bezahlung, denn viele von ihnen arbeiten für Subunternehmen der großen Plattformen zu deutlich schlechteren Bedingungen. Sie fordern das Recht, sich gewerkschaftlich zu organisieren und Betriebsräte zu gründen. Bei TikTok konnten die Beschäftigten im vergangenen Jahr mit Unterstützung von ver.di bereits einen Betriebsrat gründen. Und vor allem fordern sie einen regulären Gesundheitsschutz für ihre Psyche. Hikmat El-Hammouri, ver.di-Gewerkschaftssekretär und Mitorganisator dieses ersten Treffens von Content Moderatoren in Deutschland betont: „Content Moderatoren sind ein menschlicher Filter für das Grausamste, was es gibt.“ [...]

Das Berliner Treffen von Content Moderatoren ist ein Anfang, um die Social-Media-Plattformen, aber vor allem die Arbeitsbedingungen ihrer Moderatoren besser und sicherer zu machen.

Algorithmen kommen gegen Gewalt im Netz nicht an

Nicht zuletzt deshalb haben das Treffen an einem sicheren Ort auch drei von Frauen gegründete zivilgesellschaftliche Organisationen mit organisiert, die sich für bessere Arbeitsbedingungen in der Tech-Branche einsetzen: Superrr Lab aus Berlin, Foxglove aus London und das DAIR Institute, das unabhängig weltweit Untersuchungen zum Einsatz Künstlicher Intelligenz (KI) betreibt. Das KI bereits zum Einsatz kommt, bestätigen die Content Moderatoren. „Doch“, sagt Ali, „ohne uns kommt kein Algorithmus gegen die Gewalt im Netz an.“ [...]

TikTok und Meta reagierten nicht auf die Bitte der Financial Times um Stellungnahme.

Zeitleiste