Datenschutz, The Cleaners, Zensur
julien.wilkens@axelspringer.de

DIE DIGITALE MÜLLABFUHR

Der Dokumentarfilm „The Cleaners“ zeigt, wie Internet­konzerne Texte, Fotos und Videos bewerten – und im Zweifel löschen. Die Verfahren sind hoch umstritten.

(© ALAMY)

Die Situation „Löschen, ignorieren, löschen, löschen, ignorieren.“ Mit dem Finger an der Computermaus sitzt Celene in einem abgedunkelten Raum in der philippinischen Hauptstadt Manila vor einem PC. Neben ihr zahlreiche Plätze für Kolleginnen und Kollegen, die der gleichen Arbeit nachgehen. Es gehe darum, das Internet sauber zu halten, sagt sie. Es befreien von Inhalten, die niemand sehen will: Kinderpornografie, Vergewaltigungen, Enthauptungen, Hassrede. Mehrere Tausend Bilder bekommen manche der sogenannten Commercial-Content-Moderatoren, die hier arbeiten, täglich zu Gesicht.
Celene bleiben nur rund acht Sekunden für jedes Bild, für jede Entscheidung: Darf das Netz diesen und jenen Inhalt zu sehen bekommen oder nicht? Sie bewertet auch Kriegs­fotografie, Aktmalerei, Satire. Grenzfälle, bei denen der Kontext eine Rolle spielt. „Löschen“, sagt sie, und verbannt mit nur einem Mausklick das Bild der Künstlerin ­Illma ­Gore, die ­Donald Trump mit einem kleinen Penis gemalt hatte, für immer von der Social-Media-Plattform Face­book. Kunst. Aber eben auch Nacktheit, Karikatur. Zensur? Wer entscheidet, was wir im Internet sehen? Und nach welchen Kriterien werden ­Online-­Inhalte überhaupt gelöscht?
An vielen Orten der Welt arbeiten Content-Moderatoren wie Celene. Zu den größten Standorten gehören die Philippinen. Dort sollen bis zu 150.000 Menschen diesen Job ausüben. Für ihren Dokumentarfilm „The Cleaners“ haben die Regisseure ­Moritz ­Riesewieck und Hans Block mit Mitarbeitern von Firmen gesprochen, die auf den Philippinen für Facebook von Usern gemeldete Daten löschen – und vertraglich eigentlich nicht über ihre Arbeit sprechen dürfen. Oft wissen die Einheimischen nicht, was hinter dem Begriff Content-Moderation steckt. Anfangs bekommen die in der Regel jungen Filippinos eine kurze Einführung darüber, welche Inhalte sie löschen sollen. Dann entscheiden sie alleine darüber, welche Bilder online bleiben – häufig mit bedingtem Hintergrundwissen über die politische Situation eines Landes oder wichtige Persönlichkeiten.
Ein Blick auf die Stellenausschreibungen für Content-Moderatoren zeigt, dass das Angebot groß ist – weltweit und eben auch auf den Philippinen, auf denen viele junge Menschen Angst haben, als Müllsammler zu enden. Im Film erzählt Ira: „Die Einkommen auf den Philippinen sind sehr gering. Die Arbeit als Content-Moderator ermöglicht es uns, hier zu überleben.“ Doch nach der Hoffnung die Ernüchterung: „Als uns erklärt wurde, was uns erwartet, wollte ich sofort wieder hinschmeißen.“ Das Schockierendste, was sie erlebt hat: ein Kind, das einen Mann oral befriedigt. Die psychologische Betreuung vor Ort ist oft unzureichend, die Angst vor der Arbeitslosigkeit jedoch zu groß, sodass viele bleiben.
Neben Content-Moderatoren wie ­Celene und ­Ira, die Tausende Kilo­meter von uns entfernt arbeiten, finden sich auch in Deutschland Dienstleister, die für Facebook Daten löschen. Die ­Bertelsmann-Tochter Arvato in Berlin etwa oder das CCC (Competence Call Center) in Essen. Insgesamt sitzen dort rund 1.500 Mitarbeiter, bald sollen es 2.000 sein. Weltweit kümmern sich rund 20.000 Mitarbeiter um diesen Aufgabenbereich, erklärt Klaus ­Gorny, der für die Unternehmenskommunikation bei Face­book zuständig ist. Dabei geht es auch um harmlosere Angelegenheiten wie das Löschen von Fake-Accounts. Zahlen dazu veröffentlichte Facebook in diesem Jahr in seinem Transparenzbericht, der künftig halbjährlich erscheinen wird. Demnach löschte das Unternehmen im ersten Quartal 2018 21 Millionen Beiträge, da sie sexuelle Handlungen oder Nacktheit zeigten. 96 Prozent davon wurden automatisch erkannt und entfernt. „Vieles bei Facebook wird heute bereits durch Künstliche Intelligenz gelöscht. Nacktheit etwa ist leicht zu erkennen, das ist einfach eine Fläche ­gleicher Farbe“, sagt ­Gorny. „Vor allem beim Thema Hassrede aber ist die Technik noch nicht genügend fortgeschritten.“ Noch ist der Mensch also nicht ersetzbar. Bei der richtigen Entscheidung sollen bei Facebook sogenannte Gemeinschaftsstandards helfen. Hier sind Gewaltakte und sexuelle Handlungen gelistet oder auch Begriffe wie Hassrede definiert. Bei den meisten Themen spielt allerdings der Kontext eine große Rolle: „Weibliche Brustwarzen zum Beispiel sind im Rahmen von Kunst erlaubt, außerdem bei Darstellungen zum Thema Brustkrebs oder Stillen“, erklärt ­Gorny. Dabei räumt er ein: „Natürlich können Fehler passieren, wenn sich jemand einer gewissen Sensibilität für ein Thema nicht bewusst ist.“ Geschultes Personal sei daher wichtig. „Eines der Einstellungskriterien ist ein Interesse an politischen Themen“, erläutert der Facebook-Sprecher. Laut einer aktuellen Stellenausschreibung trifft es für Arvato zu, dass das Wissen um die politische Lage in Deutschland Voraussetzung ist. Dennoch steht dort auch: „No experience is required“ – keine Arbeitserfahrung erforderlich. Bachelor, Master: ebenfalls nicht notwendig. Ähnlich die Stellenausschreibungen auf den Philippinen. Doch wie wird die fehlende Praxis aufgefangen?

Autoren: Karoline Nuckel, Bernd Skischally

Den vollständigen Artikel lesen Sie in der August-Ausgabe des ARTE Magazins!

Im Schatten der Netzwelt – The Cleaners

Dokumentarfilm, Dienstag, 28.8 | 21.50 Uhr

Online verfügbar bis zum 3. September auf arte.tv

Kategorien: August 2018