Angesichts der Masse an TikTok-Profilen, auf die wir stießen, legten wir ganz zu Beginn der Recherchen ein reporting-System in einer Excel-Tabelle an. Anhand dieser Tabelle konnten wir mehrere Elemente ausmachen, darunter:
- Ob das Konto dschihadistische oder rechtsextreme Inhalte verbreitete
- Ob das Konto nach einer bestimmten Zeitspanne gelöscht worden war
- Ob das Konto nur Auszüge aus Videospielen veröffentlichte oder Auszüge aus Videospielen und Memes oder Edits
- Ob im Konto ein Telegram-Link oder Links zu anderen Apps geteilt wurden
Um diese Informationsflut zu dokumentieren, mussten wir all diese Profile akribisch genau herunterladen, wobei wir in einem ersten Schritt die Startseite der Profile systematisch im HTML-Format abspeicherten, jedoch auch gewisse Beiträge, deren Kommentare oder Beschreibungen auf unser Interesse stießen. Schließlich kam eine spezifische API zum Einsatz, um die riesige Menge an veröffentlichten und erneut veröffentlichten Profilen, die wir fanden, in die Formate JPEG oder MP4 zu konvertieren. Diese langatmige Arbeit ermöglichte uns, dieses ganze Ökosystem und dessen zuweilen obskure Verzweigungen zu überblicken und zu dokumentieren.
Analyse der Sprache und der kulturellen Codes
Ein Großteil unserer Arbeit konzentrierte sich darauf, die Sprachcodes und Referenzen zu entschlüsseln, die diese nebulösen User verwendeten. Bezüge zum Dschihad sind eindeutiger, aufgegriffen werden hier Bilder des Islamischen Staats, dschihadistische Gesänge (Nachid) und eindeutige Diskurse gegen den Westen und dessen vermeintliche Dekadenz.
Die verschiedenen Ideologien innerhalb des Rechtsextremismus wie der Akzelerationismus, der Neonazismus, der Ökofaschismus etc. verwenden im Internet in schriftlichen Beiträgen sowie in Videos eine viel verschlüsseltere Sprache, die sich ständig verändert. Die Memes oder Edits bestehen oftmals aus einem Gewirr von mehr oder weniger ironischen Bezügen auf die Kultur von Internetforen wie 4chan, 8kun oder soyjak.party (Pepe der Frosch oder Wojak), denen eine verfälschte Popkultur beigemengt wird (die Mumins oder das Getränk Monster White), die ihrerseits mit älteren Referenzen vermischt wird (der Zahl 1488 etwa oder dem Fruchtsaft-Emoji, wenn von „Juden“ die Rede ist, wobei hier die Homophonie im Englischen von „Juice“ und „Jews“ herangezogen wird). In den USA gibt es ein Wörterbuch der Anti-Defamation League zu den online verwendeten Hate Symbols: https://www.adl.org/resources/hate-symbols/search. In Frankreich existiert ein Pendant, das sich jedoch mehr mit Symbolen befasst, die von rechtsextremen Gruppierungen verwendet werden: https://indextreme.fr/
Analyse von visuellen Inhalten und Inhalten in der Videospiel-Branche
Um nachvollziehen zu können, aus welchen Videospielen die Nachstellung von Terrorakten stammten, führten wir eine Rückwärtssuche nach Bildern durch, recherchierten auf zahlreichen Foren für mods, in denen kaum Moderation stattfindet, oder auf Telegram-Kanälen, die wir fanden, um die Originaldatei zurückzuverfolgen. Wir installierten dann unsererseits diese mods und testeten sie in den entsprechenden Spielen, wenn dies möglich war.
Um Vergleiche mit Videos von Massakern herzustellen, suchten und fanden wir diese Videos überall im Internet, und dies trotz der Bemühungen vonseiten der namhaften Plattformen, diese zu löschen. Um die Nebenwirkungen möglichst gering zu halten, vermieden wir es, die unerträglichsten Szenen mehrmals anzuschauen.
Für Vergleiche zwischen einer Nachstellung in Form eines Videospiels und dem realen Blutbad rückten wir für eine bessere Anschaulichkeit die Videos von Attentätern in den Fokus, in denen wiederum Codes aus Videospielen bei der Umsetzung in die Tat übernommen werden, also etwa die Egoperspektive. Dies ermöglicht weitaus eindeutigere Vergleiche, die belegen, wie viel Wert auf morbide Details in diesen Nachahmungen im Videospiel gelegt wird.
Infiltrierung von extremistischen Netzwerken auf Telegram
Um uns in Telegram-Gruppen einzuschleusen, legten wir ein Fake-Konto mit einer Prepaid-Nummer an. Aus Sicherheitsgründen verbargen wir diese Nummer und löschten unseren User-Namen.
Manche Telegram-Gruppen werden entweder von den Moderatoren-Teams der Plattform gelöscht oder von den Administratoren dieser Gruppen selbst, insbesondere, wenn sie befürchten, von Behörden infiltriert worden zu sein. Daher war es wichtig, die Telegram-Konversationen vollständig im HTML-Format zu exportieren sowie alle innerhalb dieser Gruppen ausgetauschten Medien (Bilder, Videos, Manifeste, Sticker, Schusswaffenhandbücher etc.) herunterzuladen.
Kartografie des Telegram-Netzwerks
Beinahe alle Telegram-Kanäle, in die wir uns eingeschleust haben, waren untereinander verbunden. Wir beschlossen daher, dieses Netzwerk zu kartografieren, wobei eine Verbindung zwischen zwei Kanälen einem der folgenden Kriterien entspricht:
- Erneute Veröffentlichung von Inhalten von einem Kanal zum anderen
- Explizite Zusammenarbeit (gemeinsame Erstellung von Memes oder Edits, Bemerkungen wie „mit… erstellt“)
- Wenn der Gründer eines Kanals Mitglied eines anderen Kanals war
- Verbreitung von Einladungslinks von einem Kanal zum anderen
Diese Kanäle bringen demnach hunderte Personen zusammen, die untereinander bestens vernetzt sind. Wir gaben unsere Ergebnisse dann in Gephi ein, ein Netzwerkanalyse-Tool, um die zentralen Knotenpunkte dieses Netzes zu identifizieren. Es stellte sich heraus, dass einer der einflussreichsten Kanäle dem jungen Niederländer gehört, den wir in der Reportage interviewen.
Recherchen zu extremistischen Spielen auf Roblox
Die ersten Roblox-Server, die Massaker nachstellten, wurden über geteilte Links auf Telegram oder in Kommentaren über Publikationen auf TikTok entdeckt. Wir fanden ebenfalls problematische Server, als wir direkt auf Roblox nach Schlüsselwörtern oder Codenamen suchten, auf die wir bei unseren Recherchen gestoßen waren.
Die Nachforschungen zu Roblox dauerten Dutzende Stunden, da sich manche Spiele hinter unverfänglichen Namen verbergen oder überaus schockierende Inhalte erst freigegeben werden, nachdem Fragebögen ausgefüllt werden, die direkt ins Spiel integriert sind. Wir wollten nachvollziehen, wie diese Spiele von anderen Benutzern gefunden werden können und kamen über das integrierte Chatsystem mit Spielern ins Gespräch, die auf dem Server gleichzeitig mit uns online waren. Wir konnten zwei Vorgehensweisen herausfiltern:
- Die Spieleentwickler veröffentlichen in großer Zahl Links zu ihrer „Kreation“ auf externen Plattformen wie Telegram, TikTok oder Discord, um schnell das größtmögliche Publikum zu erreichen, bevor eine Löschung durch Roblox erfolgt.
- Manche Konten, etwa das Konto von WS (der in der Reportage genannt wird), erhalten diese Spiele über private Nachrichten von den Entwicklern persönlich und fügen sie ihrer Favoritenliste hinzu, wobei sie auf diese Weise als Drehkreuz für den Vertrieb fungieren.
Im Konto von WS waren demnach mehrere Massaker-Nachstellungen gelikt worden, sowohl rassistisch motivierte wie in Christchurch, als auch solche mit homophobem Hintergrund wie in Orlando oder ohne erkennbare ideologische Motivation wie in Columbine.
Wir verfolgten die Spur dieser Spieleentwickler vor allem über Telegram und Discord zurück, bis wir einen gewissen „Rorshac“ identifizieren konnten, der vor Kurzem in einem Bericht der Anti-Defamation Leage ADL erwähnt wurde (hier: https://www.adl.org/resources/article/dark-side-roblox-active-shooter-studios-create-maps-based-real-life-mass ). Nachdem wir einen Kontakt herstellen konnten, führten wir ein ausführliches Interview mit ihm. Dank seiner Aussagen wurde uns klar, dass manche dieser Spieleentwicklungen nicht nur in extremistischen rechtsradikalen oder dschihadistischen Kreisen erfolgen, sondern auch in einer Online-Community, die eine Faszination für Massentötungen hegt: in der True Crime Community oder T.C.C.
Interview mit einem Entwickler von extremistischen Inhalten
Wir versuchten, diesen jungen Niederländer zu kontaktieren, der Spiele entwickelt sowie Memes und Edits erstellt, die rechtsextreme Terroristen glorifizieren. Nachdem wir als Journalisten sein Vertrauen gewonnen hatten, stimmte er einem Interview mit uns zu. Wir hatten seine Verbindungen zu Solomon Henderson bereits herausgestellt, dem Urheber der Schießerei an der Antioch High School in Nashville, bevor er uns dies im Gespräch bestätigte. Am Tag des Massakers hatte er in der Tat einen Post veröffentlicht, in dem er behauptete, ihn persönlich zu kennen, nachdem wir ihn unter falscher Identität danach gefragt hatten.
Untermauert wurde diese Information durch den Fakt, dass der TikTok-Account des jungen Niederländers nachweislich unter den Followern des Kontos von Solomon Henderson gelistet war, das inzwischen gelöscht ist. Beide Dokumente, die Henderson hinterließ, ein Manifest und ein Tagebuch, bestätigen ebenfalls seine Verbindungen in dieses Universum aus Internetforen, Memes, Edits und Hassbotschaften.
Analyse der Profile und des extremistischen Ökosystems
Auf den Telegram-Kanälen analysierten wir ebenfalls mithilfe spezieller Bots die Profile der aktivsten Mitglieder. Ebendiese Profile veröffentlichen sehr häufig unbeholfene Texte, damit sie jenseits jeden Verdachts sind, sollte ein Mitglied dieses Netzwerks zur Tat schreiten. Diese Mitglieder teilen ebenfalls vom Terrorgram-Netzwerk produzierte Propaganda wie Pseudo-Hagiografien von „Heiligen“ aus dem Kreis der Akzelerationisten, zu denen Anders Breivik, Brenton Tarrant oder Payton Gendron zählen. Dadurch dass das Netzwerk, das wir ausgemacht hatten, diese Propaganda wiederaufnahm, war es in gewisser Weise mit dem Terrorgram „verbunden“.
Quellen:
- Weitere Berichte des Institute for Strategic dialogue:
- Die verschiedenen Berichte des Global Network on Extremism and Technology:
- Zwei Artikel der Times zur Radikalisierung sehr junger Menschen über Online-Plattformen:
- Auch diese zwei Artikel des Guardian: