Au tout début de l’enquête, face à la masse de profils TikTok que nous trouvions, nous avons mis en place un système de reporting dans un tableau Excel. Ce tableau nous permettait d’identifier plusieurs éléments parmi lesquels :
- Si le compte était djihadiste ou d’extrême droite
- Si le compte avait été supprimé au bout d’un certain temps
- Si le compte publiait seulement des extraits de jeux vidéo ou des extraits de jeux vidéo et des mèmes ou des edits
- Si le compte renvoyait vers un lien Telegram ou vers d’autres applications
Pour documenter cette masse d’informations, nous avons dû minutieusement télécharger tous ces profils en procédant d’abord à une sauvegarde systématique en format HTML de la page d’accueil des profils mais aussi de certaines publications dont les commentaires ou la description nous intéressaient. Enfin, nous avons utilisé une API dédiée pour télécharger en masse toutes les publications et republications de chaque profil que nous identifions en format JPEG ou MP4. Cette opération fastidieuse nous a permis de comprendre et de documenter tout cet écosystème et ses références parfois obscures.
Analyse du langage et des codes culturels
Une grande partie de notre travail a consisté à décrypter le langage et les références utilisés par ces nébuleuses. Les références au Djihad sont plus évidentes, elles reprennent des images de l’État Islamique, des chants djihadistes (Nachid) et des discours clairs contre l’Occident et sa supposée décadence.
Les différentes idéologies d’extrême droite comme l’accélérationnisme, le néonazisme, l’écofascisme etc. utilisent, en ligne, un langage écrit et visuel beaucoup plus obscur et en perpétuelle évolution. Les mèmes ou les edits sont souvent composés d’un enchevêtrement composé de références, plus moins ironiques, à la culture des forums internet comme 4chan, 8kun ou soyjak.party (Pepe The Frog ou Wojak), mélangés à une culture pop détournée (les Moomins ou la boisson Monster White), elle-même mélangée à des références plus anciennes (le chiffre 1488 par exemple ou l’emoji Jus de fruit pour parler des “juifs” en utilisant l’homophonie anglaise entre “Juice” et “Jews). Il existe un dictionnaire des Hate Symbols utilisés en ligne de l’Anti-Defamation League aux US : https://www.adl.org/resources/hate-symbols/search . En France, il existe un équivalent mais qui s’intéresse plutôt aux symboles utilisés par les groupuscules d’extrême droite : https://indextreme.fr/
Analyse des contenus visuels et vidéoludiques
Pour comprendre de quels jeux vidéo provenaient les reproductions d’actes terroristes, nous avons effectué des recherches d’images inversées, nous avons enquêté sur de nombreux forums de mods très peu modérés ou sur les chaînes Telegram que nous trouvions afin d’identifier le fichier original. Nous avons ensuite installé nous-mêmes ces mods et les avons testés sur les jeux correspondants lorsque cela était possible.
Pour faire les comparaisons avec les vidéos des tueries, nous avons retrouvé ces vidéos publiées un peu partout sur internet malgré les efforts des grandes plateformes pour les supprimer. Pour limiter leur impact, nous avons évité de regarder les moments les plus insoutenables à plusieurs reprises.
Pour les comparaisons entre reproduction sous forme de jeux vidéo et tuerie, nous avons préféré sélectionner, dans un souci de clarté les vidéos de tueurs qui reprennent eux-mêmes les codes des jeux vidéo lors de leur passage à l’acte notamment la vue à la première personne. Les comparaisons sont ainsi beaucoup plus claires et montrent le souci du détail morbide de ces reproductions sous forme de jeu vidéo.
Infiltration de réseaux extrémistes sur Telegram
Pour infiltrer les groupes Telegram, nous avons créé un faux compte avec un numéro jetable. Dans un souci de sécurité, nous avons dissimulé ce numéro et nous avons effacé notre nom d’utilisateur. Certains groupes Telegram sont supprimés soit par les équipes de modération de la plateforme, soit par les administrateurs de ces groupes eux-mêmes, notamment lorsqu’ils craignent d’avoir été infiltrés par des autorités. Il était donc essentiel d’exporter l’intégralité des conversations Telegram au format HTML, ainsi que de sauvegarder tous les médias échangés au sein de ces groupes (images, vidéos, manifestes, stickers, manuels d’armement etc.)
Cartographie du réseau Telegram
Presque toutes les chaînes Telegram sur lesquelles nous nous sommes infiltrés étaient liées entre elles. Nous avons donc décidé de cartographier ce réseau, un lien entre deux chaînes correspond à l’un des critères suivants :
- Republication de contenu d’une chaîne sur une autre
- Collaboration explicite (cocréation de mèmes ou d’édits, mentions de type “fait avec…”)
- Si le fondateur d’une chaîne était membre d’une autre chaîne
- Diffusion de liens d’invitation d’une chaîne vers une autre
Ces chaînes réunissent donc des centaines d’individus très interconnectés. Nous avons ensuite intégré nos résultats dans Gephi, un logiciel d’analyse de réseau, pour identifier les nœuds centraux de ce réseau. L’une des chaînes les plus influentes s’est révélée être celle du jeune Néerlandais que nous interrogeons dans le reportage.
Enquête sur les jeux extrémistes sur Roblox
Les premiers serveurs Roblox reproduisant des tueries de masse ont été découverts via des liens partagés sur Telegram ou dans des commentaires de publications TikTok. Nous avons également trouvé des serveurs problématiques en recherchant, directement sur Roblox, des mots-clés ou des noms de code identifiés lors de notre enquête. L’enquête menée sur Roblox a nécessité des dizaines d’heures de recherche, certains jeux étant dissimulés sous des noms anodins ou n’offrant accès à leurs contenus les plus choquants qu’après avoir répondu à des questionnaires intégrés directement au jeu.
Pour comprendre comment ces jeux étaient découverts par les autres utilisateurs, nous engagions la conversation avec les joueurs présents sur les serveurs, en même temps que nous, via le système de chat intégré. Cela nous a permis d’identifier deux mécanismes :
- Les créateurs publient massivement les liens de leur “création” sur des plateformes externes comme Telegram, TikTok ou Discord pour atteindre rapidement le public le plus large possible avant suppression par Roblox.
- Certains comptes, comme celui de WS (cité dans l’enquête), reçoivent ces jeux des créateurs eux-mêmes par messages privés et les ajoutent à leur liste de jeux favoris, agissant ainsi comme des hubs de diffusion. Le compte WS avait ainsi mis en favori des reproductions de plusieurs tueries, qu’elles soient racistes comme Christchurch, homophobes comme Orlando, ou sans motivation idéologique connue comme Columbine.
Nous avons remonté la piste des créateurs de ces jeux, notamment via Telegram et Discord, jusqu’à identifier un certain « Rorshac », mentionné dans un rapport récent de l’ADL (ici : https://www.adl.org/resources/article/dark-side-roblox-active-shooter-studios-create-maps-based-real-life-mass ). Après avoir réussi à le contacter, nous l’avons longuement interrogé. Son témoignage nous a permis de comprendre que certaines de ces créations ne naissaient pas seulement dans des sphères extrémistes de droite ou djihadistes mais aussi dans une communauté en ligne fascinée par les tueries de masse : la True Crime Community, ou T.C.C.
Entretien avec un créateur de contenus extrémistes
L’individu que nous cherchions à contacter était ce jeune Néerlandais, créateur de jeux, de mèmes et d’edits glorifiant des terroristes d’extrême droite. Après avoir gagné sa confiance en tant que journaliste, il a accepté notre demande d’interview. Nous avions déjà établi son lien avec Solomon Henderson, auteur de la fusillade dans un lycée d’Antioch, à Nashville, avant même qu’il ne le confirme en entretien. En effet, le jour de l’attaque, il avait publié un message affirmant le connaître personnellement, en réponse à une question que nous lui avions posée sous une fausse identité.
Une information confirmée par le fait que le compte TikTok du jeune hollandais se retrouve bien dans les followers du compte, aujourd’hui supprimé, de Solomon Henderson. Les deux documents laissés par Henderson, un manifeste et un journal intime, confirment également son ancrage dans cet univers entre forums internets, mèmes, edits et discours haineux.
Analyse des profils et de l’écosystème extrémiste
Sur les chaînes Telegram, nous avons également analysé les profils des membres les plus actifs grâce à des bots dédiés. Ce sont ces profils qui publient le plus souvent les textes maladroits visant à se dédouaner en cas de passage à l’acte d’un des membres de ce réseau. Ces membres partagent également la propagande produite par le Terrorgram comme les pseudo-hagiographies des “saints” accélérationnistes parmi lesquels Anders Breivik, Brenton Tarrant ou Payton Gendron. En reprenant cette propagande, le réseau que nous avions identifié était donc « lié » d’une certaine façon au Terrorgram.
Sources :
- D’autres rapports de l’Institute for Strategic dialogue :
- Les différents rapports du Global Network on Extremism and Technology :
- Deux articles du Times sur la radicalisation des très jeunes via des plateformes en ligne :
- Deux articles également du Guardian :