Alors c'est parti. Admettons que je commence ma "veille" de modération : dans un onglet, j'ai le hashtag #Fediblock pour voir quels sont les nouveaux messages. Je fav ceux traités pour que je puisse repérer où je m'étais arrêté.
J'ai tendance à suivre le même mode opératoire, et selon ce que je trouve, je ne vais pas forcément au bout de l'enquête.
1/ Je lis le message
Pour voir ce qui est reproché, s'il y a des exemples concrets (liens vers des toots ou captures d'écran).
Parfois, le #Fediblock est écrit par quelqu'un qui dit "les blocklists c'est nul ! Bloquez moi si vous êtes un rageux !". Dans ces cas là j'enquête plutôt sur la personne qui a écrit le toot. A priori, je vais au moins la silencier, pour ne pas qu'elle continue de me polluer le #Fediblock plus tard. Parfois c'est révélateur d'une instance bien perrav' derrière.
Parfois, le nom de l'instance désignée est extrêmement explicite. Exemple : "retard.tech" ("retard" est une insulte en anglais qu'on pourrait traduire par "attardé mental"). Les instances qui parlent de "shitpost" dans leur nom sont souvent aussi giga toxiques.
2/ Je vérifie si je n'ai pas déjà bloqué l'instance
Ca peut faire sourire, mais il se trouve que j'ai bloqué des centaines d'instance, et je ne me souviens pas de toutes. Quand j'oublie cette étape de vérification, je peux me retrouver à passer 5 minutes à zyeuter l'instance pour conclure "oui, je vais la bloquer", et... me rendre compte que c'était déjà le cas. Bravo, moi du passé.
3/ Je vais voir l'instance, et sa page "à propos"
Ce que je regarde, c'est :
Quel logiciel est utilisé ?
Ce choix n'est pas toujours un red flag en soi, mais je suis plusse méfiant s'il s'agit d'un serveur Soapbox (logiciel développé par un mec revendiqué d'extrême droite) ou Pleroma (logiciel développé par des ados edgy et plus fréquemment utilisé par des connards). En général, j'arrive à reconnaitre le logiciel utilisé à son interface, mais ça suppose d'être déjà au courant de ce qui existe, et de se tenir informé·e de ce qui existe (et de qui travaille dessus).
Est-ce qu'il y a des règles ?
Est-ce qu'elles interdisent les discours haineux ?
Exemple de red flags récurrents :
- "What won't get your banned : hurting someone's feelings" (traduction : "on ne va pas vous bannir si vous êtes méchant·e")
- "Be excellent to each other" (je sais pas pourquoi, mais ça arrive souvent que cette phrase exacte soit l'unique règle sur les instances non-modérées)
Est-ce qu'il y a une bulle d'instances ?
Si l'instance en question utilise Pleroma, parfois elle peut choisir d'afficher les toots locaux d'autres instances-soeurs dans sa TL locale. Si les instances-soeurs choisies sont des serveurs que je bloque déjà, c'est mauvais signe.
4/ Je vais regarder la timeline (locale et/ou globale)
Mon but ici est de voir si cette instance est à l'origine de messages haineux, ou interagit avec des instances craignos. Parfois, une instance se présente comme "généraliste", elle a des règles un peu classiques, aucun red flag jusqu'ici, et quand je vais voir la timeline globale c'est... festival de contenu d'extrême-droite.
Un avantage de MissKey, c'est qu'il arrive que les instances les plusse fédérées soient affichées en bas de la page d'accueil. Ca me fait gagner du temps (encore une fois, voir des instances craignos mises en avant = red flag).
Pourquoi bloquer une instance "juste" parce qu'elle fédère avec d'autres instances craignos ?
Après tout, ce n'est pas elle qui écrit des toots violents, non ? C'est pas sa faute si ces toots arrivent dans sa timeline.
Le truc, c'est que si, c'est un peu de sa faute. Si ces toots arrivent dans sa timeline, ça veut dire qu'au moins un·e utilisateur·ice de cette instance suit quelqu'un qui écrit ou partage ces toots. Donc quelqu'un sur cette instance, voit arriver ce contenu haineux / négationniste / conspirationniste, et se dit "Hmm, c'est ok."
En gros, ne pas bloquer les instances nazies permet à leurs messages d'arriver jusqu'ici. Mais s'ils arrivent, c'est aussi et surtout parce que quelqu'un est demandeur de ces messages.
Par ailleurs, cette "porte ouverte" avec des instances d'extrême-droite peut leur donner accès à des messages relayés provenant d'instances qui les avaient pourtant bloquées, comme des demandes d'assistances de personnes mises à la rue, victimes de racisme ou de transphobie. Sur mon instance, j'ai activé une optione pour "refuser" aux instances bloquées le droit de recevoir nos messages, mais je préfère fermer le plus de portes possibles entre elles et moi.
Donc oui, je bloque beaucoup d'instances en indiquant comme raison "fédère avec trop d'instances déjà bloquées". Et pour moi c'est une raison suffisante.
5/ Je vais regarder l'activité du compte admin
Ca c'est plus rare que je le fasse, ça peut arriver par acquis de conscience, si je n'ai pas trouvé grand chose aux étapes précédentes.
Ca veut dire que tu bloquerais toute une instance si c'est juste l'admin qui est problématique ?
Si l'admin est problématique, je ne peux pas lui faire confiance pour modérer son instance. Si l'admin est raciste, iel ne verra pas de problème avec des propos racistes tenus par ses utilisateur·ices. De même s'il s'agit d'un admin homophobe, transphobe, conspirationniste... Donc, oui.
6/ Je prends ma décision et je documente
Quand je silencie ou bloque une instance, je peux ajouter une raison "publique", c'est à dire qu'elle sera consultable par mes utilisateur·ices, ainsi qu'une raison "privée", consultable uniquement par l'équipe de modération. Souvent ça va donner :
- Raison publique : une explication courte. Ex : "harcèlement", "absence de modération", "racisme"
- Raison privée : un résumé avec mes mots, ou bien un lien vers un message Fediblock
Le problème, c'est qu'après un certain temps (et mon instance tourne depuis plus de 5 ans), il est possible que mon résumé fasse référence à des évènements que j'ai oubliés. Ou bien que le lien vers un message explicatif ne marche plu. Donc j'essaye de plusse en plusse de documenter de mon coté, sur un support moins "volatile" que des instances auto-hébergées d'un réseau social qui peuvent fermer, ou même juste supprimer leurs messages à intervalle régulier.
Pour l'instant j'utilise un serveur Nextcloud, avec un dossier partagé pour notre équipe de modération. J'ai un dossier par nom d'instance, dans lequel il y aura un document texte avec un résumé et une liste de liens (pour pouvoir attester de leur authenticité), et des captures d'écran pour pouvoir consulter les propos tenus même s'ils sont supprimés.
Une note sur les captures d'écran : Quand j'étais arrivé sur le Fédi, j'avais lu plusieurs propos qui m'avaient convaincu de leur caractère néfaste. On m'a expliqué le droit à l'oubli, le fait que ça puisse être utilisé pour entretenir le harcèlement envers une personne même si elle a changé depuis, etc. Donc au début, je ne prenais aucune capture d'écran. Cinq ans après, je le regrette. Je crois toujours au droit à l'oubli, donc je ne les rend pas publics, mais je trouve important de pouvoir garder une trace de ce qui a été dit, tout en se disant que cette trace n'a pas de raison d'être rendue publique si la personne n'a pas re-dit de la merde depuis.
To be continued
Dans le prochain article, je vais avoir envie d'aborder la spécificité du harcèlement raciste sur Mastodon, qui est un angle mort pour beaucoup d'équipes de modération. Je ne prétends pas avoir toutes les réponses pour se corriger (et c'est toujours mieux d'écouter les concerné·es !), mais je peux au moins vous partager mes conclusions à force d'en entendre parler.