Une enquête dévoile les noms des organismes bannis par Facebook

Si la modération du contenu violent n’est pas condamnable en soi, il est inquiétant qu’une entreprise privée définisse seule le discours acceptable en ligne.

Le média américain The Intercept a publié une reproduction de la liste des « individus et organismes dangereux » utilisée par Facebook pour modérer les échanges sur sa plateforme. 

Dans sa politique de modération, Facebook indique interdire la diffusion de contenu émanant ou faisant la promotion des « individus et organismes dangereux ». « Nous supprimons les éloges, les soutiens techniques et les représentations de divers organismes dangereux » peut-on lire dans les détails de cette politique. En revanche, le réseau social ne dévoile pas les noms des groupes et individus censurés.

Cette liste de 100 pages est dévoilée dans l’article de The Intercept. Elle classe les entrées selon trois niveaux. Au niveau 1, on retrouve les catégories de « terrorisme », « haine organisée », « activité criminelle à grande échelle » et « tuerie et meurtres en série ». Au niveau 2, ce sont les « acteurs non étatiques violents ». Finalement, le niveau 3 regroupe les « mouvements sociaux militarisés », ce qui inclut à la fois les « milices » et les « groupes qui soutiennent des actes de violence au cours des manifestations ».

Sur cette liste on retrouve des entités présentes au Canada comme les Soldats d’Odin ou l’Aryan Guard, un groupe néonazi basé en Alberta.

Les restrictions, détaillées dans un document interne qui a été lui-aussi diffusé par The Intercept, sont plus sévères selon le classement. Les restrictions les plus sévères étant réservées pour les individus et les organismes du niveau 1.

Facebook assume les responsabilités d’un État

Pour Philippe de Grosbois, professeur de sociologie au collégial et auteur du livre Les batailles d’Internet. Assauts et résistances à l’ère du capitalisme numérique (Écosociété, 2018), si la modération du contenu violent est légitime, il est inquiétant de voir qu’une entreprise privée s’arroge le droit de prendre seule ce genre de décision.

« On peut célébrer que des groupes haineux soient retirés [de Facebook] et en même temps être préoccupés par le fait qu’une entreprise ait un pouvoir aussi grand », dit-il. 

Pour lui, décider des individus et des groupes à bannir, mais aussi des conditions qui mènent à la censure, sont des fonctions quasi régaliennes. «Je trouve ça quasiment comparable à un texte juridique,» souligne le sociologue en parlant des règles de modération, qui ont aussi été révélées par The Intercept

De plus, les décisions de modération prises par Facebook concernent parfois des enjeux géopolitiques, dans la mesure où certains groupes exclus sont intégrés dans des structures gouvernementales locales ou nationales.

Philippe de Grosbois constate également que l’entreprise « suit plus ou moins la politique étrangère états-unienne pour déterminer ce qui doit être banni de la façon la plus stricte. » En effet, plusieurs spécialistes cités dans l’article de The Intercept se questionnent sur le fait que les organismes classés « niveau 1 » proviennent du Moyen-Orient, alors que les milices armées de droite se retrouvent pour la plupart classées au « niveau 3 ».

« Ces décisions ne devraient pas relever de cette entreprise-là. »

Pour Philippe de Grosbois, « il faut garder comme horizon de diminuer les pouvoirs d’une entreprise comme Facebook. » Briser le monopole du réseau social, casser le secret autour des algorithmes, permettre l’émergence de médias sociaux communautaires… 

« On veut faire [de Facebook] un acteur plus responsable, mais au point où Facebook est rendu c’est espérer avoir un despote éclairé », ajoute-t-il.

Auteur·e

Ce site web utilise des cookies pour vous offrir une expérience utilisateur optimale. En continuant à utiliser ce site, vous acceptez l'utilisation de cookies conformément à notre politique de confidentialité.

Retour en haut