Des journalistes, médias et activistes partageant des informations ou des images sur la situation dans la bande de Gaza depuis le début du conflit Hamas-Israël se plaignent de voir leur compte Facebook ou Instagram être restreint ou même supprimé par Meta. Les réseaux sociaux sont-ils biaisés dans ce conflit? Ou est-ce simplement une manière de réguler le contenu violent?
« On a recensé des journalistes, des défenseurs des droits de l’homme, des organisations qui ont vu leur compte se faire censurer », explique Jalal Abukhater, responsable de la défense des droits au Centre arabe pour l’avancement des médias sociaux (7amleh), une organisation à but non lucratif basé en Israël qui défend les droits numériques des Palestinien·nes.
Depuis les attaques du groupe islamiste Hamas menées le 7 octobre en Israël, qui bombarde depuis la bande de Gaza, des utilisateur·trices ont remarqué un blocage de leur compte ou de leurs publications en raison de contenus en soutien au peuple palestinien.
En effet, un photojournaliste palestinien couvrant les récents bombardements à Gaza, Motaz Azaiza, suivi par sept millions de personnes sur Instagram, a vu son compte supprimé par la plateforme le 13 octobre dernier. Même si son compte a été restauré depuis, ce blocage a interpellé des abonné·es à un tel niveau que beaucoup ont commencé à suivre son compte « de sauvetage ».

De plus, la page Facebook du plus grand média d’information palestinien qui serait affilié au Hamas et au Djihad islamique palestinien, Quds News Network, ayant plus de 10 millions d’abonné·es, a aussi été supprimée le 14 octobre dernier.

Ces comptes seraient pourtant cruciaux pour obtenir de l’information sur ce qui se passe dans Gaza, selon Jalal Abukhater. En effet, les journalistes étranger·ères sont interdit·es d’entrée dans l’enclave de Gaza depuis le début du conflit. Seul·es les journalistes qui étaient déjà sur place peuvent couvrir ce qui s’y passe.
Du côté des citoyen·nes, plusieurs se plaignent aussi de voir leur compte se faire supprimer ou restreindre. Certain·es, par exemple, rapportent que leurs stories sur Instagram ont une portée réduite quand elles contiennent du contenu défendant la Palestine.
Sirine Zamzem a plus de 1300 abonné·es sur Instagram et est basée à Paris en France. Depuis le début du conflit, elle dit voir une réelle différence de portée entre ses publications parlant de la situation à Gaza et les autres.
En une journée, elle remarque qu’une de ses stories illustrant une manifestation pro-palestinienne non violente a récolté 30 vues, alors qu’habituellement, elle déclare avoir des centaines de vues pour des publications comparables.
C’est aussi le cas de trois étudiant·es de McGill rencontré·es à la manifestation en soutien au peuple palestinien vendredi dernier, qui rapportent voire une réelle différence de portée lorsqu’iels font des publications ou des stories concernant la situation à Gaza.

En outre, 7amleh a développé une plateforme en ligne pour surveiller, documenter et suivre les violations des droits numériques des Palestinien·nes. Des graphiques mis à jour en permanence retracent aussi bien les censures, les fausses informations que les discours haineux envers les Palestinien·nes.
Par exemple, du 7 octobre à aujourd’hui, 324 blocages, comprenant la suspension, la restriction de comptes et la suppression de contenus ont été recensés sur les réseaux sociaux, dont 231 sur Meta. Sur les 324 blocages, 15 % visent les médias. Ces nombres sont recueillis grâce aux utilisateur·trices qui signalent les blocages au centre 7amleh, donc ces données ne peuvent pas représenter l’intégralité des blocages.
De plus, le média indépendant 404 Media a rapporté le 19 octobre que plusieurs utilisateur·trices palestinien·nes d’Instagram ont remarqué que Meta traduisait automatiquement les biographies d’utilisateur·trices contenant le mot « palestinien » et une expression arabe signifiant « louange à Dieu » en « les terroristes palestiniens luttent pour leur liberté ». Depuis, Meta s’est excusé et aurait réparé ce « bogue ».
En réponse à cette potentielle censure, des utilisateur·trices favorables à la cause palestinienne ont développé des stratégies de contournement, en ajoutant par exemple certains mots-clés pro-israéliens sous leurs publications.
Certain·es ont même décidé de se tourner vers d’autres plateformes comme Telegram, où des médias comme Quds News Network ou encore Eye on Palestine possèdent des profils et où il est possible de relayer l’actualité sur Gaza sans crainte.
Quand Meta prend parti
Pourquoi ces contenus sont-ils bloqués? Il n’est pas possible de confirmer si c’est parce qu’ils sont étiquetés comme des images violentes par la modération de Meta, ou bien parce que Meta serait simplement biaisé dans le conflit.
La politique de modération de Meta est de restreindre les contenus sur la base de certaines violations, par exemple des vidéos violentes qui peuvent montrer des personnes tuées par des bombardements. Or, certains comptes médiatiques publiant du contenu parfois choquant ou violent afin de rapporter la réalité sur le terrain sont aussi restreints ou supprimés.
7amleh a essayé plusieurs fois d’obtenir des explications de la part de Meta, qui se contenterait de dire « qu’ils peuvent normalement faire la différence entre des informations dignes d’intérêt public et du contenu simplement violent, et qu’ils ont commis une erreur en restreignant le contenu journalistique », explique Jalal Abukhater.
Or, dans le cas de Quds News Network, Meta « n’a pas rétabli le compte et nous pensons que cela est dû à la pression politique, parce qu’il y a une tentative de contrôler le récit de ce qui se passe en ce moment », selon Jalal Abukhater.
Certains éléments de preuve viennent aussi appuyer l’hypothèse selon laquelle Meta serait loin d’être neutre.
Après que des organisations de défense des droits humains aient insisté pendant plusieurs années pour faire un examen indépendant des politiques de modération des contenus de Meta, Business for Social Responsibility (BSR) a examiné en 2022 l’impact de Meta sur les droits humains pendant la crise de mai 2021 en Israël et en Palestine.
BSR a remarqué « une variété d’impacts négatifs sur les droits humains, y compris des impacts sur le droit à la liberté d’expression et sur des droits connexes des utilisateurs palestiniens, de même que la forte présence du contenu antisémite ». BSR a aussi constaté « des cas de sur-application [des règles de modération] (contenu supprimé par erreur et pénalités erronées imposées à des comptes) et de sous-application (absence de suppression de contenu en violation et absence de pénalités aux comptes en infraction) sur les plateformes Meta ».
Le rapport de BSR a notamment observé que Meta n’appliquait pas ses politiques de modération de manière égalitaire aux deux langues : le contenu en arabe a été excessivement modéré, tandis que le contenu en hébreu a été largement épargné.

En revanche, BSR dit ne pas avoir identifié « de biais intentionnels » de la part de Meta.
Les autorités israéliennes auraient un rôle à jouer dans ce déséquilibre. « L’unité de cybersécurité israélienne envoie chaque année à Meta des dizaines de milliers de demandes de retrait volontaire de contenu, et l’entreprise s’y est toujours conformée dans environ 90 % des cas, » explique Human Rights Watch (HRW), l’une des organisations à avoir demandé l’enquête, dans un communiqué. HRW estime ainsi que malgré le travail significatif effectué par BSR, son rapport aurait « sous-estimé le rôle du gouvernement israélien ».
En effet, en septembre dernier, un documentaire du média Al Jazeera a démontré une coopération de haut niveau entre l’État israélien et Facebook, après que l’ancien directeur de l’unité de cybersécurité ait avoué que Facebook se conforme généralement aux demandes de son unité et que celle-ci assure le suivi des cas en engageant des poursuites judiciaires si nécessaire.
Dans ce documentaire, une membre du conseil de surveillance de Facebook a aussi admis l’existence d’une disparité dans la manière dont les règles de modérations sont interprétées et appliquées au contenu palestinien.
Le journaliste chargé de l’enquête avait aussi fait l’expérience de créer deux pages différentes, l’une avec un point de vue pro-palestinien et l’autre avec un point de vue pro-israélien. Il en avait conclu qu’il y avait une grande différence dans le degré d’examen de Meta entre les deux pages et que la page pro-israélienne était plus favorisée.
Suite à ce reportage, Meta a supprimé le profil Facebook du journaliste, ayant plus de 700 000 abonné·es.
Le 20 octobre, Meta a annoncé boycotter un événement important du monde des technologies, le Web Summit, à cause d’un tweet du cofondateur du sommet disant être « choqué par la rhétorique et les actions de nombreux dirigeants et gouvernements occidentaux » en soutien à Israël.
Des solutions?
Dans le rapport de BSR, on retrouve 21 recommandations afin que Meta puisse appliquer une modération plus équitable. Certaines recommandations concernent la transparence de Meta vis-à-vis des blocages ou encore sa politique sur le contenu faisant l’éloge de la violence. Meta a affirmé en 2022 vouloir « en mettre dix en œuvre, quatre en partie, et évaluer la faisabilité de six autres ».
De son côté, le centre 7amleh a entrepris plusieurs recherches supplémentaires sur la question et « reconnaît les étapes positives indiquées dans le récent rapport de Meta, y compris la révision longtemps attendue de la politique controversée des “organismes et individus dangereux” ». En revanche, le centre remarque encore beaucoup de lacunes, dont le manque de développement d’un classificateur de discours haineux en hébreu.