Sam Harper Journaliste aux balados · Pivot
Partager

Les algorithmes sont de plus en plus prisés par les armées, autant pour accroître et optimiser leurs frappes meurtrières que pour contrôler les mouvements des personnes. C’est le cas en Palestine, où l’armée israélienne se sert de l’intelligence artificielle pour prévoir le nombre de victimes civiles de ses bombardements ou pour compiler des données biométriques sur les habitant·es des territoires occupés.

Plus de 27 000 personnes ont été tuées à Gaza par l’armée israélienne depuis le 7 octobre, soit environ 1 % de la population. Le nombre de blessé·es dépasse 66 000. Près de la moitié des bâtiments résidentiels ont été détruits, selon une étude de la Banque mondiale.

L’intensité de ce massacre et de ces destructions est rendue possible grâce aux avancées d’une industrie en pleine expansion : l’intelligence artificielle militaire.

Les applications d’intelligence artificielle (IA), ces algorithmes permettant de digérer et d’analyser des données massives, révolutionnent plusieurs industries et celle de l’armement ne fait pas exception.

Ces dernières années ont vu l’évolution des « systèmes d’armes létales autonomes » (SALA), des armes capables de chercher, d’identifier et d’éliminer des ennemis sans implication humaine.

La guerre que livre actuellement Israël contre le territoire occupé de Gaza montre que ces technologies peuvent également servir comme outil pour améliorer l’approvisionnement et la logistique et aider les militaires à produire des cibles à un rythme sans précédent.

Une « usine d’assassinat de masse »

Ce sont les médias israéliens +972 et Local Call qui ont mis en lumière l’existence de ce qu’ils qualifient d’« usine d’assassinat de masse » utilisée en ce moment à Gaza.

Cette enquête révèle l’utilisation d’un système appelé « Habsora » (« l’Évangile », en hébreu) qui permet de générer des cibles pour les frappes militaires. Une grande partie de ces cibles sont des habitations résidentielles où habiteraient des membres suspectés du Hamas.

Ces cibles viennent avec une estimation du nombre de personnes civiles qui seront tuées. Les frappes sont acceptées ou refusées selon un nombre de « dommages collatéraux » jugé acceptable.

Les personnes citées dans l’article rapportent que ces exigences ont été grandement assouplies après l’attaque du Hamas du 7 octobre. Les membres des services du renseignement interrogés parlent de centaines de civil·es palestinien·es assassiné·es pour atteindre un membre du Hamas.

Ces cibles sont approuvées par du personnel humain avant l’attaque, mais selon une des sources interviewées par +972 et Local Call, « il n’y passera pas beaucoup de temps », car l’important c’est « la quantité, pas la qualité ».

Dans une entrevue accordée avant la guerre, l’ancien patron des forces armées israéliennes, Aviv Kochavi, rapportait l’existence d’un « service du ciblage » créé trois ans auparavant. Il s’agit d’une unité comprenant des centaines de personnes, utilisant les technologies d’intelligence artificielle pour « traiter de vastes quantités de données de manière plus rapide et plus efficace que n’importe quel humain, et les traduire en cibles concrètes ».

Ce système de ciblage, utilisé pour la première fois en 2021, pouvait générer une centaine de cibles par jour, selon Kochavi, alors qu’auparavant les services de renseignement de l’armée étaient en mesure d’en produire une cinquantaine par année.

Très peu de détails sont connus sur les composantes de ce système. Un article du Jerusalem Post rapportait que l’armée s’était d’abord appuyée sur ce qui existait déjà pour le marché civil et l’avait adapté pour un usage militaire. Ces algorithmes rassemblent des données provenant de multiples sources : satellites, drones, informateurs et autres.

Toujours selon le Jerusalem Post, ce sont des membres de l’Unité 8200, une unité de renseignement militaire spécialisée en cyberattaques, en décryptage de code et autres technologies, qui auraient développé « l’Évangile » et d’autres programmes similaires.

L’IA au service de l’apartheid

L’utilisation d’algorithmes ne se limite pas aux frappes militaires en cours à Gaza.

Amnistie internationale a publié un rapport, en mai 2023, sur « l’apartheid automatisé » et l’usage de la reconnaissance faciale pour le contrôle de la population palestinienne dans les territoires occupés.

Un système de reconnaissance faciale, appelé « Red Wolf », sert à surveiller le passage des Palestinien·nes à travers les postes de contrôle à Hébron, en Cisjordanie. Dans cette ville, les mouvements des 33 000 résident·es palestinien·nes du territoire H2, sous contrôle israélien, sont restreints à cause de la présence, illégale selon le droit international, de 850 colons israéliens.

De plus, Amnistie internationale explique que ce système est relié à une base de données contenant les informations de tous les Palestinien·nes de Cisjordanie. Cette base de données (baptisée « Wolf Pack ») est consultable par les militaires sur le terrain à l’aide d’une application mobile (« Blue Wolf ») dans ce que certains d’entre eux appellent le « Facebook des Palestinien·nes ».

Selon le rapport, « ce système incite le personnel militaire à prendre des photos d’autant de Palestinien·nes que possible, en vue de créer de nouvelles entrées de données biométriques concernant uniquement des Palestinien·nes, de compléter leurs profils et d’enrichir la base de données Wolf Pack ».

La vente d’armes « testées au combat »

« Legion-X AM-PM est un cadre distribué, testé au combat, pour le fonctionnement de systèmes autonomes qui permet la planification, l’exploitation et la gestion de plateformes robotiques et de charges utiles hétérogènes dans plusieurs domaines. »

C’est ce que l’on peut lire sur le site Web d’Elbit Systems, l’un des principaux fabricants d’armes israéliens, pour faire la promotion de Legion-X, un système de drones autonomes. Ces drones peuvent agir en groupe ou de façon individuelle.

Dans son livre The Palestine Laboratory (Le laboratoire palestinien), le journaliste Antony Lowenstein explique que l’État israélien et les entreprises d’armement privées se servent du fait que leurs produits sont « testés au combat » contre les Palestinien·nes pour en faire la promotion à l’étranger.

L’entreprise vend aussi un véhicule tout-terrain autonome qu’elle dit conçu pour le « combat urbain » et la « surveillance des frontières ». L’entreprise propose des solutions d’IA permettant de détecter la présence de personnes ou de véhicules proche de la frontière.

Sa technologie est d’ailleurs utilisée pour surveiller la frontière entre les États-Unis et le Mexique depuis 2006.

Un autre SALA mis au point par Elbit Systems est le drone de combat « Lanius ». Ce type d’appareil est parfois appelé un drone « suicide ». Ces appareils sont en mesure de se déplacer à l’intérieur de bâtiments, de cartographier les lieux et de chercher des cibles.

Elbit Systems fournit à Israël des drones, des munitions, des composantes pour l’aviation et les blindés. Ces produits sont en forte demande depuis le 7 octobre.

Dans un communiqué à ses actionnaires, l’entreprise affirmait avoir « remporté une série de contrats du ministère israélien de la Défense pour un montant global important pour la Société ». Elle rapporte avoir eu « une demande considérablement accrue pour ses solutions ».

Récents articles

Voir tous