🇮🇱 Les renseignements israéliens ont désigné leurs cibles à Gaza via l’IA : “La machine l’a fait froidement, et c’est plus facile”

🇮🇱 Les renseignements israéliens ont désigné leurs cibles à Gaza via l’IA : “La machine l’a fait froidement, et c’est plus facile”

Chaque nouvelle révolution technologique, chaque nouveau conflit, nous rapproche de l’usage d’armes réellement autonomes. Mais c’est un pas de plus qui fait froid dans le dos que rapporte The Guardian: les services de renseignement israéliens utilisent l’intelligence artificielle pour choisir les cibles des bombardements sur Gaza. Une manière de gagner du temps sans se poser trop de questions.

Selon le quotidien britannique, six officiers des renseignement militaires ont témoigné de leur usage d’un logiciel nommé Lavender, une base de données d’intelligence artificielle dont l’existence n’avait pas été révélée auparavant. Ce logiciel aurait permis de désigner 37.000 cibles potentielles sur la base de leurs liens apparents avec le Hamas. Avec une froideur toute mécanique, témoignent ses utilisateurs.

Plus fiable qu’un soldat

“De mémoire, c’est sans précédent” a lâché l’un d’entre eux, forcément anonyme, qui estime avoir plus confiance en un “mécanisme statistique” qu’en un soldat en deuil. “Tout le monde, y compris moi, a perdu des gens le 7 octobre. La machine l’a fait froidement. Et cela a rendu les choses plus faciles.”

Plus faciles, et plus rapide: un autre officier estime que le recours à l’IA pour décider de la pertinence d’une cible permettait de planifier un bombardement en une vingtaine de secondes seulement. Avec pour seul geste humain de valider la décision prise par une machine.

Pas de bombes coûteuses sur des personnes sans importance

Une manière de mener des frappes plus précises, et donc moins susceptibles de causer des “dommages collatéraux” ? Absolument pas, révèlent ces sources au Guardian. Celles-ci ont déclaré qu’au cours des premières semaines de la guerre, elles étaient autorisées à tuer 15 ou 20 civils lors de frappes aériennes sur “des militants de bas rang.” Face aux demandes insistantes de l’armée pour obtenir d’avantage de cibles susceptibles d’affaiblir le Hamas, les services de renseignement se seraient d’avantage reposées sur Lavender. De là à l’utiliser pour créer une base de données d’individus considérés comme ayant les caractéristiques des militants du Hamas ou des autres milices islamistes actives à Gaza, il n’y avait qu’un pas.

Lavender permettait aussi d’économiser les projectiles guidés plus précis, et donc plus précieux : “Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie de munitions” résume froidement une des sources du journal britannique. […] Grâce au système, les ciblages ne s’arrêtent jamais. Il y en a encore 36.000 qui attendent”. De quoi balayer les espoirs d’une retenue dans l’usage de la force.

“Règles de proportionnalité”

L’armée israélienne a depuis relativisé ces révélations, rappelant que ces opérations avaient été menées conformément aux “règles de proportionnalité prévues par le droit international.”

Dans un communiqué, elle présente Lavender comme un simple moyen de recouper l’information. “Les FDI (forces de défense israéliennes) n’utilisent pas de système d’intelligence artificielle qui identifie les agents terroristes ou qui tente de prédire si une personne est un terroriste. Les systèmes d’information ne sont que des outils pour les analystes dans le processus d’identification des cibles.”

7sur7