Une enquête menée par +972 Magazine révèle l’existence d’un système d’intelligence artificielle israélien nommé « Lavender », chargé de désigner des cibles humaines à Gaza. Depuis le début de la guerre dans la région, ce système a identifié 37 000 cibles à éliminer. Focus.
Une enquête du magazine en ligne +972, relayée par le Guardian, révèle l’existence d’un programme d’intelligence artificielle nommé « Lavender » développé par l’armée israélienne.
Ce programme aurait été utilisé aveuglément pour sélectionner des cibles à abattre à Gaza sans discernement humain. Le système aurait ainsi choisi 37 000 cibles humaines depuis le début de la guerre à Gaza entrainant la mort de nombreux civils.
Une « kill list » établit par une intelligence artificielle
Déjà mentionné précédemment, un autre système d’intelligence artificielle nommé « The Gospel » est aussi abondamment utilisé par l’armée israélienne. Alors que « The Gospel » identifie les bâtiments à frapper, « Lavender » est chargé de trier et d’identifier les personnes considérées comme des militants ou combattants palestiniens à éliminer.
Ce processus automatisé a conduit à la désignation de 37 000 individus comme cibles légitimes dans la population de Gaza, formant ainsi une « kill list », une liste des personnes à abattre. Selon une source citée par le journaliste Yuval Abraham, cette méthode a permis de cibler et de bombarder plusieurs milliers de personnes :
« Nous avons tué des milliers de personnes. Nous ne l’avons pas fait une par une – nous avons tout entré dans un système automatique, et à partir du moment où l’une des personnes ciblées était à la maison, il devenait immédiatement une cible. On le bombardait lui et sa maison »
Un système destructeur pour les vies humaines
Selon +972 Magazine, ce système de ciblage automatisé été surnommé « Where’s Daddy ? » (« Où est papa ? ») par ceux qui l’ont utilisé. Comme le montre le nombre colossal de morts à Gaza (plus de 35 000 à ce jour), un tel système ne peut qu’être que destructeur pour les vies humaines, autant pour les militants palestiniens que pour les civils qui se tiennent à leurs côtés.
Au début de l’utilisation de « Lavender », Israël aurait considéré comme « acceptable » la mort de 15 à 20 civils pour chaque cible identifiée par le système. Pour le cas de militants de haut rang, ce chiffre pouvait monter à 100. L’armée israélienne s’est ainsi retrouvé avec des dizaines de milliers de cibles considérées comme « légitimes ».
Cette révélation ne fait que confirmer les craintes que de tels systèmes, sans aucune intervention humaine ni éthique morale, se généralisent sur les terrains de conflits militaires entre des Etats.
A lire aussi :