22 octobre 2023 - Des Palestiniens tentent de dégager des décombres les victimes d'une frappe israélienne sur un groupe d'immeubles d'habitation. Les destructions infligées par l'Etat colonial israélien à la population palestinienne, défient l'entendement... - Photo : Mohammed Zaanoun / Activestills
Par Democracy Now
Les publications israéliennes +972 et Local Call ont révélé comment l’armée israélienne a utilisé un programme d’intelligence artificielle appelé « Lavender » pour établir une « liste noire » à Gaza, comprenant jusqu’à 37 000 Palestiniens visés par des assassinats, avec un contrôle humain quasi inexistant.
Un deuxième système d’IA, baptisé « Where’s Daddy ? », permet de suivre les Palestiniens figurant sur la liste des personnes à abattre et a été spécialement conçu pour aider Israël à cibler ces individus lorsqu’ils se trouvaient chez eux, la nuit, en compagnie de leur famille.
Ces systèmes de ciblage, combinés à une politique de bombardement « extrêmement permissive » au sein de l’armée israélienne, ont conduit à « l’extermination de familles palestiniennes entières à l’intérieur de leurs maisons », explique Yuval Abraham, un journaliste israélien qui a révélé l’affaire après s’être entretenu avec des membres de l’armée israélienne « choqués d’avoir commis des atrocités ».
Abraham avait déjà dénoncé le fait qu’Israël utilisait un système d’IA appelé « The Gospel » pour détruire intentionnellement des infrastructures civiles à Gaza, notamment des complexes d’appartements, des universités et des banques, dans le but d’exercer une « pression civile » sur le Hamas.
Ces systèmes militaires d’intelligence artificielle constituent « un danger pour l’humanité », affirme Abraham. « La guerre basée sur l’IA permet aux gens d’échapper à toute responsabilité. »
AMY GOODMAN :
Les publications israéliennes +972 Magazine et Local Call ont révélé comment l’armée israélienne a utilisé une intelligence artificielle baptisée « Lavender » pour établir une « liste noire » à Gaza comprenant jusqu’à 37 000 Palestiniens visés pour être assassinés, avec un contrôle humain quasi inexistant.
Le rapport s’appuie en partie sur des entretiens avec six agents des services de renseignement israéliens qui ont été directement impliqués dans le système d’IA.
+972 rapporte, je cite : « Lavender a joué un rôle central dans les bombardements sans précédent contre les Palestiniens, en particulier au début de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle que celles-ci traitaient essentiellement les résultats de l’IA « comme s’il s’agissait d’une décision humaine ».
Un deuxième système d’IA, connu sous le nom de « Where’s Daddy ? », traquait les hommes palestiniens figurant sur la liste des personnes à abattre. Il a été spécialement conçu pour aider Israël à cibler des individus lorsqu’ils se trouvaient chez eux la nuit, en famille. Un officier du renseignement a déclaré aux publications : « Nous ne cherchions pas à tuer des agents uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou qu’ils menaient une activité militaire. Au contraire, l’armée israélienne les bombardait chez eux sans hésitation, en tant que première option. Il est beaucoup plus facile de bombarder le domicile d’une famille. Le système est conçu pour les repérer dans ces situations », a-t-il déclaré.
Aujourd’hui, nous passons une heure avec le journaliste d’investigation israélien Yuval Abraham, qui a révélé cette affaire pour +972 et Local Call. Elle est intitulée « ‘Lavender’ : le système d’IA qui dirige la vague de bombardements israéliens à Gaza ».
J’ai parlé avec Yuval Abraham hier et j’ai commencé par lui demander de nous exposer ce qu’il avait découvert.
YUVAL ABRAHAM : Oui. Merci de m’accueillir à nouveau, Amy.
C’est un article très long. Il compte 8000 mots. Nous l’avons divisé en six étapes distinctes. Chaque étape correspond à une étape du processus hautement automatisé utilisé par l’armée depuis octobre pour marquer ses cibles. Et la première conclusion concerne Lavender.
Lavender a donc été conçu par l’armée. Son objectif, lors de sa conception, était de repérer les membres de rang inférieur des branches militaires du Hamas et du Jihad islamique. Telle était l’intention, car, comme vous le savez, Israël estime qu’il y a entre 30 000 et 40 000 membres du Hamas, ce qui représente un nombre très, très important. Et ils ont compris que la seule façon pour eux de repérer ces personnes était de s’appuyer sur l’intelligence artificielle. C’était l’intention.
Or, d’après ce que m’ont dit mes sources, après le 7 octobre, l’armée a en gros pris la décision que toutes ces dizaines de milliers de personnes étaient désormais susceptibles d’être bombardées chez elles, ce qui signifie non seulement les tuer, mais aussi tous ceux qui se trouvent dans le bâtiment — les enfants, les familles.
Et ils ont compris que pour tenter de faire cela, ils allaient devoir s’appuyer sur cette machine d’IA appelée Lavender avec une supervision humaine très minimale. Je veux dire, une source a déclaré qu’il avait l’impression de ne servir que de tampon pour entériner les décisions de la machine.
Or, ce que fait Lavender, c’est qu’elle analyse les informations concernant probablement 90 % de la population de Gaza. On parle donc, vous savez, d’un sous-ensemble de plus d’un million de personnes. Et elle attribue à chaque individu une note comprise entre 1 et 100, une note qui exprime la probabilité, selon la machine, sur la base d’une liste de petits critères — nous y reviendrons plus tard —, que cet individu soit membre des branches militaires du Hamas ou du Jihad islamique.
Des sources m’ont dit que l’armée le savait, car elle avait vérifié — elle avait prélevé un échantillon aléatoire et vérifié un par un — l’armée savait qu’environ 10 % des personnes que la machine désignait comme devant être tuées n’étaient pas des militants du Hamas.
Elles ne l’étaient pas — certaines d’entre elles avaient un lien ténu avec le Hamas. D’autres n’avaient absolument aucun lien avec le Hamas.
Je veux dire, une source a expliqué comment la machine identifiait des personnes qui avaient exactement le même nom et le même surnom qu’un membre du Hamas, ou des personnes qui avaient des profils de communication similaires. Il pouvait s’agir, par exemple, d’agents de la défense civile ou de policiers à Gaza.
Et ils ont, encore une fois, mis en place une supervision minimale de la machine. Une source a déclaré qu’il passait 20 secondes par cible avant d’autoriser le bombardement du militant présumé de bas rang du Hamas — qui aurait souvent pu être un civil —, tuant ces personnes à l’intérieur de leurs maisons.
Et je pense que cela, le recours à l’intelligence artificielle pour désigner ces cibles, et fondamentalement la manière meurtrière dont les officiers ont décrit leur utilisation de la machine, pourrait très bien expliquer en partie pourquoi, au cours des six premières semaines qui ont suivi le 7 octobre, l’une des principales caractéristiques des politiques mises en place a été l’extermination de familles palestiniennes entières dans leurs maisons.
Je veux dire, si l’on regarde les statistiques de l’ONU, plus de 50 % des victimes, soit plus de 6000 personnes à l’époque, provenaient d’un petit groupe de familles. C’est l’expression de la destruction de la cellule familiale. Et je pense que cette machine et la manière dont elle a été utilisée ont conduit à cela.
AMY GOODMAN : Vous évoquez le choix des cibles, notamment les cibles dites « de grande valeur », les commandants du Hamas, puis les combattants de rang inférieur. Et comme vous l’avez dit, pour beaucoup d’entre eux, ce n’était finalement ni l’un ni l’autre. Mais expliquez-nous quels bâtiments ont été pris pour cible et quelles bombes ont été utilisées pour les frapper.
YUVAL ABRAHAM : Oui, oui. C’est une bonne question. Donc, d’après ce que m’ont dit mes sources, au cours des premières semaines qui ont suivi le mois d’octobre, pour les militants de rang inférieur du Hamas, dont beaucoup avaient été repérés par Lavender – on peut donc parler de « militants présumés » repérés par le système –, il existait un seuil prédéterminé, ce qu’ils appellent le « degré de dommages collatéraux ».
Cela signifie que les services juridiques de l’armée chargés du droit international ont indiqué à ces agents du renseignement que pour chaque cible de rang inférieur repérée par Lavender, lors du bombardement de cette cible, ils étaient autorisés à tuer — une source a précisé que ce nombre pouvait aller jusqu’à 20 civils, encore une fois, pour tout membre du Hamas, quel que soit son rang, son importance ou son âge.
Une source a indiqué que des mineurs étaient également ciblés — pas en grand nombre, mais il a précisé que c’était une possibilité, qu’il n’y avait pas de limite d’âge.
Une autre source a indiqué que la limite était fixée à 15 civils pour les militants de rang inférieur. Les sources ont précisé que pour les hauts commandants du Hamas — c’est-à-dire, par exemple, les commandants de brigades, de divisions ou de bataillons —, les chiffres atteignaient, pour la première fois dans l’histoire de l’armée israélienne, plusieurs centaines, selon les sources.
Ainsi, par exemple, Ayman Nofal, qui était le commandant de la Brigade centrale du Hamas, une source ayant participé à la frappe contre cette personne a déclaré que l’armée avait autorisé la mort, en plus de cette personne, de 300 civils palestiniens.
Et nous avons discuté chez +972 et Local Call avec des Palestiniens qui ont été témoins de cette frappe, et ils parlent, vous savez, de quatre grands immeubles résidentiels bombardés ce jour-là, vous savez, des appartements entiers remplis de familles bombardés et tués.
Et cette source m’a dit que ce n’était pas, vous savez, une erreur, comme le nombre de civils, ces 300 civils, c’était connu à l’avance par l’armée israélienne. Des sources m’ont décrit cela, et elles ont dit que — enfin, une source a dit que pendant ces premières semaines, en réalité, le principe de proportionnalité, comme on l’appelle en droit international, je cite, « n’existait pas ».
AMY GOODMAN : Il y a donc deux programmes : « Lavender » et « Where’s Daddy ? ». Comment ont-ils pu savoir où se trouvaient ces hommes, qu’ils soient des combattants ou non ?
YUVAL ABRAHAM : Oui, en fait, le système a été conçu selon un concept qui, en général, dans les systèmes de surveillance de masse, s’appelle le « linking ». Quand on veut automatiser ces systèmes, on veut pouvoir très rapidement — par exemple, on obtient l’identifiant d’une personne, et on veut qu’un ordinateur soit capable de relier très rapidement cet identifiant à d’autres informations.
Et d’après ce que m’ont dit des sources, comme tout le monde à Gaza a un domicile, une maison — ou du moins c’était le cas par le passé —, le système a été conçu pour pouvoir établir automatiquement des liens entre les individus et les maisons. Et dans la majorité des cas, ces foyers liés aux individus que Lavender identifie comme des militants de rang inférieur ne sont pas des lieux où se déroulent des opérations militaires actives, selon les sources.
Pourtant, la façon dont le système a été conçu, et des programmes comme « Where’s Daddy? », qui ont été conçus pour rechercher ces militants de bas niveau lorsqu’ils entrent dans des maisons — plus précisément, il envoie une alerte aux agents du renseignement lorsque ces suspects marqués par l’IA entrent chez eux.
Le système a été conçu de manière à permettre à l’armée israélienne de mener des frappes massives contre des Palestiniens, parfois des militants, parfois des militants présumés, que nous ne connaissons pas, lorsqu’ils se trouvaient dans ces espaces, dans ces maisons.
Et les sources ont déclaré — vous savez, CNN a rapporté en décembre que 45 % des munitions, selon les évaluations des services de renseignement américains, qu’Israël a larguées sur Gaza étaient des munitions non guidées, des « bombes bêtes », qui causent, vous le savez, davantage de dégâts aux civils. Elles détruisent toute la structure.
Et les sources ont déclaré que pour ces agents de second rang du Hamas, ils n’utilisaient que des munitions non guidées, ce qui signifie qu’ils faisaient s’effondrer les maisons sur tous ceux qui s’y trouvaient.
Et quand on demande aux agents des services de renseignement pourquoi, l’une des explications qu’ils donnent est que ces personnes étaient, je cite, « sans importance ». Elles n’étaient pas assez importantes, d’un point de vue militaire, pour que l’armée israélienne, selon une source, gaspille des munitions coûteuses, c’est-à-dire des bombes guidées qui auraient pu détruire uniquement un étage particulier du bâtiment.
Et pour moi, cela m’a beaucoup frappé, car, vous savez, on largue une bombe sur une maison et on tue des familles entières, alors que la cible que l’on cherche à assassiner n’est pas considérée comme suffisamment importante pour, je cite, « gaspiller » une bombe coûteuse.
Et je pense que c’est un reflet très rare de la manière dont — vous savez, la manière dont l’armée israélienne évalue la valeur des vies palestiniennes par rapport au gain militaire escompté, ce qui est le principe de proportionnalité.
Et je pense qu’une chose qui ressortait très, très clairement de toutes les sources avec lesquelles j’ai parlé, c’est que, vous savez, c’était — ils ont dit que c’était psychologiquement choquant même pour eux, vous savez, comme si c’était — oui.
C’est donc la combinaison entre Lavender et Where’s Daddy ? Les listes de Lavender sont intégrées à Where’s Daddy ? Et ces systèmes suivent les suspects et attendent le moment où ils entrent dans des maisons, généralement des maisons familiales ou des foyers où aucune action militaire n’a lieu, selon plusieurs sources qui ont participé à cela et qui m’en ont parlé.
Et ces maisons sont bombardées à l’aide de missiles non guidés. C’était une caractéristique principale de la politique israélienne à Gaza, du moins pendant les premières semaines.
AMY GOODMAN : Vous écrivez qu’ils ont dit ne pas disposer d’autant de bombes « intelligentes ». Elles coûtaient plus cher, ils ne voulaient donc pas les gaspiller, alors ils ont utilisé les bombes « classiques » —
YUVAL ABRAHAM : Oui.
AMY GOODMAN : — qui font bien plus de victimes.
YUVAL ABRAHAM : Oui, exactement. Exactement, c’est ce qu’ils ont dit. Mais alors je me dis : si cette personne n’est pas assez importante pour que vous gaspilliez des munitions, mais que vous êtes prêt à tuer 15 civils, une famille ?
AMY GOODMAN : Yuval Abraham, je voudrais lire un extrait de la déclaration de l’armée israélienne, la déclaration de l’IDF, en réponse à votre reportage.
YUVAL ABRAHAM : Je vous en prie.
AMY GOODMAN : Ils affirment, je cite : « Le processus d’identification des cibles militaires au sein de l’armée israélienne (IDF) repose sur divers types d’outils et de méthodes, notamment des outils de gestion de l’information, qui sont utilisés pour aider les analystes du renseignement à collecter et à analyser de manière optimale les renseignements provenant de diverses sources. Contrairement à ce qui a été affirmé, l’armée israélienne n’a pas utilisé de système d’intelligence artificielle capable d’identifier des agents terroristes ou de prédire si une personne est un terroriste. Les systèmes d’information ne sont que des outils à la disposition des analystes dans le cadre du processus d’identification des cibles. »
Encore une fois, voici la réponse de l’armée israélienne, Yuval Abraham, à votre reportage. Quelle est votre réponse ?
YUVAL ABRAHAM : J’ai lu cette réponse à certaines sources, et elles ont affirmé qu’elles mentaient, que ce n’était pas vrai. Et j’ai été surpris qu’elles agissent ainsi — vous savez, d’habitude, elles ne sont pas si, disons, flagrantes lorsqu’elles affirment quelque chose de faux.
Je pense que cela peut très facilement être réfuté, car, vous savez, un haut responsable militaire israélien, le chef du centre d’IA de l’unité 8200, a donné une conférence publique l’année dernière, en 2023, à l’université de Tel Aviv — vous pouvez le vérifier sur Google, tous ceux qui nous écoutent — où il a parlé, je cite — je le cite dans cette conférence — « un système d’IA que l’armée israélienne a utilisé en 2021 pour retrouver des terroristes ».
C’est ce qu’il a dit. Donc, pour que cela soit consigné, pour avoir — j’ai les diapositives de la présentation montrant comment le système évalue les personnes — et ensuite recevoir un commentaire du porte-parole de l’armée israélienne disant : « Nous n’avons pas de système qui utilise l’IA pour… » Je ne sais vraiment pas quoi penser.
Je me suis presque dit : « Est-ce que je mets ça dans l’article ou pas ? » Parce que, vous savez, je sais… au final, je leur ai laissé de la place dans l’article pour faire ces affirmations, j’ai essayé d’être aussi neutre que possible dans ma manière de rendre compte. Mais, vraiment, je suis très, très confiant dans ces conclusions. Elles ont été vérifiées par de nombreuses sources avec lesquelles j’ai discuté.
Et je pense que les personnes qui liront l’enquête dans son intégralité, qui en liront les détails — le commandant de l’unité 8200 a écrit un livre en 2021, intitulé Human-Machine Teams: How Synergy Between AI and Human Beings Can Revolutionize the World. Et dans ce livre, il explique comment les armées devraient s’appuyer sur l’intelligence artificielle pour, je cite, « résoudre le problème du goulot d’étranglement humain » dans la création de nouvelles cibles et dans la prise de décision visant à approuver ces nouvelles cibles.
Et il a écrit dans ce livre, il a dit — et voici une autre citation de lui — que « quel que soit le nombre d’officiers du renseignement que vous chargez de produire des cibles pendant la guerre, ils ne seront toujours pas en mesure de produire suffisamment de cibles par jour ».
Et il donne dans ce livre des conseils sur la manière de construire ces systèmes d’IA. Maintenant, je tiens à souligner qu’il écrit très, très clairement dans son livre que ces systèmes ne sont pas censés remplacer le jugement humain. Il parle d’un apprentissage mutuel entre les humains et l’intelligence artificielle. Et il dit – et l’armée israélienne (IDF) maintient toujours cela – que ce sont les agents du renseignement qui examinent les résultats et prennent une décision.
D’après ce que j’ai entendu de nombreuses sources, après le 7 octobre, cela a cessé d’être le cas, du moins dans certaines parties de l’armée israélienne, où, encore une fois, Amy, comme je l’ai dit précédemment, on a dit aux sources que si elles vérifiaient que la cible était un homme, elles pouvaient accepter les recommandations de Lavender sans les examiner en détail, sans vérifier pourquoi la machine avait pris la décision qu’elle avait prise.
Et je pense, tu sais, en parlant avec des sources, juste pour décrire… beaucoup de ces sources, tu sais, ont été appelées sous les drapeaux après le 7 octobre. Beaucoup d’entre elles ont été choquées par les atrocités qui se sont produites le 7 octobre, leurs familles, leurs amis.
Certaines ne pensaient pas qu’elles seraient à nouveau appelées sous les drapeaux. Elles ont dit : « OK, on doit y aller maintenant. » Il y avait ce sentiment que — et peu à peu, lorsqu’ils ont réalisé ce qu’on leur demandait de faire, les choses dans lesquelles ils étaient impliqués, non — je ne dirais pas que les six sont tous comme ça, mais au moins certains d’entre eux se sont sentis, encore une fois, choqués de commettre des atrocités et d’être impliqués dans ces choses et de tuer des familles, et ils ont estimé que c’était injustifiable.
Et ils ont ressenti une responsabilité, je pense. Et j’ai ressenti cela aussi dans l’article précédent que j’ai écrit, « Une usine d’assassinats de masse », qui parlait d’une autre machine d’IA appelée The Gospel. Ils ont ressenti le besoin de partager cette information avec le monde, parce qu’ils avaient le sentiment que les gens ne comprenaient pas.
Vous savez, ils entendent le porte-parole de l’armée et tous ces discours que nous entendons depuis six mois, et cela ne reflète pas la réalité sur le terrain.
Et je crois vraiment, je crois vraiment — vous savez, une attaque se profile actuellement sur Rafah — que ces systèmes pourraient être utilisés là-bas à nouveau pour tuer des Palestiniens en masse, ces attaques. Cela met en danger les otages israéliens qui sont toujours détenus de manière injustifiée à Gaza et qui doivent être libérés. Il faut un cessez-le-feu. Cela ne peut pas continuer.
Et j’espère que cette enquête, qui expose les faits si clairement, aidera davantage de personnes à travers le monde à réclamer un cessez-le-feu, à exiger la libération des prisonniers, à mettre fin à l’occupation et à s’orienter vers une solution politique là-bas. Pour moi, il n’y a pas — il n’y a pas d’autre voie possible.
AMY GOODMAN : Je voulais savoir si l’armée américaine, si la technologie américaine, jouait un rôle dans l’IA israélienne, l’intelligence artificielle.
YUVAL ABRAHAM : Eh bien, je ne sais pas. Et il y a certaines informations que je ne peux pas tout à fait partager, disons, pour l’instant. Je mène l’enquête, en quelque sorte, pour savoir qui participe au développement de ces systèmes.
Ce que je peux vous dire, c’est que, d’après l’expérience des guerres de 2014 et de 2021, une fois les conflits terminés, ces systèmes sont vendus aux armées du monde entier. Et je pense que, indépendamment des résultats et des conséquences horribles de ces systèmes à Gaza, il y a là un réel danger pour l’humanité.
Par exemple, cette guerre basée sur l’IA permet aux gens d’échapper à toute responsabilité. Elle permet de générer des cibles, vraiment, à une échelle massive — vous savez, des milliers, 37 000 personnes marquées pour un assassinat potentiel. Et elle permet de faire cela tout en conservant une sorte d’apparence de respect du droit international, parce que vous avez une machine qui vous fournit un fichier de cibles avec, vous savez, le commandant ou, disons, la cible, les dommages collatéraux, mais cela perd tout son sens.
Je veux dire, prenez le principe de distinction en droit international. Quand vous concevez un système qui marque 37 000 personnes, et que vous vérifiez, et que vous savez que 10 % d’entre elles ne sont en réalité pas des militants — n’est-ce pas ? — qu’elles ont un lien ténu avec le Hamas ou qu’elles n’ont aucun lien du tout — et que vous autorisez quand même l’utilisation de ce système sans aucune supervision significative pendant des semaines, je veux dire, n’est-ce pas là une violation de ce principe ?
Quand on autorise à tuer, disons, jusqu’à 15 ou 20 civils pour des cibles que l’on considère, d’un point de vue militaire, comme pas particulièrement importantes, n’est-ce pas là une violation flagrante du principe de proportionnalité ?
Je ne sais pas, j’ai l’impression que le droit international est vraiment en crise en ce moment. Et je pense que ces systèmes basés sur l’IA aggravent encore cette crise. Ils vident tous ces termes de leur sens.
AMY GOODMAN : Je vais vous faire écouter un extrait d’une interview du porte-parole du Conseil de sécurité nationale, John Kirby, interrogé mardi sur le meurtre par Israël de sept travailleurs humanitaires dans trois voitures de la World Central Kitchen du chef Andrés. Voici Kirby.
NIALL STANAGE : Le fait de tirer un missile sur des personnes qui distribuent de la nourriture et de les tuer ne constitue-t-il pas une violation du droit international humanitaire ?
JOHN KIRBY : Eh bien, les Israéliens ont déjà admis qu’il s’agissait d’une erreur de leur part. Ils mènent une enquête. Ils iront au fond des choses. Ne prenons pas les devants. … Le Département d’État a mis en place une procédure. Et à ce jour, au moment où nous parlons, ils n’ont constaté aucun incident dans lequel les Israéliens auraient violé le droit international humanitaire.
AMY GOODMAN : Voilà donc ce qu’a déclaré John Kirby, le porte-parole en chef des États-Unis : selon lui, Israël n’a jamais enfreint le droit international depuis le 7 octobre. Je le rappelle, c’était en réponse à une question sur le meurtre de sept travailleurs humanitaires, un Palestinien et six travailleurs humanitaires internationaux. Pouvez-vous nous dire quelle a été votre réaction face à cette attaque, au cours de laquelle trois missiles distincts ont frappé les trois voitures, et ensuite à ce qu’a dit Kirby ?
YUVAL ABRAHAM : Oui. C’est assez choquant, à mon avis, je veux dire, ce qu’il a dit, vous savez, au vu des preuves qui existent. La première pensée qui m’est venue à l’esprit quand il a dit qu’Israël menait une enquête, c’est que je connais les statistiques — donc, si l’on prend les bombardements et la guerre de 2014 à Gaza, 512 enfants palestiniens ont été tués. Israël a dit qu’il mènerait une enquête. Il y a eu des centaines de plaintes pour crimes de guerre.
Mais l’armée israélienne n’a engagé des poursuites contre un soldat que dans un seul dossier, et c’était pour un vol d’environ 1000 shekels. Tout a été classé sans suite.
Ça se passe, tu vois, en 2018, 2019. Deux cent trente Palestiniens sont abattus à la frontière. Encore une fois, sur des dizaines de cas, un seul a donné lieu à des poursuites. Prétendre que, parce qu’Israël mène une enquête, cela signifie d’une manière ou d’une autre qu’ils vont au fond des choses et changent quelque chose, c’est tout simplement se moquer de notre intelligence, je pense.
La deuxième chose que je voudrais dire, c’est qu’il est vrai que l’État d’Israël s’est excusé pour cela. Mais si l’on examine réellement le bilan des personnes tuées autour des camions d’aide humanitaire, cela s’est produit à maintes reprises pour les Palestiniens.
Je veux dire, début mars, 112 Palestiniens ont été tués près d’un camion transportant de la farine. The Guardian a rapporté à l’époque que 14 cas de ce type s’étaient produits, notamment en février et en janvier.
Il est donc clair pour moi que l’armée israélienne présente ses excuses non pas à cause du crime, mais à cause de l’identité des personnes qui ont été tuées lors de ce crime. Et je pense que c’est vraiment de l’hypocrisie.
Et pour répondre à la question sur mes conclusions, je ne sais pas si l’intelligence artificielle a été impliquée dans cette frappe. Je ne veux pas dire quelque chose dont je ne suis pas sûr à 100 %. Mais ce que j’ai appris des agents des services de renseignement israéliens fait que je ne suis pas surpris que cette frappe ait eu lieu, car la politique de tir est totalement permissive.
Et on le voit. Je veux dire, nous voyons, vous savez, des civils non armés se faire bombarder à mort. Nous avons vu cette vidéo de quatre personnes qui marchaient et qui ont été tuées par une bombe.
Nous avons des médecins, vous savez, qui racontent comment, dans les hôpitaux, ils voient de jeunes enfants, par exemple, avec des impacts de balles, comme dans l’enquête du Guardian qui a interrogé neuf médecins à ce sujet. Donc, cette permissivité extrême ne me surprend pas.
AMY GOODMAN : Votre article ne parle pas des drones, mais, Yuval, pouvez-vous nous expliquer comment les systèmes d’IA interagissent avec les drones d’attaque sans pilote ?
YUVAL ABRAHAM : Oui, eh bien, vous savez, je l’ai déjà dit la dernière fois, Amy. Je ne peux pas tout dire, notamment parce que nous sommes en quelque sorte… nous devons toujours tenir compte de la censure militaire en Israël. En tant que journalistes israéliens, nous sommes très liés par cela.
Mais les systèmes interagissent. Et, vous savez, si quelqu’un est désigné pour être tué par Lavender, alors cette personne pourrait être tuée par un avion de combat, elle pourrait être tuée par un drone, et elle pourrait être tuée par un char au sol. Il existe en quelque sorte une politique de partage des renseignements entre différentes — oui, différentes unités et différents opérateurs d’armes.
Je ne serais pas surpris si — parce qu’Israël a dit, vous savez, qu’il y avait une cible, quelqu’un que nous soupçonnions. Bien sûr, les travailleurs humanitaires et… enfin, ils ont complètement rejeté ça.
Mais, je ne serais pas surpris si le signalement, tu vois, que le système israélien a reçu était en quelque sorte lié à un mécanisme automatisé défectueux qui, tu vois, surveille massivement la zone et a détecté quelque chose sans avoir, tu vois, le taux de précision le plus élevé.
Encore une fois, d’après ce que j’entends de mes sources, c’est l’ambiance qui règne. C’est le cas.
AMY GOODMAN : Le journaliste d’investigation Yuval Abraham nous parle de son dernier article publié dans +972 Magazine et Local Call, intitulé « ‘Lavender’ : l’IA qui dirige la vague de bombardements israéliens à Gaza ». Il s’adresse à nous depuis Jérusalem.
À notre retour, j’interrogerai Yuval sur un film qu’il a co-réalisé et qui a remporté le prix du meilleur documentaire à la Berlinale, le festival du film de Berlin en Allemagne. Dans son discours de remerciement, Yuval a déclaré qu’Israël était coupable d’apartheid. Il nous racontera ce qui s’est passé ensuite.
Auteur : Democracy Now
* Democracy Now! produit une émission d'information quotidienne, mondiale et indépendante, animée par les journalistes primés Amy Goodman et Juan González. Les reportages comprennent les dernières actualités et des interviews approfondies avec des personnes en première ligne des problèmes les plus urgents dans le monde. Sur Democracy Now!, vous entendrez une diversité de voix s'exprimer librement, offrant une perspective unique et parfois provocante sur les événements mondiaux.
5 avril 2024 – Democracy Now – Traduction : Chronique de Palestine

Soyez le premier à commenter