Exploiter la « Kill chain » de Palantir pour bombarder massivement l’Iran

3 mars 2026 - Funérailles des enfants massacrés lors d'une frappe aérienne américaine à Minab, en Iran - Photo: Morteza Akhondi

Par Democracy Now

Alors que la guerre menée par les États-Unis et Israël contre l’Iran se poursuit, nous examinons comment le Pentagone utilise l’intelligence artificielle dans ses opérations.

Ce système, connu sous le nom de « Project Maven », s’appuie sur la technologie de Palantir et intègre également le modèle d’IA « Claude » développé par Anthropic. Israël a utilisé des programmes de ciblage par IA similaires en Iran, ainsi qu’à Gaza et au Liban.

Craig Jones, spécialiste de la guerre moderne, affirme que les technologies d’intelligence artificielle aident les armées à accélérer la « chaîne de destruction », c’est-à-dire le processus consistant à identifier, valider et frapper des cibles.

« On réduit ainsi une charge de travail humain colossale, qui représentait des dizaines de milliers d’heures, à quelques secondes ou minutes. On allège les processus opérationnels et on automatise les décisions de ciblage prises par l’homme, ce qui soulève toutes sortes de questions problématiques d’ordre juridique, éthique et politique », explique M. Jones.

AMY GOODMAN : Alors que la guerre menée par les États-Unis et Israël entre dans son 19e jour, nous allons maintenant nous pencher sur la manière dont les États-Unis utilisent l’intelligence artificielle pour identifier et hiérarchiser leurs cibles. Ce système, connu sous le nom de « Project Maven », a été créé par Palantir et intègre le modèle d’IA Claude, développé par Anthropic.

Le Pentagone enquête actuellement pour déterminer si ce système d’IA a joué un rôle dans la frappe américaine contre l’école de filles iranienne qui a fait plus de 170 morts, principalement des écolières.

Israël a utilisé des programmes similaires de ciblage basés sur l’IA en Iran, ainsi qu’à Gaza et au Liban. Le Pentagone aurait également eu recours à ces outils d’IA lors de la récente attaque militaire contre le Venezuela, au cours de laquelle les forces spéciales américaines ont kidnappé le président vénézuélien Nicolás Maduro et son épouse, Cilia Flores.

Cette situation intervient alors qu’un profond désaccord est apparu entre Anthropic et le Pentagone après qu’Anthropic a décidé de restreindre l’utilisation de sa technologie pour la surveillance de masse des Américains et pour les armes entièrement autonomes.

Fin février, le président Trump a ordonné aux agences fédérales de cesser d’utiliser les produits d’Anthropic. Le secrétaire à la Défense Pete Hegseth a déclaré que l’entreprise représentait un risque pour la chaîne de logistique, la coupant de fait des contrats gouvernementaux et des travaux connexes.

C’était la première fois que le Pentagone désignait une entreprise américaine comme un risque pour la chaîne de logistique, ce qui a poussé Anthropic à intenter un procès. Mardi, CNN a rapporté que près de 150 juges fédéraux et d’État à la retraite ont déposé un mémoire d’amicus curiae soutenant Anthropic dans son procès contre l’administration Trump.

Voici l’amiral Brad Cooper, commandant du CENTCOM, qui s’exprime sur l’utilisation de l’IA en Iran.

AMIRAL BRAD COOPER : Nos combattants exploitent toute une gamme d’outils d’IA avancés. Ces systèmes nous aident à passer au crible de vastes quantités de données en quelques secondes, ce qui permet à nos dirigeants de faire le tri et de prendre des décisions plus éclairées avant même que l’ennemi n’ait le temps de réagir. Ce sont toujours les humains qui prendront la décision finale quant à ce qu’il faut tirer, ce qu’il ne faut pas tirer et quand tirer, mais les outils d’IA avancés peuvent réduire à quelques secondes des processus qui prenaient auparavant des heures, voire parfois des jours.

Nous sommes maintenant en compagnie de Craig Jones, maître de conférences en géographie politique à l’université de Newcastle, auteur de The War Lawyers: The United States, Israel, and Juridical Warfare.

Il est coauteur d’un nouvel article publié dans The Conversation et intitulé « La guerre en Iran montre comment l’IA accélère les « chaînes de destruction » militaires ».

Pourquoi ne pas commencer par là, professeur Jones ?

CRAIG JONES : Merci.
Oui, je veux dire, comme le mentionnent vos titres, l’armée américaine et l’armée israélienne utilisent l’IA. La « chaîne de destruction » est un mécanisme bureaucratique par lequel les armées passent de la désignation des cibles à l’identification des ennemis et des cibles militaires, puis au processus consistant à les éliminer.

Tout au long du XXe siècle et au début du XXIe siècle, elles s’efforcent d’accélérer ce processus. Les drones militaires y ont grandement contribué. Et le dernier front en date, c’est l’IA.

Comme l’a mentionné Bradley Cooper, on réduit une charge de travail humaine colossale, qui s’élevait à des dizaines de milliers d’heures, à quelques secondes ou minutes. On réduit les flux de travail et on automatise les décisions de ciblage prises par des humains d’une manière qui, je pense, soulève toutes sortes de questions juridiques, éthiques et politiques problématiques.

AMY GOODMAN : La guerre menée par les États-Unis et Israël en Iran est décrite comme la première guerre de l’IA. Expliquez-nous ce que cela signifie, Craig.

CRAIG JONES : Oui, je dirais que ce n’est pas tout à fait la première guerre de l’IA. Comme vous l’avez mentionné, Israël a déjà utilisé l’IA à Gaza.

Je pense qu’il s’agit là de la première utilisation majeure de l’IA dans le domaine militaire. En réalité, l’histoire remonte un peu plus loin, puisque des programmes informatiques partiellement dotés d’IA sont utilisés en arrière-plan des systèmes militaires depuis plusieurs années déjà.

Elle a été largement utilisée à Gaza au cours des premiers mois, où nous avons vu des dizaines de milliers de cibles répertoriées dans une base de données sélectionnées par les services de renseignement militaire. Jusqu’à 35 000 combattants présumés du Hamas se sont retrouvés sur cette liste, qu’Israël a exploitée pour les assassiner, ainsi que des dizaines de milliers de cibles qui font en fin de compte partie de l’infrastructure civile.

Comme vous l’avez dit, les États-Unis l’ont utilisée contre Maduro, et aujourd’hui, Israël et les États-Unis utilisent également ces systèmes en Iran.

L’innovation clé ici est double. Il s’agit de l’utilisation de l’IA pour l’analyse du renseignement. Le renseignement, le renseignement militaire, est multiformat. Il y en a énormément.

Il intègre ce qu’on appelle le renseignement d’origine électromagnétique, c’est-à-dire les téléphones portables, le trafic Internet, les SMS, la localisation des téléphones portables, toutes sortes de choses. Et les systèmes d’IA sont utilisés pour repérer ce que les militaires appellent des « schémas de vie » — vous savez, qui rencontre qui, qui parle à qui, quelle est la nature des messages, comment ils interagissent d’une manière jugée suspecte.

Et les systèmes d’IA recherchent ces schémas et formulent des recommandations, ce qui constitue la deuxième innovation, concernant les cibles. Ils désignent des cibles pour cette base de données de cibles, qui fait ensuite l’objet — nous pourrons en parler — d’un « certain » contrôle technique humain. Et c’est problématique, je pense.

C’est problématique parce que c’est une technologie vraiment persuasive. Elle propose des centaines, voire des milliers de cibles potentiellement chaque jour, et elle fonctionne à des vitesses qui dépassent tout simplement, vous savez, l’évolution de la cognition humaine, d’une manière qui, encore une fois, est problématique.

AMY GOODMAN : Pouvez-vous expliquer — je veux dire, tout le monde enquête là-dessus, y compris le gouvernement américain et le Pentagone — comment Palantir aurait été utilisé, selon certaines hypothèses, lors des premières frappes, le premier jour de la guerre américano-israélienne contre l’Iran, et aurait pu être impliqué dans le ciblage d’une école de filles dans le sud de l’Iran à l’aide des outils de Palantir et de Claude, qui appartient à Anthropic ?

CRAIG JONES : Oui, donc, cette frappe contre l’école de filles est pour l’instant le premier incident ayant fait des victimes civiles, au cours duquel, comme vous l’avez dit, environ 170 personnes, principalement des filles, ont été tuées, des civils innocents.

Pour commencer, rappelons un peu le contexte historique. L’armée américaine a nié toute implication. À un moment donné, Trump a insinué qu’il s’agissait d’un missile iranien. Il a ensuite été vérifié que c’était bien une série de missiles Tomahawk américains qui avait frappé cette zone. Et une enquête préliminaire américaine a désormais établi et confirmé ce que beaucoup pensaient, à savoir que les États-Unis sont responsables.

Il semble — nous ne savons pas encore clairement quel a été le rôle de l’IA dans cette frappe particulière. Reste à voir si cela deviendra clair dans les jours et les semaines à venir. Ce que nous savons, c’est que les modèles Claude et Anthropic de Palantir ont été largement utilisés pour diverses tâches, notamment l’analyse du renseignement. Nous pouvons donc en déduire que ce système d’IA n’est pas encore capable de détecter, ou est du moins, vous savez, susceptible de commettre des erreurs à l’échelle du système.

Il n’a pas identifié l’école comme telle, ce qui est extrêmement problématique, d’autant plus que, en l’espace de quelques jours, des organisations telles que The New York Times ont pu vérifier, grâce à des images satellites, qu’un mur avait été érigé il y a environ 13 ans entre l’école et un complexe de l’IRGC situé à proximité.

Si vous aviez regardé des images prises par un drone depuis le ciel, comme les militaires en ont la capacité, ne serait-ce qu’une demi-heure ou quelques heures avant, vous auriez vu que, ce matin-là, 170 filles avaient été déposées par leurs parents, et cela aurait été identifié comme une cible non militaire à usage clairement civil.

AMY GOODMAN : Mais revenons-en à…

CRAIG JONES : Donc, nous ne savons pas encore…

AMY GOODMAN : Approfondissons un peu la question, car, en effet, il y avait cette installation militaire juste à côté. Comme vous l’avez décrit, il y a des années, un mur a été construit entre les deux, ce qui permet d’identifier très clairement l’école. Mais comment fonctionne l’IA, quand on lui fournit des informations vieilles de, disons, dix ans peut-être, selon lesquelles il s’agit d’une base militaire, et que ces informations ne sont jamais mises à jour ? Quel est le rôle des êtres humains dans tout cela ?

CRAIG JONES : Oui, c’est une question vraiment importante, là où ça devient, vous savez, délicat. Mais nous pourrions… nous en savons déjà beaucoup. Donc, on dirait que c’est juste un échec des services de renseignement : une zone marquée sur une carte, c’est… vous savez, toute la zone a été marquée comme un complexe militaire. Il y a des obligations, vous savez, des obligations légales et éthiques, et simplement des obligations politiques, au sein des agences de renseignement de défense, de vérifier cela.

Et ce qui se passe, c’est que certaines de ces cibles sont désignées depuis des bases militaires américaines aux États-Unis. J’ai travaillé avec certaines de ces personnes ces dernières années sur ce qu’on appelle la désignation des cibles, comment ça se passe. Elles transmettent ça au CENTCOM, dont je sais que vous vous occupez. Et ils ont des bases au Moyen-Orient. Il y en a une centrale au Qatar, où ces décisions de ciblage sont exécutées.

Le CENTCOM a l’obligation de vérifier et de revérifier ces renseignements, de s’assurer qu’ils sont à jour, que tout est en règle concernant la cible. Il est clair que cela n’a pas été fait, que ce soit… vous savez, il devrait y avoir un contrôle humain là-dessus, même si c’est recommandé par l’IA ou même si c’est recommandé par un humain. Il devrait y avoir une vérification par des services de renseignement humains. Il semble que, pour une raison quelconque — et nous ne savons pas encore pourquoi.

Il se passe donc aussi un détail technique très intéressant : tout ce que l’armée américaine cible de facto dans une société est inscrit sur une liste d’exclusion des frappes, car tout est présumé civil. Et pour pouvoir frapper cette cible, il faut la retirer de la liste des cibles à ne pas frapper. La question qui se pose donc est la suivante : pourquoi cette école a-t-elle été retirée de la liste des cibles à ne pas frapper et considérée comme une cible militaire légitime ?

Il semble que ce soit une combinaison d’échecs de l’IA et du renseignement humain qui ait conduit à un résultat véritablement catastrophique.

AMY GOODMAN : Parlez-nous de la manière dont Palantir interagit avec Claude, qui appartient à Anthropic, en particulier pour les luddites qui nous écoutent partout, pour ceux qui ne comprennent pas tout à fait comment tout cela fonctionne.

CRAIG JONES : Eh bien, d’après ce que nous savons, Palantir est un système, un peu comme un système logiciel complexe qui — vous savez, comme un jeu vidéo — reçoit toutes sortes de données d’entrée et permet de cibler des cibles.

Il y a toutes sortes de variables, par exemple : quelle taille de missile faut-il lancer ? Quel est le complexe que nous visons ? De quoi est-il fait ? Toutes ces variables humaines — ces variables avec des superpositions de renseignements.

Et puis, de la même manière que le logiciel fonctionne sur un ordinateur, Claude est cette chose qui se trouve en arrière-plan, qui, en quelque sorte, traite ces données et formule ces recommandations. Et ensuite, il fournit à l’humain certains paramètres avec lesquels l’humain, l’opérateur ou le responsable de la désignation de cibles peut alors jouer.

Évidemment, c’est hautement sensible et confidentiel, et au-delà des très rares personnes qui l’utilisent, vous savez, même chez Anthropic, les concepteurs ne sont qu’une poignée de personnes qui ont l’habilitation de sécurité et qui ont vu ce système fonctionner avec des données militaires sensibles.

D’après certaines informations qu’ils ont divulguées, comme les démos qu’ils ont publiées, nous pouvons nous faire une idée de ce à quoi cela ressemble. Et l’un des développements les plus inquiétants que j’ai observés, d’après ce qui est accessible au public, est le manque d’attention et de capacité à suivre les pertes civiles au sein de ces programmes.

Et c’est quelque chose que nous avons constaté. Vous savez, cette guerre contre les avocats et contre les dommages causés aux victimes civiles, que les administrations ont menée pendant plusieurs années au sein du département américain de la Défense, a été sapée par l’administration Trump, et on voit en fait que cela est désormais intégré dans le logiciel.

AMY GOODMAN : Voici Alex Karp, PDG de Palantir, interviewé sur CNBC la semaine dernière.

ALEX KARP : Ces technologies sont dangereuses pour la société. La seule justification possible serait que, si nous ne le faisons pas, nos adversaires le feront, et nous serons alors soumis à leur état de droit. Donc, si l’on dissocie cela du soutien de l’armée, on va avoir un énorme problème pour expliquer au peuple américain pourquoi nous prenons le risque de perturber le tissu même de notre société, y compris ses composantes les plus puissantes, si ce n’est pas pour préserver notre capacité à rester américains à court et à long terme.

AMY GOODMAN : Craig Jones, pourriez-vous réagir aux propos du PDG de Palantir ?

CRAIG JONES : Palantir a depuis longtemps l’habitude de dégager des dizaines de millions, voire des milliards de bénéfices grâce à ce qui, en fin de compte, revient selon moi à tuer des gens dans des contrées lointaines dont il est trop facile de se désintéresser.

Je pense que cette dernière initiative s’inscrit dans le cadre de cette course à l’armement de l’IA que nous avons en quelque sorte lancée. C’est une bonne chose de voir qu’au moins Anthropic a levé les bras au ciel en disant : « Nous voulons que des paramètres éthiques soient mis en place. » Mais même cela, qui semble être, vous savez… Et pendant ce temps, alors que toute cette controverse se déroulait, comme vous l’avez rapporté, avec l’administration Trump, nous voyons Sam Altman d’OpenAI se précipiter pour décrocher le contrat qu’Anthropic a finalement laissé tomber.

Des profits colossaux. C’est un énorme… le DOD est un… le Département de la Guerre est un énorme client pour de nombreuses entreprises de la Silicon Valley. Nous avons vu Microsoft utiliser ses plateformes pour le ciblage israélien. Apparemment, Microsoft enquête là-dessus.

Nous voyons également l’analyse IA de Google utilisée pour Palantir et pour des contrats avec le DOD américain. C’est de l’argent colossal.

Et je pense, vous savez, que la communauté de la Silicon Valley devrait prendre conscience, en fin de compte, des conséquences des technologies sur lesquelles elle travaille et constater leurs effets sur le terrain — là où je travaille, auprès de personnes qui ont perdu toute leur famille, dont les maisons ont été détruites, qui ont été déplacées, qui ont, vous savez, eu les jambes arrachées — il y a un véritable décalage entre ces dizaines de milliards générés par les profits de la guerre et ces personnes qui en subissent les conséquences.

AMY GOODMAN : Voici Sam Altman, PDG d’OpenAI, que vous avez mentionné, s’exprimant lors du sommet « India AI Impact » à New Delhi en février.

SAM ALTMAN : Nous ne savons pas encore comment envisager le fait qu’une superintelligence puisse s’aligner sur des dictateurs dans des pays totalitaires. Nous ne savons pas comment envisager que des pays utilisent l’IA pour mener entre eux de nouveaux types de guerres. Nous ne savons pas comment envisager quand et si les pays vont devoir réfléchir à de nouvelles formes de contrats sociaux. Mais nous pensons qu’il est important d’approfondir notre compréhension et d’engager un débat à l’échelle de la société, avant que nous ne soyons tous pris au dépourvu.

AMY GOODMAN : Voilà donc Sam Altman, d’OpenAI. Et pour citer le secrétaire du Pentagone — Trump l’appelle le « secrétaire à la guerre » —, le secrétaire à la Défense, Pete Hegseth, lors d’un point presse ces derniers jours : « Contrairement à tant de nos alliés traditionnels qui se tordent les mains et s’évanouissent, tergiversant sur le recours à la force, l’Amérique, quoi qu’en disent les institutions internationales, lance la campagne aérienne la plus meurtrière et la plus précise de l’histoire — B-2, chasseurs, drones, missiles et, bien sûr, moyens classifiés — le tout selon nos propres conditions et avec les pleins pouvoirs. Pas de règles d’engagement stupides, pas de bourbier de reconstruction nationale, pas d’exercice de construction de la démocratie, pas de guerres politiquement correctes. » Craig Jones ?

CRAIG JONES : Ce sont deux déclarations choquantes. Les idées de Sam Altman, vous savez, je pense que, d’après ce qu’il a dit, il a raison. Nous ne savons rien de tout cela.

Nous ne savons pas ce que l’avenir nous réserve. Mon point de vue serait que, comme nous ne connaissons pas les dangers, les risques et les dommages potentiels que ces technologies entraînent, nous devrions faire une pause, en tant que sociétés, en tant qu’entreprises, en tant que nations, en tant que dirigeants, pour avoir une conversation sérieuse sur le type d’avenir de l’IA que nous voulons, et si c’est bien le monde que nous voulons construire.

Par ailleurs, Hegseth, le département de la Guerre, a publié en janvier une déclaration — un programme complet, en fait, intitulé « stratégie de combat de guerre IA », dont sont tirées certaines des citations que vous venez de lire. Et il y est question de létalité maximale, comme vous le dites, sans tenir compte des règles d’engagement.

Il s’agit d’une mise à l’écart délibérée des freins et contrepoids, des responsabilités en matière de guerre, du licenciement des juristes militaires – cette communauté avec laquelle j’ai travaillé et qui fournit des conseils juridiques aux forces armées – pour aller de l’avant en disant – Hegseth l’affirmant explicitement – que, vous savez, simplement parce que nous ne savons pas comment ces technologies fonctionnent, nous avons besoin de cet avantage du premier arrivé.

C’est cette approche classique qui consiste à « aller vite et casser les règles », et, vous savez, on se fiche des conséquences. Ce sont vraiment des temps et des développements inquiétants.

AMY GOODMAN : Vous avez évoqué à plusieurs reprises les « avocats de guerre », qui constituent d’ailleurs le titre de votre livre. Expliquez-nous ce que vous entendez par là et comment ils ont été licenciés et mis à l’écart.

CRAIG JONES : Eh bien, ces avocats militaires combattent aux côtés des forces armées depuis des siècles. En fait, le Corps des avocats militaires américains est le plus ancien cabinet d’avocats du pays. Ils s’occupent de toutes sortes de choses, mais ce qui m’intéresse particulièrement, c’est qu’ils conseillent les commandants militaires et les décideurs sur les opérations.

Ainsi, chaque fois qu’une cible a été frappée au cours des deux dernières décennies, un avocat militaire était présent pour examiner la situation et effectuer ce qu’on appelle un calcul de proportionnalité. Donc, d’accord, voici la cible militaire. Quel est le risque pour les civils ? Devrions-nous passer à l’action ? Devrions-nous marquer une pause ? Existe-t-il des mesures que nous pouvons prendre pour éviter des victimes civiles ? Et toute une série d’autres considérations.

Par exemple, il pourrait s’agir d’une école de filles. S’agit-il d’une cible légitime, ou s’agit-il bien d’une école de filles ? C’est donc une question de nécessité militaire. Et, vous savez, ils ont une longue histoire. Et, vous savez, je travaille avec eux. Ce sont des gens professionnels et sérieux, formés dans les meilleures facultés de droit des États-Unis. Ce sont aussi des soldats.

Israël a sa propre version de ces unités. Et, vous savez, ils ont accompli un travail crédible, très crédible, auprès des forces armées.

Et l’administration Trump, l’une des premières mesures qu’il a prises après avoir prêté serment pour son second mandat a été de licencier les chefs de ces unités juridiques. Donc, vous savez, la Marine, l’Armée de terre, l’Armée de l’air, chacune a ses propres chefs. Il les a licenciés.

Et puis, plus bas dans la hiérarchie, il les a licenciés et remplacés par des béni-oui-oui. Et au-delà des licenciements et des remplacements, nous apprenons par des reportages et par certains de mes propres contacts que les juristes militaires ne sont tout simplement pas écoutés lorsqu’ils soulèvent des objections, ou, vous savez, ils se taisent dans ces salles de crise où les décisions sont prises, car, tout comme dans l’administration Trump, où ses, vous savez, civils et ses conseillers l’entourent, à moins de dire oui et de suivre le mouvement, vous n’êtes tout simplement pas le bienvenu là-bas, et vous serez soit licencié, soit ignoré.

Et donc, encore une fois, c’est vraiment inquiétant, surtout quand on met cela en parallèle avec cette guerre menée simultanément contre toutes ces initiatives visant à réduire les pertes civiles.

Il y avait donc une structure appelée le Centre d’excellence, qui s’occupait de la protection des civils. Elle a mis une décennie à se mettre en place. De nombreux hauts responsables des administrations américaines, d’Obama à Biden en passant par le premier mandat de Trump, y ont participé.

Et Trump a appuyé sur « Ctrl-Alt-Suppr » dès le premier jour et a supprimé ce centre, parce qu’ils ne sont pas intéressés par la prévention des victimes civiles, ce qui donne l’impression qu’on revient au Vietnam ou quelque chose comme ça.

AMY GOODMAN : Pour finir, Craig Jones, il ne nous reste qu’une minute, mais pourriez-vous nous expliquer cette rupture entre Anthropic et le Pentagone ? Anthropic affirme que son entreprise ne peut pas être utilisée pour la surveillance de masse des Américains ni pour des armes entièrement autonomes, et l’administration Trump a riposté : après avoir intenté un procès, le président Trump a ordonné aux agences fédérales de cesser d’utiliser les produits d’Anthropic, tandis que Pete Hegseth a déclaré que cette entreprise représentait un risque pour la chaîne d’approvisionnement ? Mais ensuite, nous apprenons que Claude, propriété d’Anthropic, est peut-être utilisé par Palantir pour cibler cette école de filles qui a tué bien plus d’une centaine de filles.

CRAIG JONES : Oui, il y a beaucoup à dire là-dessus. D’une part, cela semble être une mesure disproportionnée, quand une entreprise exerce simplement son droit de ne pas être d’accord avec ce que fait le gouvernement. Et, vous savez, je crois que le PDG de l’époque avait dit : « Être en désaccord avec le gouvernement, c’est aussi américain que la tarte aux pommes. » Mais l’autre aspect, c’est qu’il s’agit d’une infrastructure.

Je pense que certaines personnes croient que l’IA n’est qu’un outil. C’est quelque chose sur votre bureau, ou quelque chose en arrière-plan. Il suffit d’appuyer sur « Supprimer ». C’est une infrastructure intégrée à l’ensemble de l’appareil de renseignement, et donc, on ne peut pas simplement la supprimer ; c’est pourquoi elle est toujours utilisée, et pourquoi il pourrait falloir jusqu’à six mois pour essayer de retirer certains produits Claude du logiciel.

L’autre chose, c’est que c’était bien de voir cette objection éthique. On dirait que c’est la seule position morale qui a été prise dans ces discussions sur la guerre de l’IA, en tout cas dans la Silicon Valley. Je m’opposerais simplement à leur objection sur deux points.

Ils s’opposent uniquement à la surveillance de masse des citoyens américains. Ils ne disent rien sur les citoyens du reste du monde. Et en partie, leur objection à son utilisation à des fins létales est une objection technique, plutôt que morale.

En gros, ils disent qu’à l’heure actuelle, les algorithmes ne sont pas encore tout à fait au point, car ils présentent un certain taux d’erreur. Mais ils ne disent pas nécessairement qu’ils ne seraient pas d’accord avec cette utilisation plus tard.

Ce n’est donc pas qu’ils s’opposent à la létalité et au fait de tuer en soi, mais simplement que, d’un point de vue technique, les algorithmes ne sont pas encore tout à fait prêts, et qu’ils voulaient donc marquer une pause. Il y a donc beaucoup à dire à ce sujet, mais je pense qu’il s’agit d’un acte et d’une réaction disproportionnés de la part de l’administration Trump.

AMY GOODMAN : Craig Jones, nous tenons à vous remercier de votre présence parmi nous. Vous êtes maître de conférences en géographie politique à l’université de Newcastle, vous nous rejoignez depuis le Royaume-Uni, vous êtes l’auteur de The War Lawyers: The United States, Israel, and Juridical Warfare, expert en guerre moderne et en ciblage aérien, et vous dirigez actuellement un projet de recherche sur les victimes civiles et les blessures liées à la guerre à Gaza et en Irak.

Nous mettrons un lien vers votre article dans The Conversation, « La guerre en Iran montre comment l’IA accélère les « chaînes de destruction » militaires. »

18 mars 2026 – Democracy Now – Traduction : Chronique de Palestine

Soyez le premier à commenter

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée.


*


Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.