L’IA au service de la guerre : les géants de la technologie facilitent les crimes israéliens

Cette ville s'endort épuisée et se réveille avec la même fatigue. Tout ce qu'elle contient est fatigué et lourd de douleur. Les routes sont en pièces, les bâtiments sont en décombres, les tentes ne peuvent pas résister au froid de la nuit ni à la chaleur du jour. L'eau est rare ou contaminée, et la nourriture maintient à peine les gens en vie. Même l'éducation existe maintenant dans une tente, les soins de santé dans une tente. La guerre a détruit tout ce qui rendait la vie possible. Cette photo a été prise dans le quartiers de Cheikh Radwan au centre de la ville de Gaza - Photo : Mahmoud Abu Hamda

Par Marwa Fatafta

Les géants technologiques des Etats-Unis se présentent comme des innovateurs éthiques qui façonnent un monde meilleur grâce à l’intelligence artificielle (IA) et au « cloud computing ». Pourtant, à Gaza, ces prétentions se sont effondrées. Les systèmes d’IA, les infrastructures « cloud » et les outils de surveillance fournis par des entreprises technologiques telles que Google, Amazon, Microsoft et Palantir sont désormais indissociables de la campagne génocidaire menée par Israël contre les Palestiniens.

Grâce à des contrats d’un milliard de dollars comme le projet Nimbus, ces entreprises ont fourni à l’armée israélienne des capacités informatiques et d’apprentissage automatique avancées qui automatisent le ciblage pour tuer et la surveillance de masse. Ce faisant, elles ont intégré leurs technologies dans l’appareil d’occupation et de génocide, illustrant ainsi comment la militarisation de l’IA amplifie la violence étatique tout en échappant à tout contrôle.

Cette note d’orientation aborde la complicité des grandes entreprises technologiques dans les crimes de guerre et l’occupation israéliens, mettant en garde contre l’automatisation accélérée et non réglementée de la guerre. Elle décrit les moyens de garantir la responsabilité à travers les recommandations suivantes adressées aux gouvernements, aux régulateurs, aux groupes de défense des droits et aux acteurs de la société civile au sens large :

  • Garantir la transparence des partenariats financiers, de recherche et commerciaux liés aux secteurs militaire et de surveillance israéliens.
  • Poursuivre le désinvestissement et les sanctions contre les entreprises complices de crimes de guerre et de violations systématiques des droits humains.
  • Recourir à des litiges stratégiques pour tenir les entreprises responsables de leur complicité dans des crimes atroces.
  • Construire des alliances entre les groupes de la société civile, les défenseurs des droits et les travailleurs du secteur technologique afin de dénoncer et de perturber les contrats militarisés.
  • Faire progresser la réglementation contraignante de l’IA militaire afin de combler les lacunes en matière de gouvernance et d’empêcher toute complicité future des entreprises.

Introduction

Les géants technologiques américains se présentent comme les architectes d’un monde meilleur, alimenté par l’intelligence artificielle (IA), le cloud computing et les solutions basées sur les données. Sous des slogans tels que « AI for Good », ils s’engagent à agir en tant que gardiens éthiques des technologies qui remodèlent nos sociétés.

Pourtant, à Gaza, ces discours se sont effondrés, tout comme les normes internationales et ce qui reste de l’ordre dit « fondé sur des règles ».

La guerre génocidaire menée par le régime israélien à Gaza a attiré l’attention sur le rôle des grandes entreprises technologiques dans la facilitation des opérations militaires et le maintien de l’occupation.

Derrière la destruction israélienne se cachent des serveurs, des réseaux neuronaux et des systèmes logiciels construits et déployés par certaines des entreprises les plus puissantes au monde. La militarisation croissante des technologies et des infrastructures numériques – particulièrement visible dans le déploiement par Israël de systèmes basés sur l’IA et l’analyse de données à Gaza – a remodelé les débats sur la responsabilité et mis en évidence des lacunes critiques dans les cadres de gouvernance existants.

Cette note d’orientation examine comment la frontière de la responsabilité des entreprises technologiques s’étend désormais à la complicité potentielle dans des crimes de guerre, des crimes contre l’humanité et des génocides, soulignant le besoin urgent de nouvelles approches pour réglementer la militarisation de l’IA.

Un génocide alimenté par l’IA

Le régime israélien a déployé pour la première fois des systèmes d’IA pour générer et hiérarchiser des cibles mortelles lors du bombardement de Gaza qui a duré 11 jours en mai 2021, une attaque violente et illégale que l’armée israélienne a ensuite qualifiée de première « guerre IA ».

Depuis lors, les forces d’occupation ont considérablement accru leur recours aux outils d’IA, utilisant le cloud computing et l’apprentissage automatique pour stocker et traiter de vastes volumes de données de surveillance (des images satellites aux communications interceptées) afin d’automatiser l’identification et le classement des cibles à attaquer.

Au cœur de la guerre IA menée par Israël se trouve le projet Nimbus, un contrat de 1,2 milliard de dollars dans le cadre duquel Google et Amazon ont fourni au gouvernement et à l’armée israéliens une infrastructure cloud avancée et des capacités d’apprentissage automatique.

Au début du génocide, les forces israéliennes se seraient presque entièrement appuyées sur des systèmes de génération de cibles alimentés par l’IA, tels que Lavender, The Gospel et Where’s Daddy, afin d’accélérer les massacres et les destructions massifs à Gaza.

Ces plateformes ingèrent des données de surveillance de masse sur l’ensemble de la population de Gaza afin de déterminer de manière algorithmique, à grande échelle, qui doit être tué, quels bâtiments doivent être bombardés et quel niveau de « dommages collatéraux » est jugé acceptable.

Dans le cadre du génocide qu’il perpétue depuis le 7 octobre 2023 contre la bande de Gaza, l’armée israélienne utilise des petits drones (ou quadricoptères) pour tirer directement sur les Palestiniens, tuant et blessant nombre d’entre eux – Photo : via Euro-Med Human Rights Monitor

Il est alarmant de constater que ces systèmes basés sur l’IA intériorisent la logique génocidaire de leurs opérateurs.

Ils sont entraînés à traiter les civils comme des « terroristes », s’appuyant sur la logique génocidaire des responsables israéliens qui ont déclaré qu’« il n’y a pas de civils innocents à Gaza ».

Dans le cadre des efforts visant à automatiser le ciblage meurtrier, les commandants militaires auraient ordonné aux soldats d’identifier et d’introduire autant de cibles que possible dans le système. Cela abaisse effectivement le seuil à partir duquel des individus sont désignés comme « militants du Hamas », jetant un large filet sur les sujets signalés par l’algorithme.

Malgré son taux d’erreur élevé, le seul critère appliqué par les soldats israéliens à la liste des personnes à abattre établie par Lavender était le sexe de la cible, ce qui rendait effectivement tous les hommes palestiniens, enfants et adultes confondus, des cibles légitimes.

Dans la pratique, la technologie de l’IA a permis au régime israélien de mettre en œuvre sa logique génocidaire avec une efficacité impitoyable, réduisant les Palestiniens, leurs familles et leurs maisons à ce que l’armée appelle de manière effrayante des « cibles poubelles ».

Si de nombreux détails techniques des systèmes de ciblage IA israéliens restent classifiés, il existe de nombreuses preuves crédibles que leur fonctionnalité dépend de l’infrastructure cloud et des capacités d’apprentissage automatique développées et maintenues par de grandes entreprises technologiques, notamment Google, Amazon, Microsoft et Palantir.

Par conséquent, la fourniture directe par les entreprises technologiques de systèmes numériques utilisés dans la guerre menée par Israël soulève des questions urgentes quant à la complicité des entreprises dans de graves violations du droit international, notamment des actes pour lesquels la Cour pénale internationale (CPI) a émis des mandats d’arrêt à l’encontre du Premier ministre israélien Benjamin Netanyahu et de l’ancien ministre de la Défense Yoav Gallant.

Du code aux listes de meurtres

Alors qu’Israël intensifiait son offensive sur Gaza, sa demande en technologies d’intelligence artificielle et de cloud computing, fournies par les géants technologiques américains, a rapidement augmenté, intégrant ainsi l’infrastructure des entreprises dans la machine de guerre.

En mars 2024, Google a renforcé ses liens avec le ministère israélien de la Défense (IMOD) en signant un nouveau contrat visant à créer une « zone d’atterrissage » spécialisée dans son infrastructure cloud, permettant à plusieurs unités militaires d’accéder à ses technologies d’automatisation.

Amazon Web Services (AWS), partenaire de Google dans le cadre du projet Nimbus, aurait fourni à la Direction du renseignement militaire israélien une ferme de serveurs dédiée capable de stocker indéfiniment les données de surveillance collectées sur presque tous les habitants de Gaza.

Des rapports récents ont également documenté l’expansion rapide des capacités militaires israéliennes basées sur l’IA, soulignant comment les partenariats croissants avec les entreprises technologiques ont accéléré le déploiement de systèmes avancés dans sa guerre contre Gaza.

Selon des documents divulgués, Microsoft a hébergé des éléments du programme de surveillance de masse de l’armée israélienne sur ses serveurs cloud, stockant des enregistrements de millions d’appels téléphoniques interceptés provenant de Palestiniens à Gaza et en Cisjordanie.

Les forces d’occupation israéliennes auraient utilisé ces fichiers pour identifier des cibles à bombarder, faire chanter des individus, placer des personnes en détention et également pour justifier des meurtres après coup.

La dépendance de l’armée israélienne à l’égard de Microsoft Azure a augmenté en conséquence : au cours des six premiers mois de la guerre, son utilisation mensuelle moyenne a augmenté de 60 %, tandis que l’utilisation des outils d’apprentissage automatique d’Azure a été multipliée par 64 par rapport aux niveaux d’avant-guerre.

En mars 2024, l’utilisation des outils technologiques de Microsoft et d’OpenAI par les forces israéliennes était près de 200 fois supérieure à celle de la semaine précédant le 7 octobre 2023. En outre, la quantité de données stockées sur les serveurs de Microsoft avait doublé pour atteindre plus de 13 pétaoctets.

Les résultats de l’examen interne mené par Microsoft, annoncés en septembre 2025, ont finalement confirmé qu’une unité du ministère israélien de la Défense avait effectivement utilisé certains de ses services à des fins de surveillance interdites.

En conséquence, l’entreprise a suspendu certains services cloud et d’IA, admettant que sa technologie était complice de pratiques contraires à ses conditions d’utilisation.

Pourtant, la suspension des services de Microsoft à l’armée israélienne a été minime : de nombreux contrats et fonctions avec l’armée israélienne et d’autres organismes gouvernementaux responsables de violations flagrantes des droits humains et de crimes atroces restent intacts. Bien que l’examen lui-même soit toujours en cours, cette admission limitée met à nu la complicité de l’entreprise dans la machine militaire israélienne.

Une photo circulant sur les médias sociaux montre des soldats israéliens forçant les personnes déplacées dans le camp de Jabalia à se diriger vers un point de contrôle, et ciblant ceux qui ne bougent pas avec des tirs de drones et d’artillerie – Photo : médias sociaux

De plus, l’implication des grandes entreprises technologiques dans la guerre d’Israël semble aller au-delà de la simple fourniture de services. Les ingénieurs de Microsoft auraient fourni une assistance technique à distance et sur place aux forces israéliennes, notamment à l’unité 8200 (cyberopérations et surveillance) et à l’unité 9900 (renseignement géospatial et ciblage).

En fait, le ministère israélien de la Défense a acheté environ 19 000 heures de services d’ingénierie et de conseil à Microsoft, pour une valeur d’environ 10 millions de dollars.

Amazon a également été impliqué, fournissant apparemment non seulement une infrastructure cloud, mais aussi une assistance directe pour la vérification des cibles des frappes aériennes.

Le rôle de Google soulève des inquiétudes supplémentaires : selon des documents internes, l’entreprise a créé une équipe tenue à part composée de ressortissants israéliens disposant d’habilitations de sécurité, chargée explicitement de recevoir des informations sensibles du gouvernement israélien qui ne pouvaient être partagées avec l’ensemble de l’entreprise.

Cette équipe est chargée de dispenser « une formation spécialisée avec les agences de sécurité gouvernementales » et de participer à « des exercices conjoints et des scénarios adaptés à des menaces spécifiques ». Aucun accord comparable ne semble exister entre Google et un autre État, ce qui souligne la profondeur exceptionnelle de sa collaboration avec le régime israélien.

Le profit n’est pas le seul moteur de l’implication croissante des grandes entreprises technologiques auprès de l’armée israélienne ; l’affinité politique joue également un rôle.

Palantir Technologies, une société américaine d’analyse de données et de surveillance connue pour ses liens étroits avec les agences de renseignement et de défense, a ouvertement exprimé son soutien à Israël tout au long du génocide de Gaza.

Palantir s’est associé à AWS pour fournir des outils conçus pour aider ses clients, tels que l’armée israélienne, à « gagner dans le contexte de la guerre ».

La société a signé un partenariat stratégique avec le ministère israélien de la Défense afin de fournir des technologies soutenant directement la campagne génocidaire.

Microsoft entretient également des liens de longue date avec l’armée et l’appareil sécuritaire israéliens, des liens si étroits que Netanyahu a un jour décrit cette relation comme « un mariage fait au paradis mais reconnu ici sur terre ».

En apportant un soutien direct aux opérations militaires israéliennes, les entreprises technologiques ne se contentent pas de fournir des infrastructures ; elles facilitent et aident activement la surveillance, le ciblage et l’exécution d’actions qui violent le droit international.

Dans une évolution sinistre, le déploiement de l’IA commerciale à Gaza marque une frontière effrayante : des systèmes autrefois conçus pour optimiser la logistique et la prise de décision à grande échelle génèrent désormais des listes de personnes à abattre, effacent des familles et rasent des quartiers entiers.

La technologie développée et maintenue par les grandes entreprises technologiques soutient désormais la guerre, le nettoyage ethnique et le génocide en Palestine, servant de prototype pour l’avenir de la guerre automatisée.

Le futur de la guerre

Le régime israélien a officialisé son engagement en faveur de la guerre automatisée en créant une division dédiée à la recherche sur l’IA au sein du ministère de la Défense, chargée de faire progresser les capacités militaires pour un avenir où « les champs de bataille verront des équipes intégrées de soldats et de systèmes autonomes travailler de concert ».

Cette initiative marque un tournant important vers la normalisation des combats basés sur l’IA. Les gouvernements occidentaux, notamment la France, l’Allemagne et les États-Unis, suivent une trajectoire similaire, se précipitant pour intégrer l’intelligence artificielle dans leurs systèmes d’armement et leurs forces armées.

Ensemble, ces développements positionnent Israël non seulement comme un précurseur, mais aussi comme un modèle pour la prochaine ère de la guerre baseé sur l’algorithmique.

Parallèlement et afin de décrocher des contrats militaires, les grandes entreprises technologiques abandonnent les limites éthiques qu’elles s’étaient elles-mêmes imposées.

Au début de l’année, Google et OpenAI ont discrètement renoncé à leur engagement volontaire de ne pas développer d’IA à des fins militaires, signalant ainsi un réalignement plus large avec les secteurs de la sécurité et de la défense.

Quelques semaines après avoir modifié ses principes en matière d’IA, Google a signé un partenariat officiel avec Lockheed Martin, le plus grand fabricant d’armes au monde et l’un des principaux fournisseurs d’armes de l’armée israélienne.

En novembre 2024, Meta a annoncé qu’elle mettrait ses grands modèles linguistiques, appelés Llama, à la disposition des agences gouvernementales américaines et des sous-traitants travaillant dans le domaine de la sécurité nationale. Lockheed Martin a depuis intégré Llama dans ses opérations.

Se joignant à la course à l’IA pour la guerre, Meta s’est également associée à Anduril, une start-up spécialisée dans les technologies de défense, pour développer des dispositifs de réalité virtuelle et augmentée pour l’armée américaine.

Dans sa logique folle, le capitalisme est en train de tuer l’exploration spatiale avec une prolifération incontrôlée d’une multitude de satellites et micro-satellites placés en orbite autour de la Terre. A l’horizon 2035, on estime qu’il existera environ 70 000 satellites en orbite, contre près de 3000 aujourd’hui… les débris actuels étant déjà de l’ordre de plusieurs centaines de milliers. Elon Musk – archétype du capitaliste arrogant et prédateur – et son réseau Starlink sont en complète synchronisation avec le Département de la Défense aux Etats-Unis, et répondent clairement aux besoins de l’impérialisme en multiplinant les moyens d’espionnage et de surveillance de l’ensemble de la population du globe – Image : Réseaux sociaux

Malgré son statut d’organisation à but non lucratif, OpenAI a collaboré avec Anduril pour déployer sa technologie sur le champ de bataille.

En outre, Palantir et Anthropic, une société de recherche et développement en IA soutenue par Google, ont annoncé un partenariat avec AWS afin de « fournir aux agences de renseignement et de défense américaines un accès » à ses systèmes d’IA.

La décision de l’armée américaine d’accorder le grade de lieutenant-colonel à des cadres supérieurs de Palantir, Meta, OpenAI et Thinking Machines Labs et de les intégrer comme conseillers au sein des forces armées est un indicateur révélateur de la convergence croissante entre les grandes entreprises technologiques et les ministères de la guerre.

Présentée comme un effort visant à « guider des solutions technologiques rapides et évolutives vers des problèmes complexes », cette initiative vise à rendre l’armée américaine « plus légère, plus intelligente et plus meurtrière ».

Le symbolisme est difficile à ignorer : les dirigeants de la Silicon Valley ne se contentent plus de créer des outils pour le champ de bataille, ils sont désormais officiellement intégrés à sa structure de commandement.

La militarisation de l’IA dans un vide réglementaire

En l’absence de cadres réglementaires efficaces, la militarisation de l’IA se développe rapidement. Alors que les États continuent de délibérer sur les normes relatives aux armes autonomes à l’ONU, aucun traité international contraignant ne régit spécifiquement leur développement ou leur déploiement.

Les technologies à double usage, telles que les LLM et l’infrastructure cloud, qui sont désormais intégrées dans les opérations militaires, sont encore moins réglementées.

Les récentes discussions nationales et mondiales et les propositions réglementaires concernant la gouvernance de l’IA, qui se concentrent souvent sur la protection de la vie privée et des droits humains, ignorent largement l’impact dévastateur des systèmes d’IA dans les zones de conflit.

L’exemple le plus édifiant de ce décalage est la signature par Israël du traité sur l’IA du Conseil de l’Europe, qui traite des droits de l’homme, de la démocratie et de l’État de droit, alors que des rapports crédibles faisaient état de son utilisation de l’IA pour cibler des cibles à Gaza.

Si le traité contient de nombreuses réserves qui limitent son efficacité, la signature d’Israël dans le contexte d’une campagne de génocide en cours souligne le profond décalage entre les normes juridiques en cours d’élaboration et le déploiement sur le champ de bataille des technologies qu’elles cherchent à réglementer.

Parallèlement, les lignes directrices volontaires ou les mécanismes de légaux contraignants sont systématiquement ignorés.

Les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (UNGPs), qui définissent à la fois les obligations des États et les responsabilités des entreprises en matière d’identification et d’atténuation des risques liés aux droits humains, sont souvent ignorés par les entreprises technologiques.

Alors que ces principes stipulent clairement que les entreprises opérant dans des zones de conflit doivent traiter le risque de contribuer à des violations flagrantes des droits humains et du droit international humanitaire comme une question de conformité juridique, les entreprises technologiques continuent de s’y conformer de manière sélective.

L’aveu tardif de Microsoft selon lequel le régime israélien a utilisé son infrastructure cloud pour exercer une surveillance de masse à Gaza en est un exemple typique.

En mai 2025, Microsoft a nié avoir permis au régime israélien de nuire aux Palestiniens par le biais d’une surveillance de masse, avant de faire marche arrière quelques mois plus tard en admettant de manière restrictive l’utilisation abusive de sa technologie.

Comme mentionné, cet aveu révèle à quel point les entreprises manquent à leur responsabilité, en vertu des PRNU, d’identifier et d’atténuer ces préjudices.

Dans ce contexte, le droit pénal international reste insuffisant pour traiter la complicité des entreprises dans les crimes de guerre. Tant le droit coutumier que le Statut de Rome limitent la responsabilité pénale aux personnes physiques, excluant les entreprises en tant que personnes morales.

Par conséquent, la poursuite de la responsabilité des entreprises pour leur implication dans la commission et la perpétuation de crimes particulièrement horribles, notamment le génocide, les crimes de guerre et les crimes contre l’humanité, constitue un combat juridique à part entière.

Si la perspective de voir un dirigeant du secteur technologique comparaître devant les tribunaux pour avoir aidé et encouragé des crimes internationaux peut sembler lointaine, même les appels modestes en faveur d’une réglementation et d’une responsabilisation sont de plus en plus contrecarrés.

L’administration Trump a intégré les grandes entreprises technologiques dans sa quête plus large de domination mondiale, rendant ainsi les géants de l’industrie intouchables. En accord avec les lobbyistes du secteur, Trump s’est engagé à s’opposer à toute réglementation du secteur technologique au niveau national et a déjà commencé à démanteler les mécanismes de contrôle.

Les sanctions infligées à la rapporteuse spéciale des Nations unies pour la Palestine, Francesca Albanese, à la suite de la publication de son rapport sur la complicité des entreprises dans l’occupation illégale et le génocide perpétrés par Israël, illustrent encore davantage le climat actuel dans lequel le gouvernement américain et les entreprises se serrent les coudes pour se protéger de toute poursuite en justice et de toute demande de responsabilité.

Aggravée par un préjugé anti-palestinien profondément ancré et le double standard persistant entourant les crimes et l’occupation d’Israël, cette dynamique a créé un environnement juridique et politique permissif qui protège le secteur technologique de tout contrôle.

En conséquence, les entreprises technologiques peuvent continuer à concevoir, déployer et soutenir des systèmes de ciblage basés sur l’IA et des technologies de surveillance de masse en collaboration directe avec l’occupation militaire israélienne, sans contrôle ni responsabilité.

Dans ce contexte de crise de responsabilité, les travailleurs du secteur technologique sont de plus en plus en première ligne pour contester la complicité des entreprises. Alors que les dirigeants renforcent leurs liens commerciaux avec le régime israélien, la dissidence au sein de l’industrie technologique continue de croître, car de plus en plus d’employés refusent de créer les outils qui permettent le génocide, la colonisation et l’apartheid.

Le récent licenciement de travailleurs de Microsoft qui protestaient contre le rôle de l’entreprise dans le génocide perpétré par Israël à Gaza a trouvé un écho chez Google, où des employés ont subi des représailles pour s’être opposés à la collaboration avec l’armée et les agences de sécurité israéliennes.

Muhammad Nasr, prisonnier palestinien libéré, embrasse un ami après son arrivée en bus à l’hôpital Nasser de Khan Younis, dans la bande de Gaza, le 13 octobre 2025, dans le cadre de l’accord de cessez-le-feu – Photo : extrait vidéo Abdel Qader Sabbah

Les organisateurs de groupes tels que No Tech for Apartheid et la Tech Workers Coalition ont joué un rôle central dans la dénonciation de l’implication profonde de l’industrie dans la violence d’État, souvent mise en œuvre par le biais de contrats militaires opaques et non divulgués.

Recommandations

Alors que la résistance au sein de l’industrie technologique continue de croître, la société civile palestinienne et les mouvements de solidarité mondiale doivent intensifier leurs efforts pour démanteler les structures qui déshumanisent les Palestiniens et les traitent comme des cobayes pour de nouvelles technologies de guerre.

Tout d’abord, pour lutter contre la complicité des entreprises, il faut s’attaquer aux partenariats de recherche impliquant des entités privées, notamment des entreprises commerciales et des institutions universitaires, qui collaborent au développement et à la mise à l’échelle de technologies militarisées.

Il faut également examiner les flux financiers, les flux commerciaux et les liens économiques plus larges qui soutiennent et légitiment le secteur technologique militarisé d’Israël.

Souvent décrite comme le « moteur de la croissance », l’industrie high-tech israélienne est structurellement dépendante des capitaux privés et étrangers. Environ 91 % de son financement provient du secteur privé, et environ 80 % des investissements en capital-risque proviennent de l’étranger.

Ces chiffres soulignent à quel point les investisseurs internationaux, les universités et les entreprises sont directement impliqués dans le financement et la légitimation de l’appareil technologique militaire israélien.

Les gouvernements, les régulateurs et la société civile devraient faire pression pour obtenir la transparence des flux financiers, subordonner les partenariats au respect du droit international et poursuivre le désinvestissement ou les sanctions à l’encontre des entreprises complices de crimes atroces et de violations systématiques des droits humains.

Deuxièmement, les efforts de la société civile et les initiatives juridiques axées sur la responsabilité doivent mettre davantage l’accent sur les infrastructures numériques qui sous-tendent les crimes commis par Israël, non seulement à Gaza, mais aussi en Cisjordanie.

Le Bureau du Procureur de la CPI a récemment publié son premier projet de politique sur les enquêtes et les poursuites relatives aux crimes cybernétiques, reconnaissant enfin la dimension numérique des crimes atroces commis aujourd’hui.

Bien que la poursuite des dirigeants du secteur technologique pour complicité dans ces crimes soit une entreprise complexe et de longue haleine, semée d’embûches en matière de preuves, d’intention et de compétence, elle offre une voie qui mérite d’être explorée.

L’avis consultatif rendu en 2024 par la Cour internationale de justice sur l’illégalité de l’occupation israélienne indique clairement que les États ont l’obligation de s’abstenir de soutenir ou de maintenir cette présence illégale. Cet avis ouvre la voie à des contestations judiciaires non seulement contre les gouvernements qui entretiennent des liens économiques ou militaires avec Israël, mais aussi contre les entreprises domiciliées dans ces États dont les technologies facilitent concrètement le nettoyage ethnique et l’occupation.

Les acteurs de la société civile devraient utiliser cet avis pour faire pression sur les États afin qu’ils réglementent l’implication de ces entreprises, engager des poursuites judiciaires lorsque les entreprises ne se conforment pas à la réglementation et plaider en faveur du désinvestissement des entreprises qui continuent à fournir des infrastructures numériques au régime israélien.

Troisièmement, il est essentiel de renforcer les alliances entre les défenseurs des droits et les travailleurs du secteur technologique. Ces collaborations peuvent mettre au jour des contrats militaires opaques, renforcer la collecte de preuves et amplifier la dissidence interne au sein de l’industrie.

En reliant les stratégies juridiques à la résistance menée par les travailleurs, ces alliances peuvent à la fois remettre en cause la complicité inhérente aux infrastructures numériques de la guerre et de l’apartheid et jeter les bases de futurs mécanismes de responsabilisation.

Pour conclure, la mise en place de mécanismes clairs de responsabilisation pour l’IA militaire nécessite que les gouvernements, les régulateurs et la société civile collaborent pour combler les lacunes juridiques et remodeler le paysage technologique mondial afin de faire respecter le droit international.

La responsabilisation des grandes entreprises technologiques est particulièrement urgente compte tenu de l’utilisation croissante de l’IA dans la guerre et, par conséquent, de l’intensification, de l’accélération et de l’opacité des forces meurtrières pilotées par l’IA.

Dans le cas de la Palestine, les technologies d’IA fournies par les grandes entreprises technologiques ont joué un rôle central en permettant au régime israélien de mener une campagne génocidaire à Gaza avec une ampleur et une cruauté sans précédent.

La responsabilisation de ces entreprises est donc un élément central de la recherche plus large de justice et de responsabilité pour les crimes de guerre commis par Israël.

26 octobre 2025 – Al-Shabaka – Traduction : Chronique de Palestine – Lotfallah

Soyez le premier à commenter

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée.


*


Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.