Il est urgent d’enquêter sur le rôle des entreprises de médias sociaux dans le meurtre des civils de Gaza

6 janvier 2024 - Des manifestants participent à une veillée et à une manifestation à Paris en solidarité avec le peuple palestinien et pour exiger un cessez-le-feu immédiat à Gaza. La solidarité internationale avec le peuple palestinien s'est accrue après plusieurs mois de bombardements incessants par les forces coloniales israéliennes, menés avec le soutien de la plupart des gouvernements occidentaux. Selon une enquête d'un média français, plus de 4 000 soldats franco-israéliens combattent actuellement à Gaza. En moyenne, la France vend chaque année pour environ 20 millions d'euros d'armes et de composants militaires au régime colonial israélien - Photo : Anne Paq / Activestills

Par EuroMed Monitor

Le rôle des grandes entreprises technologiques et des plateformes internationales de médias sociaux dans le meurtre de civils palestiniens pendant la guerre génocidaire d’Israël contre la bande de Gaza, qui dure depuis le 7 octobre 2023, doit faire l’objet d’une enquête.

Ces entreprises doivent être tenues pour responsables s’il s’avère qu’elles sont complices ou qu’elles n’ont pas pris les précautions nécessaires pour empêcher l’accès aux informations des utilisateurs et leur exploitation. Elles doivent veiller à ce que leurs services ne soient pas utilisés dans les zones de conflit et à ce que la vie privée de leurs utilisateurs soit respectée.

Des rapports fréquents indiquent qu’Israël utilise un certain nombre de systèmes technologiques basés sur l’intelligence artificielle, notamment Where’s Daddy, Fire Factory, Gospel et Lavender, pour traquer et surveiller illégalement les Palestiniens.

Ces systèmes sont capables d’identifier des « suspects » potentiels et de les classer comme cibles légitimes sur la base d’informations potentiellement pertinentes qui ne sont généralement pas liées au lieu ou à l’individu en question, en recherchant des similitudes et des modèles parmi tous les habitants de la bande de Gaza, en particulier les hommes, et parmi les membres des factions armées.

Des études ont montré que, bien qu’elle soit consciente de la marge d’erreur importante due à la nature de ces systèmes opérationnels et à leur incapacité à fournir des informations précises – en particulier en ce qui concerne la localisation des personnes placées sur la liste de ciblage en temps réel – l’armée israélienne ne vérifie généralement pas l’exactitude des informations fournies par ces systèmes.

Par exemple, l’armée israélienne utilise largement le système Lavender pour identifier les suspects dans la bande de Gaza avant de les prendre pour cible ; ce système fait intentionnellement un grand nombre de victimes civiles.

« Des cibles à l’infini » : les Israéliens utilisent le système Lavender dans le génocide à Gaza

Le système Lavender utilise la logique des probabilités, qui est une caractéristique distinctive des algorithmes d’apprentissage automatique. L’algorithme recherche dans de vastes ensembles de données des schémas correspondant au comportement des combattants, et la quantité et la qualité des données déterminent le degré de réussite de l’algorithme dans la recherche de ces schémas.

Il recommande ensuite des cibles en fonction des probabilités.

Des sources militaires et de renseignement israéliennes ont reconnu avoir attaqué des cibles potentielles sans tenir compte du principe de proportionnalité ou des dommages collatéraux, alors que des inquiétudes ont été exprimées quant à la dépendance possible du Lavendersystem à l’égard du suivi des comptes de médias sociaux.

Ces soupçons sont étayés par un livre (The Human Machine Team) écrit par l’actuel commandant de l’unité d’élite 8200 de l’armée israélienne, qui donne des instructions sur la manière de créer une « machine à cibler » semblable au système d’intelligence artificielle Lavender.

Le livre contient également des informations sur des centaines de signaux qui peuvent augmenter la gravité de la classification d’une personne, comme le fait de changer de téléphone portable tous les quelques mois, de changer fréquemment d’adresse, ou même de rejoindre le même groupe sur l’application WhatsApp de Meta en tant que « combattant ».

En outre, il a été récemment révélé que Google et Israël collaborent à plusieurs initiatives technologiques, dont le projet Nimbus, qui fournit à l’armée israélienne des outils permettant de renforcer la surveillance et la collecte illégale de données sur les Palestiniens, élargissant ainsi les politiques israéliennes de déni et de persécution, ainsi que d’autres crimes à l’encontre du peuple palestinien.

Ce projet en particulier a suscité d’importantes critiques en matière de droits de l’homme, poussant des dizaines d’employés de l’entreprise à protester et à démissionner, et d’autres à être licenciés en raison de leurs protestations.

L’armée israélienne utilise également la fonction de reconnaissance faciale de Google Photos pour surveiller les civils palestiniens dans la bande de Gaza et dresser une « liste de cibles ». Elle rassemble autant d’images que possible de l’événement du 7 octobre, connu sous le nom de « Déluge d’Al-Aqsa », au cours duquel les visages des Palestiniens étaient visibles alors qu’ils prenaient d’assaut la barrière de séparation et pénétraient dans les colonies de peuplement.

Cette technologie est ensuite utilisée pour trier les photos et stocker les images de visages, ce qui a entraîné l’arrestation récente de milliers de Palestiniens de la bande de Gaza, en violation des règles explicites de l’entreprise et des principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme.

L’équipe de terrain d’Euro-Med Monitor a recueilli des témoignages de civils palestiniens qui, en raison de leur activité sur les médias sociaux, ont été désignés comme suspects par Israël, bien que ce dernier n’ait entrepris aucune action militaire.

Un jeune Palestinien qui a demandé à être identifié uniquement comme « A.F. » pour des raisons de sécurité, a par exemple été gravement blessé lors d’un bombardement israélien qui a visé une maison résidentielle dans le quartier Al-Sabra de la ville de Gaza.

La maison a été visée peu après qu’A.F. a posté un clip vidéo sur Instagram, qui appartient à Meta, dans lequel il plaisantait en disant qu’il était en « mission de reconnaissance sur le terrain ».

Les politiques répressives et génocidaires israéliennes préfigurent le monde de demain

Son parent a déclaré à Euro-Med Monitor qu’A.F. avait simplement tenté d’imiter les journalistes lorsqu’il avait posté le bref clip vidéo sur son compte Instagram personnel. Soudain, cependant, A.F. a été pris pour cible par un avion de reconnaissance israélien alors qu’il se trouvait sur le toit de la maison.

Le 16 avril, un autre bombardement israélien a coûté la vie à six jeunes Palestiniens qui s’étaient rassemblés pour accéder à des services Internet. L’une des victimes utilisait une discussion de groupe sur WhatsApp – une filiale de Meta – pour donner des nouvelles du quartier Sheikh Radwan de la ville de Gaza.

Le parent du jeune homme décédé, qui a demandé l’anonymat pour des raisons de sécurité, a informé Euro-Med Monitor que la victime se trouvait près du point d’accès à Internet lorsque le groupe a été directement touché par un missile provenant d’un avion de reconnaissance israélien. La victime partageait volontairement des informations sur les attaques israéliennes et la situation humanitaire à Sheikh Radwan dans des groupes familiaux et publics sur l’application WhatsApp.

La stratégie secrète de l’armée israélienne consistant à lancer des attaques aériennes et d’artillerie extrêmement dommageables en exploitant des données qui ne répondent pas aux normes minimales d’évaluation précise des cibles – qu’il s’agisse d’enregistrements de téléphones portables, de photos, de contacts sur les médias sociaux ou de schémas de communication, le tout dans le contexte plus large d’un programme d’assassinat incroyablement désordonné – est profondément préoccupante.

Les preuves présentées par les experts mondiaux en technologie indiquent un lien probable entre l’utilisation par l’armée israélienne du système Lavender – qui a été utilisé pour identifier des cibles lors des attaques militaires d’Israël sur la bande de Gaza – et l’entreprise Meta. Cela signifie que l’armée israélienne a pu cibler des personnes simplement parce qu’elles faisaient partie de groupes WhatsApp avec d’autres personnes figurant sur la liste des suspects.

En outre, les experts se demandent comment Israël a pu obtenir ces données sans que Meta ne les divulgue.

Auparavant, le journal britannique The Guardian a révélé l’utilisation par Israël de l’intelligence artificielle (Lavender) pour assassiner un grand nombre de civils palestiniens. L’armée israélienne a utilisé des systèmes d’apprentissage automatique pour identifier les combattants potentiels « de rang inférieur », dans le but de les cibler sans tenir compte du niveau de dommages collatéraux admissibles.

Une « marge de tolérance » a été adoptée, autorisant la mort de 20 civils pour chaque cible renversée ; lorsqu’il s’agissait de « combattants de haut rang », cette marge de tolérance autorisait la mort de 100 personnes pour chaque combattant.

Google, Meta et d’autres entreprises de technologie et de médias sociaux pourraient avoir été de connivence avec Israël dans des crimes et des violations contre le peuple palestinien, y compris des exécutions sommaires, au mépris du droit international et des engagements déclarés de ces entreprises en matière de droits de l’homme.

Les réseaux sociaux ne devraient pas divulguer ce type de données personnelles sur leurs utilisateurs ni prendre part au génocide israélien contre les civils palestiniens dans la bande de Gaza. Une enquête internationale est nécessaire pour garantir que les responsables rendent des comptes et que les victimes obtiennent justice.

Le milliard de dollars qui fait de Google et Amazon des participants actifs à l’occupation de la Palestine

Le parti pris manifeste et évident de Meta pour Israël, sa suppression substantielle des contenus soutenant la cause palestinienne et sa politique d’étouffement des critiques des crimes d’Israël – y compris les rumeurs de liens étroits entre les hauts responsables de Meta et Israël – suggèrent l’implication plausible de l’entreprise dans le massacre de civils palestiniens.

Compte tenu des risques liés à l’absence de mesures raisonnables pour démontrer que l’objectif est légitime au regard du droit humanitaire international, les entreprises susmentionnées doivent s’engager pleinement à mettre fin à toute coopération avec l’armée israélienne et à ne plus fournir à Israël un accès aux données et aux informations qui violent les droits des Palestiniens et mettent leur vie en péril.

Le fait qu’Israël n’ait pas fait preuve de diligence raisonnable et n’ait pas pris en compte les droits de l’homme lorsqu’il utilise l’intelligence artificielle à des fins militaires, doit faire l’objet d’une enquête immédiate, de même que son non-respect du droit international et du droit humanitaire international.

Ces entreprises doivent répondre rapidement à toutes les informations qui circulent sur leur implication dans les crimes israéliens contre le peuple palestinien.

Des enquêtes sérieuses concernant leurs politiques et pratiques en matière de crimes israéliens et de violations des droits de l’homme doivent être ouvertes si nécessaire, et les entreprises doivent être tenues pour responsables s’il s’avère qu’elles sont complices ou qu’elles n’ont pas pris les précautions raisonnables pour empêcher l’exploitation des informations des utilisateurs à des fins criminelles.

21 avril 2024 – EuroMed Monitor – Traduction : Chronique de Palestine

Soyez le premier à commenter

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée.


*


Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.