Customize this title in french L’outil d’IA d’Israël « Où est papa ? Frappe des suspects du Hamas au domicile familial : rapport

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

Alors que les pertes civiles continuent d’augmenter dans la bande de Gaza déchirée par la guerre, les informations faisant état de l’utilisation par Israël de l’intelligence artificielle (IA) pour cibler les militants du Hamas font l’objet d’un examen de plus en plus minutieux.

Un article publié plus tôt ce mois-ci par les médias israéliens +972 Magazine et Local Call indiquait que les forces israéliennes s’étaient jusqu’à présent fortement appuyées sur deux outils d’IA dans le conflit : « Lavender » et « Where’s Daddy ».

Tandis que « Lavender » identifie les militants présumés du Hamas et du Jihad islamique palestinien (JIP) ainsi que leurs maisons, « Where’s Daddy » suit ces cibles et informe les forces israéliennes de leur retour chez elles, selon le rapport, qui cite six agents des renseignements israéliens qui avaient utilisé des systèmes d’IA. pour les opérations à Gaza, notamment « Où est papa ?

« Nous n’avions pas envie de tuer [Hamas] agents uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou étaient engagés dans une activité militaire », a déclaré l’un des officiers au +972 et Local Call.

« Au contraire, Tsahal les a bombardés dans les maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations », ont-ils ajouté.

Une autre source a déclaré aux publications que cette méthode avait souvent entraîné la mort de civils, les qualifiant de « dommages collatéraux ».

Les Forces de défense israéliennes (FDI) ont déclaré dans un communiqué : «L’armée israélienne rejette catégoriquement toute affirmation concernant toute politique visant à tuer des dizaines de milliers de personnes dans leurs maisons. »

Identification erronée

Le système « Lavande » est également connu pour identifier parfois des cibles ayant des liens ténus ou inexistants avec des groupes militants, ont indiqué les sources, ajoutant qu’il a commis des « erreurs » dans environ 10 % des cas.


La fumée s'élève après les bombardements israéliens dans la ville de Khan Younis, dans le sud de la bande de Gaza, le 14 février 2024.

La fumée s’élève après les bombardements israéliens dans la ville de Khan Younis, dans le sud de la bande de Gaza, le 14 février 2024.

Agence de presse Xinhua (Getty Images)



Ces identifications erronées incluaient des personnes portant le même nom ou surnom qu’un militant ou qui étaient en possession d’appareils précédemment utilisés par un militant, ont ajouté les sources.

Brianna Rosen, chercheuse principale à Just Security et chargée de recherche en stratégie et politique à la Blavatnik School of Government de l’Université d’Oxford, estime que la marge d’erreur est encore plus élevée.

« Les critères de ciblage permissifs d’Israël et les erreurs dans la production de l’IA aggravent probablement » les risques pour les civils, a déclaré Rosen, ajoutant que ces risques pour les civils augmentent « à mesure que la guerre s’accélère ».

« La vérification des cibles et les autres obligations de précaution requises par le droit international sont donc beaucoup plus difficiles à remplir, ce qui implique que davantage de civils seront mal identifiés et tués par erreur », a-t-elle poursuivi.

Les officiers ont également déclaré au magazine +972 et au rapport Local Call que l’intervention humaine dans le processus d’identification de la cible était minime, l’un d’entre eux affirmant qu’ils avaient essentiellement « tamponné » les choix de la machine après un peu plus de « 20 secondes » de réflexion – ce qui était en grande partie pour doubler. vérifiez que la cible est un homme.

Heidy Khlaaf, qui a travaillé en tant que directrice de l’ingénierie de l’assurance de l’apprentissage automatique au sein de la société de cybersécurité Trail of Bits, a déclaré à Politico que « l’automatisation imprécise et biaisée des cibles n’est vraiment pas loin d’un ciblage aveugle ».

Des bombes « idiotes »

L’armée israélienne tente d’économiser ses munitions les plus coûteuses en utilisant des bombes « stupides » non guidées contre les jeunes membres du Hamas, selon les sources.

CNN a rapporté en décembre que près de la moitié des munitions israéliennes utilisées pour frapper Gaza étaient des bombes « stupides », citant un rapport du Bureau du directeur du renseignement national.

Le président Joe Biden, bien qu’il ait continué à envoyer des armes à Israël, avait alors averti le pays qu’il risquait de perdre le soutien international en raison de ses « bombardements aveugles » sur la bande de Gaza.

Bilan des morts civiles

L’utilisation de telles bombes, combinée aux méthodes d’identification des cibles apparemment non interventionnistes d’Israël, a vu le nombre de victimes civiles grimper à Gaza.

Certains se demandent si Israël a adhéré au droit international et au principe de proportionnalité, qui vise à interdire les attaques « susceptibles de causer accidentellement des pertes de vies civiles, des blessures à des civils, des dommages à des biens de caractère civil, ou une combinaison de ces éléments ». , ce qui serait excessif au regard de l’avantage militaire concret et direct attendu. »

Brianna Rosen a déclaré à BI qu’Israël avait adopté une « interprétation très permissive » du droit international et de la « nécessité de prendre des précautions ».

Un officier a déclaré à +972 Magazine et Local Call que « dans la pratique, le principe de proportionnalité n’existait pas ».

« Toute personne ayant porté un uniforme du Hamas au cours des deux dernières années pourrait être bombardée à 20 [civilians killed as] des dommages collatéraux, même sans autorisation spéciale », ont-ils ajouté.

Réaction de Tsahal


Des chars israéliens se déplacent près de la frontière de Gaza alors que l'armée israélienne déploie des véhicules militaires autour de la bande de Gaza, en Israël, le 12 octobre 2023.

Des chars israéliens se déplacent près de la frontière de Gaza alors que l’armée israélienne déploie des véhicules militaires autour de la bande de Gaza, en Israël, le 12 octobre 2023.

Anadolu (Getty Images)



Dans une précédente déclaration à Business Insider, des représentants de Tsahal ont déclaré que le rapport était « trompeur et contenait de nombreuses fausses allégations ».

« Les analystes doivent mener des examens indépendants, au cours desquels ils vérifient que les cibles identifiées répondent aux définitions pertinentes conformément au droit international et aux restrictions supplémentaires stipulées dans les directives de Tsahal », ont-ils ajouté.

L’armée israélienne a également publié une déclaration en ligne à la suite de l’enquête, disant : « Contrairement aux affirmations, l’armée israélienne n’utilise pas de système d’intelligence artificielle qui identifie les terroristes ou tente de prédire si une personne est un terroriste. »

Il a également noté que « Tsahal déploie divers efforts pour réduire les dommages causés aux civils dans la mesure du possible dans les circonstances opérationnelles régnant au moment de la frappe ».

Brianna Rosen a qualifié la déclaration de Tsahal d’« anodine », ajoutant qu’elle « ne disait pas grand-chose du tout ».

Même si le magazine +972 et l’appel local peuvent éclairer la manière dont Israël met en œuvre l’IA dans ses opérations, beaucoup de choses restent inconnues.

Sarah Yager, directrice de Human Rights Watch à Washington, a déclaré à Politico qu’en termes de proportionnalité et d’utilisation de la technologie par Israël, « nous n’en avons tout simplement aucune idée. C’est comme une boîte noire ».

Depuis les attaques du Hamas du 7 octobre, qui ont tué environ 1.200 personnes en Israël et pris en otage environ 240 autres, le ministère de la Santé de Gaza a déclaré que plus de 32.000 Palestiniens avaient été tués dans le territoire.

Source link -57