Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Des experts discutent des dilemmes éthiques et juridiques posés par les avancées rapides des technologies de champ de bataille telles que l’IA, l’apprentissage automatique et la robotique.
Pour l’Ukraine, dans les mois qui ont suivi l’invasion totale de la Russie, le drone est peut-être devenu le symbole du proverbe selon lequel la nécessité est la mère de l’invention, montrant que l’innovation et l’intelligence peuvent créer des obstacles pour les adversaires les plus féroces.
Poussant ce concept un peu plus loin, Kiev a récemment lancé BRAVE 1, un hub technologique dédié à innover dans la technologie de la guerre pour s’assurer qu’il sera mieux préparé à toute menace future sur son territoire.
Les progrès de l’intelligence artificielle, de l’apprentissage automatique et de la robotique permettent aux scientifiques et aux ingénieurs de réimaginer comment les batailles pourraient être menées dans un avenir proche.
Mais les experts disent que bon nombre des nouvelles technologies ont créé de nouveaux problèmes éthiques et dimensions morales à traiter, dont certains sont déjà rencontrés sur le champ de bataille.
Euronews a discuté de ces questions avec deux universitaires de premier plan dans le domaine : Cesar Pintado du Campus international espagnol pour la sécurité et la défense (CISDE) ; et Anna Nadibaidze, doctorante au Centre d’études sur la guerre et au Département de sciences politiques et de gestion publique de l’Université du Danemark du Sud.
Alors, comment la relation entre soldat et cyber-arme a-t-elle évolué ?
« Il y a constamment des missions qui sont interrompues en raison de problèmes éthiques, juridiques et techniques. Ou simplement en raison de l’évolution du combat lui-même », a déclaré le professeur Pintado.
« Avec un opérateur humain, il y a toujours la possibilité en théorie qu’il puisse faire preuve de compassion, d’empathie et de jugement humain. Un système formé sur des données et préprogrammé pour faire quelque chose n’a pas cette option.
Les guerres modernes sont censées être menées conformément aux lois et conventions internationalement reconnues. L’une des préoccupations est que les systèmes d’armes automatisés pourraient ne pas être suffisamment adaptés aux définitions juridiques dans un scénario de combat.
En outre, le professeur Pintado a déclaré qu’il existe également des situations dans lesquelles une cyber-arme n’aurait pas la même capacité qu’un humain à mesurer les conséquences collatérales potentielles.
« Et si ce modèle de char est également utilisé par des forces alliées, ou s’il se trouve momentanément à côté de troupes alliées ou à proximité de zones telles qu’un temple ou une école ? »
On craint également que les gouvernements et les individus n’abordent cette nouvelle dimension morale militaire de la mauvaise manière.
« Cette idée que les soi-disant robots tueurs acquièrent leur propre conscience et apparaissent sur le champ de bataille, c’est quelque chose de futuriste, ça vient de la science-fiction et des films. Ce n’est pas vraiment l’objet du débat », a déclaré Anna Nadibaidze.
Selon elle, parallèlement aux investissements dans la technologie, les gouvernements devraient également tenir compte du cadre réglementaire et juridique des champs de bataille du futur.
« Il est urgent de formuler des règles juridiquement contraignantes et de relever ces défis car les réglementations internationales actuelles et le droit international humanitaire ne suffisent pas à les relever », a-t-elle averti.