Customize this title in frenchLa menace croissante de l’IA « changera la guerre autant que la bombe atomique », prévient le président du comité de la défense

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words La menace croissante de l’IA « changera la guerre autant que la bombe atomique », prévient le président du comité de la défenseLe député conservateur Tobias Ellwood a déclaré que l’IA « modifierait le champ de bataille de manière existentielle » L’IA a la « capacité de remodeler totalement les règles de la guerre », a déclaré Ellwood Par Jim Norton Publié : 01h09 BST, le 19 juin 2023 | Mis à jour: 01h50 BST, 19 juin 2023 L’intelligence artificielle changera la guerre autant que la bombe atomique, a averti le président du comité de la défense.Tobias Ellwood a déclaré que le monde disposait de moins de deux ans pour réglementer cette technologie dangereuse avant qu’elle ne devienne un « problème de sécurité que nous ne pouvons plus contrôler ».Le député conservateur a décrit l’IA comme une boîte de Pandore qui « modifierait le champ de bataille de manière existentielle » et que le premier à l’exploiter obtiendrait un avantage critique.Pourtant, malgré la montée des tensions mondiales, il a déclaré que le budget de la défense du Royaume-Uni n’était pas passé de 2,2% du PIB.Écrivant dans le magazine politique The House, il a déclaré: «L’IA est le multiplicateur de force ultime capable de remodeler totalement les règles de la guerre. Le président du comité de la défense, Tobias Ellwood (photo), a déclaré que l’IA « modifierait le champ de bataille de manière existentielle » « Bien sûr, l’innovation technologique a pendant des siècles renforcé le caractère du conflit », a-t-il ajouté. « L’utilisation du Gatling Gun pendant la guerre civile aux États-Unis, les chars à la bataille de Cambrai, les porte-avions à Pearl Harbour et, bien sûr, les bombes nucléaires pendant la Seconde Guerre mondiale ont tous ajouté de nouvelles dimensions à la guerre. »Il a écrit: « Parmi ces exemples, seul le dernier a été jugé si existentiellement dangereux pour inciter le président américain Dwight D Eisenhower à appeler à la réglementation vérifiable immédiate de l’énergie nucléaire dans son discours de 1953 Atoms for Peace ». Nous devons maintenant faire de même avec l’IA.Ses commentaires interviennent après que le ministre de la Sécurité, Tom Tugendhat, a déclaré que l’IA allait trop vite pour que les « meilleurs greffiers » du Parlement puissent la réglementer.Décrivant comment les batailles seraient menées à l’avenir, M. Ellwood a parlé d’armées s’appuyant sur des essaims de drones sans pilote pour tuer les forces ennemies, qui prendraient elles-mêmes des décisions.Il a souligné un incident aux États-Unis au cours duquel un drone contrôlé par l’IA a « tué » son maître-chien lors d’un test simulé. Le ministre de la Sécurité, Tom Tugendhat (photo), a déclaré que l’IA allait trop vite pour que les « meilleurs greffiers » du Parlement puissent la réglementerDans son article, il a déclaré que la technologie éliminerait le « brouillard de la guerre » en analysant instantanément des masses de données pour révéler la force et les positions de l’ennemi. Et, soulignant à quel point les tensions montaient entre les superpuissances, il a averti que l’IA serait utilisée pour des campagnes de désinformation à grande échelle et utilisée pour cibler les communautés afin de semer un maximum de discorde.M. Ellwood a conclu: « En termes simples, l’apprentissage automatique et l’autonomie sont sur le point de modifier existentiellement le champ de bataille et celui qui y arrivera en premier aura un avantage critique. »La semaine dernière, Rishi Sunak a exposé sa vision pour que le Royaume-Uni devienne le foyer de la réglementation de l’IA. Il a également évoqué le danger que les scientifiques créent sans le savoir des machines capables de plus que ce qu’ils avaient prévu, ce qui, selon lui, pourrait entraîner « des risques très importants que certains qualifieraient d’existentiels, d’autres diraient [are] aux côtés de choses comme les pandémies ou la guerre nucléaire ».Le gouvernement a annoncé que le Royaume-Uni accueillera un sommet majeur sur la question cet automne, et hier, il a annoncé que l’investisseur technologique et spécialiste de l’IA Ian Hogarth sera président de la Foundation Model Taskforce, qui dirigera la recherche sur la sécurité de l’IA.Cela a été basé sur le groupe de travail sur les vaccins dans la pandémie de Covid et est soutenu par un financement gouvernemental initial de 100 millions de livres sterling. Partagez ou commentez cet article :

Source link -57