Customize this title in french L’intelligence artificielle est très prometteuse – et périlleuse. Choisissons le bon chemin | Michel Osborne

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Jes derniers mois ont été de loin les plus excitants de mes 17 années de travail sur l’intelligence artificielle. Parmi de nombreuses autres avancées, ChatGPT d’OpenAI – un type d’IA connu sous le nom de grand modèle de langage – a battu des records en janvier pour devenir l’application grand public à la croissance la plus rapide de tous les temps, atteignant 100 millions d’utilisateurs en deux mois.

Personne ne sait avec certitude ce qui va se passer ensuite avec l’IA. Il se passe trop de choses, sur trop de fronts, derrière trop de portes closes. Cependant, nous savons que l’IA est désormais entre les mains du monde et, par conséquent, le monde semble susceptible d’être transformé.

Un tel potentiel de transformation est dû au fait que l’IA est une technologie polyvalente, à la fois adaptative et autonome, embouteillant une partie de la magie qui a conduit les humains à remodeler la Terre.

L’IA est l’une des rares technologies pratiques qui peuvent nous permettre de réorganiser nos économies en gros pour atteindre Net Zero. Par exemple, des collaborateurs et moi avons utilisé l’IA pour aider à prévoir les sources d’énergie renouvelables intermittentes (comme le solaire, la marée et le vent), pour optimiser le placement des chargeurs de véhicules électriques pour un accès équitable, et pour mieux gérer et contrôler les batteries.

Même si l’IA conduit à de grands gains économiques, certains peuvent être perdants. L’IA est actuellement utilisée pour automatiser une partie du travail des rédacteurs, des ingénieurs en logiciel et même des mannequins (une profession que l’économiste Carl Frey et moi avons estimée en 2013 comme ayant une probabilité d’automatisation de 98 %).

Un article d’OpenAI a estimé que près d’un travailleur américain sur cinq pourrait voir la moitié de ses tâches devenir automatisables par de grands modèles de langage. Bien sûr, l’IA est également susceptible de créer des emplois, mais de nombreux travailleurs peuvent encore voir une précarité durable et des réductions de salaire – par exemple, les chauffeurs de taxi à Londres ont subi des réductions de salaire d’environ 10 % après l’introduction d’Uber.

L’IA offre également de nouveaux outils de propagande inquiétants. Selon Amnesty International, les algorithmes de Meta, en promouvant le discours de haine, ont substantiellement contribué aux atrocités perpétrées par l’armée birmane contre le peuple Rohingya en 2017. Nos démocraties peuvent-elles résister à des torrents de désinformation ciblée ?

Actuellement, l’IA est impénétrable, indigne de confiance et difficile à diriger – des défauts qui ont causé et causeront des dommages. L’IA a déjà conduit à des arrestations injustifiées (comme celle de Michael Williams, faussement impliqué par un programme de police de l’IA, ShotSpotter), à des algorithmes d’embauche sexistes (comme Amazon a été contraint de le concéder en 2018) et à la ruine de plusieurs milliers de vies (les Néerlandais l’administration fiscale a faussement accusé des milliers de personnes, souvent issues de minorités ethniques, de fraude aux prestations).

Peut-être le plus inquiétant, l’IA pourrait menacer notre survie en tant qu’espèce. Dans une enquête de 2022 (bien qu’avec un biais de sélection probable), 48% des chercheurs en IA pensaient que l’IA avait une chance significative (supérieure à 10%) de provoquer l’extinction des humains. Pour commencer, les progrès rapides et incertains de l’IA pourraient menacer l’équilibre de la paix mondiale. Par exemple, des drones sous-marins alimentés par l’IA qui s’avèrent capables de localiser des sous-marins nucléaires pourraient amener une puissance militaire à penser qu’elle pourrait lancer une première frappe nucléaire réussie.

Si vous pensez que l’IA ne pourra jamais être assez intelligente pour conquérir le monde, veuillez noter que le monde vient d’être conquis par un simple coronavirus. C’est-à-dire que suffisamment de personnes avaient leurs intérêts alignés juste assez (par exemple « je dois aller travailler avec cette toux ou sinon je ne pourrai pas nourrir ma famille ») avec ceux d’un agent pathogène manifestement nocif que nous avons laissé Sars -CoV-2 tue 20 millions de personnes et en désactive plusieurs dizaines de millions d’autres. Autrement dit, considérée comme une espèce envahissante, l’IA pourrait appauvrir ou même éliminer l’humanité en travaillant initialement au sein des institutions existantes.

Par exemple, une prise de contrôle de l’IA pourrait commencer par une multinationale utilisant ses données et son IA pour trouver des failles dans les règles, exploiter les travailleurs, tromper les consommateurs, gagner de l’influence politique, jusqu’à ce que le monde entier semble être sous l’emprise de sa machine bureaucratique. -comme le pouvoir.

Que pouvons-nous faire face à tous ces risques ? Eh bien, nous avons besoin de nouvelles stratégies de gouvernance audacieuses pour à la fois faire face aux risques et maximiser les avantages potentiels de l’IA – par exemple, nous voulons nous assurer que ce ne sont pas seulement les plus grandes entreprises qui peuvent supporter un fardeau réglementaire complexe. Les efforts actuels en matière de gouvernance de l’IA sont soit trop légers (comme l’approche réglementaire du Royaume-Uni), soit trop lents (comme la loi sur l’IA de l’UE, déjà en préparation depuis deux ans, huit fois plus longtemps qu’il a fallu à ChatGPT pour atteindre 100 millions d’utilisateurs).

Nous avons besoin de mécanismes de coopération internationale, pour développer des principes et des normes communs et empêcher une « course vers le bas ». Nous devons reconnaître que l’IA englobe de nombreuses technologies différentes et exige donc de nombreuses règles différentes. Surtout, bien que nous ne sachions peut-être pas exactement ce qui va se passer ensuite dans l’IA, nous devons commencer à prendre les mesures de précaution appropriées dès maintenant.

  • Michael Osborne est professeur d’apprentissage automatique à l’Université d’Oxford et co-fondateur de Mind Foundry

Source link -57