Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Appuyez sur play pour écouter cet article Exprimé par l’intelligence artificielle. LONDRES – Alors qu’Elon Musk exhortait l’humanité à maîtriser l’intelligence artificielle, à Londres, les ministres saluaient ses avantages. La nouvelle chef de la technologie de Rishi Sunak, Michelle Donelan, a dévoilé mercredi le plan tant attendu du gouvernement pour réglementer l’IA, insistant sur le fait qu’une approche brutale n’est pas à l’ordre du jour. Au cœur de l’argumentation favorable à l’innovation se trouve un plan visant à donner aux régulateurs existants un an pour publier des « conseils pratiques » pour l’utilisation sûre de l’apprentissage automatique dans leurs secteurs, sur la base de principes généraux tels que la sécurité, la transparence, l’équité et la responsabilité. Mais aucune nouvelle législation ou aucun organisme de réglementation n’est prévu pour cette technologie en plein essor. Cela contraste avec la stratégie poursuivie à Bruxelles, où les législateurs font adopter un règlement plus détaillé, soutenu par un nouveau régime de responsabilité. Donelan insiste sur le fait que son « approche de bon sens et axée sur les résultats » permettra au Royaume-Uni « d’être le meilleur endroit au monde pour construire, tester et utiliser la technologie de l’IA ». Le compte Twitter de son département a été inondé de contenu faisant la promotion des avantages de l’IA. « Vous pensez que l’IA est effrayante ? Ça n’a pas à l’être ! un de ses messages déclaré mercredi. Mais certains experts craignent que les décideurs politiques britanniques, comme leurs homologues du monde entier, n’aient peut-être pas saisi l’ampleur du défi, et pensent qu’il est plus urgent de comprendre et de contrôler la manière dont la technologie en développement rapide est utilisée. « Le calendrier du gouvernement d’un an ou plus pour la mise en œuvre laissera les risques non résolus au moment où les systèmes d’IA sont intégrés au rythme de notre vie quotidienne, des moteurs de recherche aux logiciels de suite bureautique », Michael Birtwistle, directeur associé des données et des lois et politiques sur l’IA à l’Institut Ada Lovelace, a déclaré. Il présente des « lacunes importantes », qui pourraient laisser des dommages « non résolus », a-t-il averti. « Nous ne devrions pas risquer d’inventer une explosion nucléaire avant d’avoir appris à la garder dans la coque », a averti Connor Axiotes, chercheur au groupe de réflexion sur le marché libre de l’Institut Adam Smith. Elon patauge dans Quelques heures avant la mise en ligne du livre blanc britannique, outre-Atlantique, une lettre ouverte appelant les laboratoires à suspendre immédiatement les systèmes d’IA de formation au travail pour qu’ils soient encore plus puissants pendant au moins six mois a été mise en ligne. Il a été signé par des experts en intelligence artificielle et des dirigeants de l’industrie, dont Tesla et le patron de Twitter, Elon Musk. Des chercheurs de DeepMind, propriété d’Alphabet, et le célèbre informaticien canadien Yoshua Bengio étaient également signataires. La lettre appelait les développeurs d’IA à travailler avec les décideurs politiques pour « accélérer considérablement le développement de systèmes de gouvernance d’IA robustes », qui devraient « au minimum inclure : de nouvelles autorités de réglementation compétentes dédiées à l’IA ». Les laboratoires d’IA sont enfermés dans « une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », avertit la lettre. La nouvelle chef de la technologie de Rishi Sunak, Michelle Donelan, a dévoilé le plan du gouvernement pour réglementer l’IA, insistant sur le fait qu’une approche autoritaire n’est pas à l’ordre du jour | Léon Neal/Getty Images De retour au Royaume-Uni, Ellen Judson, responsable du Centre d’analyse des médias sociaux du groupe de réflexion Demos, a averti que l’approche britannique consistant à « énoncer uniquement des principes » n’était « pas suffisante ». « Sans le mordant des obligations légales, il s’agit d’une approche qui se traduira par un patchwork d’orientations réglementaires qui ne feront pas grand-chose pour modifier fondamentalement les incitations qui conduisent à des utilisations risquées et contraires à l’éthique de l’IA », a-t-elle déclaré. Mais le ministre de la Technologie, Paul Scully, a déclaré à la BBC qu’il n’était « pas sûr » de suspendre les développements ultérieurs de l’IA. Il a déclaré que les propositions du gouvernement devraient « dissiper toutes ces inquiétudes d’Elon Musk et de ces autres personnalités ». «Ce que nous essayons de faire, c’est d’avoir une situation où nous pouvons penser en tant que gouvernement et penser en tant que secteur à travers les risques mais aussi les avantages de l’IA – et nous assurer que nous pouvons avoir un cadre autour de cela pour nous protéger des méfaits , » il a dit. Longue période à venir Les inquiétudes de l’industrie concernant la capacité du Royaume-Uni à élaborer des politiques dans leur domaine sont contrées par certains de ceux qui ont travaillé en étroite collaboration avec le gouvernement britannique sur la politique de l’IA. Son approche de l’élaboration des politiques a été « très consultative », selon Sue Daley, directrice de l’organisme industriel TechUK, qui suit de près les développements de l’IA depuis plusieurs années. En 2018, les ministres ont créé le Centre pour l’éthique et l’innovation des données et le Bureau de l’IA, travaillant dans les départements numériques et commerciaux du gouvernement jusqu’à ce qu’il soit transféré au nouveau Département de la science, de l’innovation et de la technologie plus tôt cette année. L’Office for AI est doté d’une « bonne équipe de personnes », a déclaré Daly, tout en soulignant le travail que les régulateurs britanniques réputés, comme l’Information Commissioner’s Office, avaient fait sur l’intelligence artificielle « depuis un certain temps ». Greg Clark, le président conservateur de la commission parlementaire des sciences et de la technologie, a déclaré qu’il pensait que le gouvernement avait raison de « réfléchir soigneusement ». L’ancien secrétaire aux affaires a souligné que c’était son propre point de vue plutôt que celui du comité. « Il y a un danger à se précipiter pour adopter précipitamment des réglementations étendues qui n’ont pas été correctement réfléchies et testées sous tension, et cela pourrait s’avérer être une gêne pour nous et pourrait entraver les applications positives de l’IA », a-t-il ajouté. Mais il a déclaré que le gouvernement devrait « passer rapidement » du livre blanc au cadre réglementaire « au cours des mois à venir ». Vue publique En dehors de Westminster, les implications potentielles de la technologie ne sont pas encore pleinement réalisées, suggèrent des enquêtes. Public First, un cabinet de conseil basé à Westminster, qui a mené une série de sondages sur les attitudes du public à l’égard de l’intelligence artificielle au début du mois, a constaté qu’au-delà des craintes concernant le chômage, les gens étaient plutôt positifs à propos de l’IA. « Cela est certainement insignifiant par rapport aux autres choses qui les inquiètent comme la perspective d’un conflit armé, ou même l’impact du changement climatique », a déclaré James Frayne, un partenaire fondateur de Public First, qui a mené le sondage. « Cela tombe en bas de la liste des priorités », a-t-il déclaré. Mais il a averti que cela pourrait changer. « On suppose qu’à un moment donné, il y aura un événement qui les choque, les secoue et les fait penser très différemment à l’IA », a-t-il ajouté. « À ce moment-là, il y aura de grandes demandes pour que le gouvernement s’assure qu’il est partout là en termes de réglementation. Ils s’attendront à ce que le gouvernement non seulement agisse très rapidement, mais qu’il ait déjà fait des progrès significatifs », a-t-il déclaré. pl_facebook_pixel_args = []; pl_facebook_pixel_args.userAgent = navigator.userAgent; pl_facebook_pixel_args.language = navigator.language; if ( document.referrer.indexOf( document.domain ) < 0 ) pl_facebook_pixel_args.referrer = document.referrer; !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window, document,'script', 'https://connect.facebook.net/en_US/fbevents.js'); fbq( 'consent', 'revoke' ); fbq( 'init', "394368290733607" ); fbq( 'track', 'PageView', pl_facebook_pixel_args ); if ( typeof window.__tcfapi !== 'undefined' ) { window.__tcfapi( 'addEventListener', 2, function( tcData, listenerSuccess ) { if ( listenerSuccess ) if ( tcData.eventStatus === 'useractioncomplete' }); }
Source link -57