Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words Les leaders technologiques ont signé une lettre ouverte appelant à une pause dans les expériences d’IA, mais leurs avertissements ont-ils été pris en compte ? L’intelligence artificielle (IA) représente-t-elle un risque potentiellement existentiel pour l’humanité ? C’est le point de vue du Future of Life Institute (FLI), qui a publié une lettre ouverte il y a six mois, appelant à une « pause immédiate » dans les grandes expériences d’IA.PUBLICITÉLa lettre est intervenue au milieu d’un regain d’intérêt du public pour l’IA générative, alors que des applications comme ChatGPT et Midjourney montraient à quel point la technologie se rapproche de plus en plus de la reproduction des capacités humaines en matière d’écriture et d’art.Pour les signataires de la lettre – parmi lesquels Elon Musk, PDG de X, Tesla et SpaceX, Steve Wozniak, co-fondateur d’Apple et l’auteur Yuval Noah Harari – l’essor apparemment soudain de l’IA générative a nécessité le appeler à une pause. Des entreprises comme OpenAI de ChatGPT et Google ont été invitées à réfléchir aux « risques profonds pour la société et l’humanité » que leur technologie pourrait créer.Il est juste de dire que les principaux acteurs n’ont pas appuyé sur le bouton pause. Au lieu de cela, de plus en plus d’entreprises ont rejoint la course à l’IA générative avec leurs propres grands modèles de langage (LLM), Meta lançant Llama 2 et Anthropic présentant son rival ChatGPT Claude 2.Que les géants de la technologie aient ou non tenu compte de ces avertissements, la lettre du FLI a marqué une étape importante dans ce qui s’annonce comme l’année de l’IA.Mark Brakel, directeur des politiques de l’institut, a déclaré qu’ils ne s’attendaient pas à recevoir une réponse à la lettre qu’ils ont reçue, compte tenu de la large couverture médiatique et de l’urgence renouvelée au sein des gouvernements de déterminer quoi faire face aux progrès rapides de l’IA.Une audition au Sénat américain a cité la lettre, ce qui a donné lieu à une réponse formelle du Parlement européen. Brakel a déclaré à Euronews Next que le prochain sommet mondial sur la sécurité de l’IA à Bletchley Park au Royaume-Uni sera une bonne occasion pour les gouvernements d’intensifier leurs efforts là où les entreprises refusent de freiner.Selon lui, là où le mot à la mode était jusqu’à présent « IA générative », il pourrait bientôt devenir « IA agentique », où l’IA peut réellement prendre des décisions et agir de manière autonome.« Je pense que c’est peut-être la ligne de tendance que nous observons – et nous voyons également comment OpenAI a presque entièrement détruit l’Internet du texte. Nous commençons à considérer le scraping de vidéos, de podcasts et Spotify comme des sources alternatives de données, de vidéo et de voix », dit-il.Se rapprocher du désastre ?Brakel souligne que même si « nous sommes devenus un peu « l’organisation des lettres » », le FLI a été fondé en 2014 et a travaillé sur trois domaines majeurs de risque au niveau civilisationnel : l’IA, la biotechnologie et les armes nucléaires.PUBLICITÉSon site Web présente une vidéo particulièrement frappante, un récit fictif coûteux et coûteux sur une catastrophe mondiale causée par l’IA en 2032. Au milieu des tensions entre Taiwan et la Chine, le recours militaire à l’IA pour la prise de décision conduit à une guerre nucléaire totale. , la vidéo se terminant par la planète illuminée par des armes nucléaires.Brakel pense que nous nous sommes rapprochés de ce genre de scénario.« L’intégration de l’IA dans le commandement et le contrôle militaire continue de progresser, notamment auprès des grandes puissances. Cependant, je constate également une plus grande volonté de la part des États de réglementer, notamment en ce qui concerne l’autonomie des systèmes d’armes conventionnelles », a-t-il déclaré.L’année prochaine s’annonce également prometteuse pour la régulation de l’autonomie de systèmes tels que les drones, les sous-marins et les chars, dit-il. « J’espère que cela permettra également aux grandes puissances de parvenir à des accords pour éviter les accidents dans le domaine du commandement et du contrôle nucléaires, mais c’est un niveau plus sensible que les armes conventionnelles ».PUBLICITÉRèglement entrantMême si les grandes sociétés d’IA n’ont pas mis un terme à leurs expérimentations, leurs dirigeants ont ouvertement reconnu les risques profonds que l’IA et l’automatisation font peser sur l’humanité.Le PDG d’OpenAI, Sam Altman, a appelé les politiciens américains plus tôt cette année à établir une réglementation gouvernementale de l’IA, révélant que ses « pires craintes sont que nous… l’industrie technologique, causions un préjudice important au monde ». Cela pourrait se produire de « beaucoup de manières différentes », a-t-il ajouté. Il a appelé à la création d’une agence américaine ou mondiale qui accorderait des licences aux systèmes d’IA les plus puissants.L’Europe pourrait cependant s’avérer être le leader en matière de réglementation de l’IA, avec la loi historique de l’Union européenne sur l’IA en préparation.Les derniers détails sont encore en cours d’élaboration entre les institutions de l’Union, le Parlement européen votant massivement pour, avec 499 voix pour, 28 contre et 93 abstentions.En vertu de la loi, les systèmes d’IA seront classés en différents niveaux en fonction du niveau de risque, les types les plus risqués étant interdits et les systèmes à risque limité nécessitant certains niveaux de transparence et de surveillance.PUBLICITÉ« Nous sommes généralement très satisfaits de la loi », déclare Brakel. « Une chose que nous avons défendue dès le début, lorsque la loi a été proposée par la Commission, est qu’elle doit réglementer les systèmes basés sur le GPT. A l’époque on parlait de GPT3 plutôt que de 4 [OpenAI’s transformer models]mais le principe reste le même et nous sommes confrontés à de nombreux lobbying technologiques contre cela.« Le discours est le même aux États-Unis et dans l’UE : seuls les utilisateurs des systèmes d’IA, les déployeurs, savent dans quel contexte ils sont déployés ».Il donne l’exemple d’un hôpital utilisant un chatbot pour le contact avec les patients. « Vous allez simplement acheter le chatbot d’OpenAI, vous n’allez pas le construire vous-même. Et s’il y a une erreur dont vous êtes tenu responsable parce que vous avez donné un avis médical que vous n’auriez pas dû, alors vous devez clairement comprendre quel type de produit vous avez acheté. Et une partie de cette responsabilité devrait vraiment être partagée.Alors que l’Europe attend la formulation finale de la loi européenne sur l’IA, le sommet mondial sur la sécurité de l’IA du 1er novembre devrait être le prochain événement qui donnera un aperçu de la manière dont les dirigeants du monde entier aborderont la réglementation de l’IA dans un avenir proche.
Source link -57