Customize this title in frenchLes scientifiques mettent en garde contre les dangers de l’IA mais ne s’entendent pas sur les solutions

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsCAMBRIDGE, Mass. (AP) – Les informaticiens qui ont contribué à jeter les bases de la technologie d’intelligence artificielle actuelle mettent en garde contre ses dangers, mais cela ne signifie pas qu’ils sont d’accord sur la nature de ces dangers ou sur la manière de les prévenir. La survie de l’humanité est menacée lorsque « des choses intelligentes peuvent nous déjouer », a déclaré le soi-disant parrain de l’IA Geoffrey Hinton lors d’une conférence mercredi au Massachusetts Institute of Technology.Après avoir pris sa retraite de Google pour pouvoir parler plus librementHinton, âgé de 75 ans, a déclaré qu’il avait récemment changé d’avis sur les capacités de raisonnement des systèmes informatiques sur lesquels il avait passé sa vie à faire des recherches. »Ces choses auront appris de nous, en lisant tous les romans qui ont jamais existé et tout ce que Machiavel a écrit, comment manipuler les gens », a déclaré Hinton, s’adressant à la foule assistant à la conférence EmTech Digital du MIT Technology Review depuis son domicile par vidéo. « Même s’ils ne peuvent pas tirer directement sur les leviers, ils peuvent certainement nous amener à tirer sur les leviers. » »J’aimerais avoir une solution simple et agréable pour cela, mais ce n’est pas le cas », a-t-il ajouté. « Je ne suis pas sûr qu’il y ait une solution. »Yoshua Bengio, pionnier de l’IA, co-lauréat avec Hinton du plus grand prix d’informatiquea déclaré mercredi à l’Associated Press qu’il était « à peu près aligné » sur les préoccupations de Hinton suscitées par les chatbots tels que ChatGPT et la technologie connexe, mais craint que le simple fait de dire « Nous sommes condamnés » ne va pas aider.« La principale différence, je dirais, c’est qu’il est plutôt pessimiste, et je suis plus optimiste », a déclaré Bengio, professeur à l’Université de Montréal. « Je pense que les dangers – ceux à court terme, ceux à long terme – sont très graves et doivent être pris au sérieux non seulement par quelques chercheurs, mais aussi par les gouvernements et la population. »De nombreux signes montrent que les gouvernements sont à l’écoute. La Maison Blanche a appelé les PDG de Google, Microsoft et OpenAI, fabricant de ChatGPT, à rencontrer jeudi le vice-président Kamala Harris dans le cadre de ce que les responsables décrivent comme une discussion franche sur la manière d’atténuer les risques à court et à long terme de leur technologie. Les législateurs européens accélèrent également les négociations pour adopter de nouvelles règles radicales en matière d’IA.Mais tous les discours sur les dangers futurs les plus terribles certains craignent que le battage médiatique autour des machines surhumaines – qui n’existent pas encore – détourne l’attention des tentatives visant à mettre en place des garanties pratiques sur les produits d’IA actuels qui ne sont en grande partie pas réglementés. Margaret Mitchell, ancienne dirigeante de l’équipe d’éthique de l’IA de Google, a déclaré qu’elle était contrariée que Hinton ne se soit pas prononcé pendant sa décennie en position de pouvoir chez Google, en particulier après l’éviction en 2020 de l’éminent scientifique noir Timnit Gebru, qui avait étudié les méfaits de grands modèles de langage avant qu’ils ne soient largement commercialisés dans des produits tels que ChatGPT et Google’s Bard. « C’est un privilège qu’il puisse sauter des réalités de la propagation de la discrimination maintenant, de la propagation du langage haineux, de la toxicité et de la pornographie non consensuelle des femmes, tous ces problèmes qui nuisent activement aux personnes marginalisées dans la technologie », a déclaré Mitchell, qui a également été contraint de quitter Google à la suite du départ de Gebru. « Il saute toutes ces choses pour s’inquiéter de quelque chose de plus éloigné. »Bengio, Hinton et un troisième chercheur, Yann LeCun, qui travaille chez Meta, la société mère de Facebook, ont tous reçu le prix Turing en 2019 pour leurs percées dans le domaine des réseaux de neurones artificiels, essentiels au développement des applications d’IA d’aujourd’hui telles que ChatGPT.Bengio, le seul des trois à n’avoir pas accepté d’emploi chez un géant de la technologie, s’inquiète depuis des années des risques à court terme de l’IA, notamment la déstabilisation du marché du travail, l’armement automatisé et les dangers d’ensembles de données biaisés.Mais ces préoccupations ont récemment augmenté, ce qui a conduit Bengio à rejoindre d’autres informaticiens et chefs d’entreprise technologiques comme Elon Musk et le co-fondateur d’Apple, Steve Wozniak, pour demander une pause de six mois sur le développement de systèmes d’IA plus puissants que le dernier modèle d’OpenAI, GPT-4. . Bengio a déclaré mercredi qu’il pensait que les derniers modèles de langage d’IA réussissaient déjà le « test de Turing », nommé d’après la méthode du briseur de code britannique et pionnier de l’IA, Alan Turing. introduit en 1950 pour mesurer quand l’IA devient impossible à distinguer d’un humain – du moins en surface. « C’est une étape importante qui peut avoir des conséquences dramatiques si nous ne faisons pas attention », a déclaré Bengio. « Ma principale préoccupation est de savoir comment ils peuvent être exploités à des fins néfastes pour déstabiliser les démocraties, pour les cyberattaques, la désinformation. Vous pouvez avoir une conversation avec ces systèmes et penser que vous interagissez avec un humain. Ils sont difficiles à repérer.Là où les chercheurs sont moins susceptibles d’être d’accord, c’est sur la façon dont les systèmes de langage d’IA actuels – qui ont de nombreuses limites, y compris une tendance à fabriquer des informations – deviendront en fait plus intelligents que les humains.Aidan Gomez était l’un des co-auteurs de l’article pionnier de 2017 qui a introduit une technique dite de transformateur – le « T » à la fin de ChatGPT – pour améliorer les performances des systèmes d’apprentissage automatique, en particulier dans la façon dont ils apprennent des passages du texte. Alors qu’il n’était alors qu’un stagiaire de 20 ans chez Google, Gomez se souvient d’être allongé sur un canapé au siège social de l’entreprise en Californie lorsque son équipe a envoyé le journal vers 3 heures du matin, heure prévue. »Aidan, ça va être tellement énorme », se souvient-il qu’un collègue lui a dit, du travail qui a depuis aidé à mener à de nouveaux systèmes qui peuvent générer une prose et des images humaines. Six ans plus tard et maintenant PDG de sa propre société d’intelligence artificielle appelée Cohere, dans laquelle Hinton a investi, Gomez est enthousiasmé par les applications potentielles de ces systèmes, mais gêné par la peur, il dit qu’il est « détaché de la réalité » de leurs véritables capacités et « s’appuie sur des sauts extraordinaires d’imagination et de raisonnement. « L’idée que ces modèles vont d’une manière ou d’une autre accéder à nos armes nucléaires et lancer une sorte d’événement au niveau de l’extinction n’est pas un discours productif à avoir », a déclaré Gomez. « Cela nuit à ces véritables efforts politiques pragmatiques qui tentent de faire quelque chose de bien. »

Source link -57