Customize this title in frenchLes experts en IA désavouent la campagne soutenue par Musk citant leurs recherches

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

© Reuters. PHOTO DE DOSSIER: Le fondateur de Tesla, Elon Musk, assiste à Offshore Northern Seas 2022 à Stavanger, en Norvège, le 29 août 2022. NTB / Carina Johansen via REUTERS

Par Martin Coulter

LONDRES (Reuters) – Quatre experts en intelligence artificielle ont exprimé leur inquiétude après que leurs travaux aient été cités dans une lettre ouverte – cosignée par Elon Musk – exigeant une pause urgente dans la recherche.

La lettre, datée du 22 mars et avec plus de 1 800 signatures vendredi, appelait à un disjoncteur de six mois dans le développement de systèmes « plus puissants » que le nouveau GPT-4 d’OpenAI soutenu par Microsoft, qui peut tenir une conversation de type humain. , composer des chansons et résumer de longs documents.

Depuis la sortie du prédécesseur de GPT-4, ChatGPT, l’année dernière, des sociétés rivales se sont précipitées pour lancer des produits similaires.

La lettre ouverte indique que les systèmes d’IA dotés d’une « intelligence compétitive humaine » posent de graves risques pour l’humanité, citant 12 recherches d’experts, notamment des universitaires ainsi que des employés actuels et anciens d’OpenAI, Google (NASDAQ 🙂 et sa filiale DeepMind.

Des groupes de la société civile aux États-Unis et dans l’UE ont depuis pressé les législateurs de freiner les recherches d’OpenAI. OpenAI n’a pas immédiatement répondu aux demandes de commentaires.

Les critiques ont accusé le Future of Life Institute (FLI), l’organisation à l’origine de la lettre qui est principalement financée par la Fondation Musk, de donner la priorité aux scénarios apocalyptiques imaginaires par rapport aux préoccupations plus immédiates concernant l’IA, telles que les préjugés racistes ou sexistes.

Parmi les recherches citées figurait « On the Dangers of Stochastic Parrots », un article co-écrit par Margaret Mitchell, qui supervisait auparavant la recherche éthique sur l’IA chez Google.

Mitchell, maintenant scientifique en chef de l’éthique de la société d’intelligence artificielle Hugging Face, a critiqué la lettre, déclarant à Reuters qu’il n’était pas clair ce qui comptait comme « plus puissant que GPT4 ».

« En traitant beaucoup d’idées douteuses comme des données, la lettre affirme un ensemble de priorités et un récit sur l’IA qui profite aux partisans du FLI », a-t-elle déclaré. « Ignorer les dommages actifs en ce moment est un privilège que certains d’entre nous n’ont pas. »

Mitchell et ses co-auteurs – Timnit Gebru, Emily M. Bender et Angelina McMillan-Major – ont par la suite publié une réponse à la lettre, accusant ses auteurs de « alarmisme et battage médiatique sur l’IA ».

« Il est dangereux de nous distraire avec une utopie ou une apocalypse fantasmée par l’IA qui promet un avenir soit « florissant » soit « potentiellement catastrophique » », ont-ils écrit.

« La responsabilité n’incombe pas aux artefacts mais à leurs constructeurs. »

Le président du FLI, Max Tegmark, a déclaré à Reuters que la campagne n’était pas une tentative d’entraver l’avantage commercial d’OpenAI.

« C’est assez hilarant. J’ai vu des gens dire: » Elon Musk essaie de ralentir la concurrence «  », a-t-il déclaré, ajoutant que Musk n’avait joué aucun rôle dans la rédaction de la lettre. « Il ne s’agit pas d’une seule entreprise. »

RISQUES MAINTENANT

Shiri Dori-Hacohen, professeure adjointe à l’Université du Connecticut, a déclaré à Reuters qu’elle était d’accord avec certains points de la lettre, mais qu’elle contestait la manière dont son travail était cité.

L’année dernière, elle a co-écrit un article de recherche affirmant que l’utilisation généralisée de l’IA posait déjà de sérieux risques.

Ses recherches ont fait valoir que l’utilisation actuelle des systèmes d’IA pourrait influencer la prise de décision en matière de changement climatique, de guerre nucléaire et d’autres menaces existentielles.

Elle a déclaré: « L’IA n’a pas besoin d’atteindre une intelligence de niveau humain pour exacerber ces risques.

« Il y a des risques non existentiels qui sont vraiment, vraiment importants, mais qui ne reçoivent pas le même genre d’attention au niveau hollywoodien. »

Invité à commenter les critiques, Tegmark de FLI a déclaré que les risques à court et à long terme de l’IA devraient être pris au sérieux.

« Si nous citons quelqu’un, cela signifie simplement que nous prétendons qu’il approuve cette phrase. Cela ne signifie pas qu’il approuve la lettre, ou que nous approuvons tout ce qu’il pense », a-t-il déclaré à Reuters.

Dan Hendrycks, directeur du Center for AI Safety basé en Californie, qui a également été cité dans la lettre, s’en est tenu à son contenu, déclarant à Reuters qu’il était judicieux d’envisager des événements de cygne noir – ceux qui semblent peu probables, mais qui auraient des conséquences dévastatrices.

La lettre ouverte a également averti que des outils d’IA génératifs pourraient être utilisés pour inonder Internet de « propagande et de contrevérité ».

Dori-Hacohen a déclaré qu’il était « assez riche » pour Musk de l’avoir signé, citant une augmentation signalée de la désinformation sur Twitter suite à son acquisition de la plateforme, documentée par le groupe de la société civile Common Cause et d’autres.

Musk et Twitter n’ont pas immédiatement répondu aux demandes de commentaires.

Source link -57