Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Düsseldorf La déclaration ne contient que 22 mots, mais elle a du punch. « Réduire le risque d’anéantissement par l’IA devrait être une priorité mondiale aux côtés d’autres risques de proportions sociétales, comme les pandémies ou la guerre nucléaire. » L’organisation non gouvernementale américaine « Center of AI Safety » basée à San Francisco a publié l’appel.
La liste des signataires se lit comme un who’s who de la science de l’intelligence artificielle (IA). Il y a Demis Hassabis et Sam Altman, les patrons de Google Deepmind et OpenAI, qui comptent parmi les sociétés d’IA les plus importantes au monde. On y retrouve également Geoffrey Hinton et Yoshua Bengio, lauréats du prix Turing 2018, une sorte de prix Nobel de l’informatique.
Parmi les 375 signataires figurent une poignée de sommités allemandes de l’IA : Frank Hutter, professeur d’informatique à l’Université de Fribourg, Joachim Weickert, professeur de mathématiques et d’informatique à l’Université de la Sarre, et Ansgar Steland, professeur de statistiques et de mathématiques commerciales à la RWTH. Aix-la-Chapelle.
L’ex-petite amie d’Elon Musk, Grimes, signe également pour la réglementation de l’IA
L’appel rappelle la lettre ouverte du Future of Life Institute en mars 2023, qui appelait à une pause de recherche de six mois et a été signée par des personnalités technologiques bien connues telles qu’Elon Musk et Steve Wozniak.
L’appel a rencontré des réponses mitigées, non seulement à cause de l’avertissement lui-même, mais aussi de la question de savoir si un moratoire pourrait avoir un sens. Par exemple, les start-up de l’IA portent un regard critique sur l’appel. Ils craignent une réglementation basée sur de tels avertissements, qui les empêcherait de rattraper les acteurs établis.
Réduire le risque d’anéantissement de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies ou la guerre nucléaire. Centre de sécurité de l’IA
Cependant, il existe des différences entre la nouvelle et l’ancienne pétition. Ainsi, l’actuel est plus général. Bien que l’appel place les dangers de l’IA sur un pied d’égalité avec la guerre nucléaire, il ne parle pas d’une « course folle » et d’une IA que « personne – pas même ses créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».
>> Lire aussi : « L’IA atteindra une intelligence qui sera supérieure à celle des humains »
Selon Dan Hendrycks, directeur du Center of AI Safety, la déclaration a été faite exprès. L’objectif était d’éviter des divergences d’opinion sur le danger ou sur des solutions telles qu’une pause de recherche de six mois.
On aurait plutôt voulu encourager une sorte de « coming out » des scientifiques. « Il y a une croyance répandue, même au sein de la communauté de l’IA, qu’il n’y a qu’une poignée de prophètes de malheur », a déclaré Hendrycks au New York Times. « Mais en fait, nombreux sont ceux qui expriment leurs inquiétudes en privé. »
En fait, à part quelques exceptions comme la chanteuse pop – et ex-petite amie d’Elon Musk – Grimes ou Jaan Tallinn, co-fondateur du service de streaming Skype, il n’y a presque que des chercheurs en IA sur la liste. Il y a plus de 30 employés de Google Deepmind ou 16 d’OpenAI, ainsi que d’innombrables professeurs et scientifiques.
Cependant, certains noms manquent également, comme Yann LeCun, scientifique en chef de l’IA chez Meta, la société mère de Facebook.
Plus: The Frankenstein Moment – Si nous ne contrôlons pas l’intelligence artificielle, elle nous contrôle.