Customize this title in frenchL’IA présente un risque d' »extinction » comparable à une guerre nucléaire, selon les PDG d’OpenAI, DeepMind et Anthropic

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • Les PDG de trois grandes sociétés d’IA ont signé un avertissement sur les risques de l’intelligence artificielle.
  • La déclaration du Center for AI Safety compare les risques posés par l’IA avec la guerre nucléaire et les pandémies.
  • Des experts en intelligence artificielle, dont Geoffrey Hinton et Yoshua Bengio, ont également soutenu la déclaration.

Les PDG de trois grandes sociétés d’IA ont signé une déclaration publiée par le Centre pour la sécurité de l’IA (CAIS) avertissant du risque « d’extinction » posé par l’intelligence artificielle.

Par CAIS, le PDG d’OpenAI Sam Altman, le PDG de DeepMind Demis Hassabis et le PDG d’Anthropic Dario Amodei ont tous signé la déclaration publique, qui compare les risques posés par l’IA à la guerre nucléaire et aux pandémies.

La déclaration du CAIS se lit comme suit : « L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »

Des experts en intelligence artificielle, dont Geoffrey Hinton et Yoshua Bengio, font partie des signataires de la déclaration, ainsi que des dirigeants de Microsoft et de Google.

Le PCSRA a déclaré à Insider qu’il avait vérifié les signataires et utilisé des mesures supplémentaires pour les noms de renom afin de s’assurer qu’ils avaient bien signé.

Les représentants d’Altman et d’Amodei n’ont pas immédiatement répondu à la demande de commentaires d’Insider, faite en dehors des heures normales de travail.

DeepMind a déclaré à Insider dans un communiqué : « L’intelligence artificielle aura un impact transformateur sur la société et il est essentiel que nous reconnaissions les opportunités, les risques et les inconvénients potentiels qu’elle permet. »

Il a ajouté qu’il s’était engagé à développer l’IA de manière responsable, conformément à ses principes d’IA. Il a également souligné son travail avec les décideurs politiques et d’autres pour exploiter les avantages des « percées technologiques » tout en atténuant les risques.

Les avertissements sur les risques potentiels de l’IA avancée se sont multipliés ces derniers mois. Les experts et les leaders de l’industrie ont exprimé des inquiétudes dramatiques concernant la technologie suite à la popularité virale du ChatGPT d’OpenAI et à la sortie ultérieure de produits concurrents alimentés par l’IA.

Le grand public se méfie également de la nouvelle obsession du monde de la tech. Un récent sondage mené par Reuters auprès de plus de 4 000 adultes américains a révélé que 61 % des Américains pensent que l’IA pourrait menacer la civilisation.

Les craintes liées à l’IA ont été partiellement stimulées par une course aux armements entre les entreprises Big Tech. Google, Meta et Microsoft ont investi dans le développement de l’IA et se sont précipités pour lancer de nouveaux produits alimentés par l’IA.

Les gouvernements du monde entier ont pris note de l’accélération et cherchent à essayer de réglementer la technologie. En Europe, les législateurs vont de l’avant avec une « loi sur l’IA », qui interdirait les cas d’utilisation de l’IA considérés comme présentant un risque inacceptable.

Source link -57