Customize this title in frenchLe PDG d’OpenAI, Sam Altman, n’est pas d’accord avec certaines parties de la lettre de Musk appelant à une pause de l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Le PDG d’OpenAI, Sam Altman, a répondu à Elon Musk, Steve Wozniak et d’autres leaders technologiques qui ont récemment signé une lettre appelant à un arrêt de six mois de la recherche sur l’intelligence artificielle (IA).

Altman s’exprimait lors d’un événement du MIT lorsqu’il a déclaré que la lettre n’était pas la manière « optimale » de résoudre le problème et qu’elle manquait la « nuance technique » sur l’endroit où la technologie devait faire une pause.

« Il y a des parties de l’orientation avec lesquelles je suis vraiment d’accord », a déclaré Altman avant d’ajouter, « Je pense qu’il est vraiment important d’agir avec prudence et d’augmenter la rigueur pour les problèmes de sécurité, la lettre, je ne pense pas que ce soit la meilleure façon de l’aborder. « 

« Je suis également d’accord, à mesure que les capacités deviennent de plus en plus sérieuses, que la barre de sécurité doit augmenter. Nous faisons d’autres choses en plus du GPT-4 qui, je pense, ont toutes sortes de problèmes de sécurité qu’il est important de résoudre et qui ont été totalement laissés de côté », a-t-il ajouté.

La lettre appelant à l’interdiction de l’IA

Plus tôt en mars, une lettre ouverte du Future of Life Institute, un groupe de réflexion, signée par Musk, Wozniak entre autres, a adopté une approche très prudente de la prochaine génération d’IA. La lettre citait 12 recherches d’experts qui comprenaient d’anciens employés d’OpenAI, Google ainsi que DepMind.

« Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », indique la lettre.

« Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants », a-t-il ajouté.

Musk, qui a cofondé OpenAI, qui est maintenant dirigé par Microsoft, a été l’une des voix les plus vocales exigeant que la recherche sur l’IA soit réglementée. Dans une interview, Musk a déclaré que l’IA a le potentiel de détruire une civilisation entière.

« L’IA est plus dangereuse que, disons, une conception ou une maintenance de production d’avions mal gérées ou une mauvaise production de voitures. Dans le sens où elle a le potentiel, aussi faible soit-elle, cette probabilité, mais elle n’est pas triviale – elle a le potentiel de la civilisation destruction. »

(Avec les contributions des agences)

Source link -57