Customize this title in frenchOpenAI, fabricant de ChatGPT, cite une « menace existentielle » dans son appel à la réglementation de l’IA

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Affirmant qu’un équivalent de l’Agence internationale de l’énergie atomique serait nécessaire pour protéger l’humanité des risques posés par l’intelligence artificielle en développement rapide, les créateurs de ChatGPT et d’OpenAI ont appelé à la réglementation des IA « super intelligentes ».

Les cofondateurs Greg Brockman et Ilya Sutskever et le directeur général, Sam Altman, dans une note publiée sur le site Web de l’entreprise, ont demandé à un régulateur international de commencer à travailler sur les moyens d' »inspecter les systèmes, d’exiger des audits, de tester la conformité aux normes de sécurité , [and] imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité » afin de réduire le « risque existentiel » que ces systèmes pourraient poser.

« Il est concevable qu’au cours des 10 prochaines années, les systèmes d’IA dépasseront le niveau de compétence des experts dans la plupart des domaines et réaliseront autant d’activités productives que l’une des plus grandes entreprises d’aujourd’hui », lit-on dans la note.

« En termes d’avantages et d’inconvénients potentiels, la superintelligence sera plus puissante que les autres technologies auxquelles l’humanité a dû faire face dans le passé. Nous pouvons avoir un avenir nettement plus prospère, mais nous devons gérer les risques pour y arriver. Compte tenu de la possibilité d’un risque existentiel, nous ne pouvons pas simplement être réactifs.

Les dirigeants d’OpenAI ont appelé à « un certain degré de coordination » entre les organisations travaillant sur la recherche en intelligence artificielle afin de s’assurer que le développement de modèles d’IA se mélange régulièrement avec la société tout en donnant la priorité à la sécurité.

Le Center for AI Safety (CAIS), basé aux États-Unis, qui s’efforce de « réduire les risques à l’échelle de la société liés à l’intelligence artificielle », décrit huit catégories de risques « catastrophiques » et « existentiels » que le développement de l’IA pourrait poser.

Selon les fabricants d’OpenAI, ces risques signifient que « les gens du monde entier devraient décider démocratiquement des limites et des valeurs par défaut des systèmes d’IA », mais admettent que « nous ne savons pas encore comment concevoir un tel mécanisme ».

« Nous pensons que cela va conduire à un monde bien meilleur que ce que nous pouvons imaginer aujourd’hui (nous en voyons déjà des exemples précoces dans des domaines tels que l’éducation, le travail créatif et la productivité personnelle) », lit-on dans la note.

«Parce que les avantages sont si énormes, le coût de sa construction diminue chaque année, le nombre d’acteurs qui la construisent augmente rapidement et cela fait intrinsèquement partie de la voie technologique sur laquelle nous nous engageons. L’arrêter nécessiterait quelque chose comme un régime de surveillance mondial, et même cela n’est pas garanti pour fonctionner. Nous devons donc bien faire les choses.

Le PDG d’OpenAI témoigne devant le Congrès américain et qualifie de « critique » la réglementation de l’intelligence artificielle

Le directeur général d’OpenAI, la startup qui a créé ChatGPT, Sam Altman, s’est adressé à un panel de législateurs américains, mardi 16 mai, et a déclaré que la réglementation des « modèles de plus en plus puissants » de l’intelligence artificielle est « essentielle » pour atténuer les risques que pose la technologie. Altman a également expliqué à quel point l’utilisation de l’IA pour interférer avec l’intégrité des élections est un « domaine de préoccupation important ».

« OpenAI a été fondée sur la conviction que l’intelligence artificielle a le potentiel d’améliorer presque tous les aspects de nos vies, mais aussi qu’elle crée de sérieux risques », a déclaré Altman lors d’une audience du sous-comité judiciaire du Sénat.

Cela survient alors que de nombreuses entreprises de toutes tailles, grandes et petites, se sont précipitées pour mettre sur le marché des modèles d’IA de plus en plus sophistiqués, ce qui a suscité des inquiétudes parmi les critiques et les experts de l’industrie qui ont mis en garde contre la façon dont la technologie peut exacerber les dommages sociétaux, y compris des facteurs tels que la désinformation et préjudice.

Tout en exprimant ses inquiétudes, Altman a également expliqué à quel point l’IA est également bénéfique pour la société et a déclaré qu’avec le temps, l’IA générative développée par OpenAI « s’attaquera à certains des plus grands défis de l’humanité, comme le changement climatique et la guérison du cancer ».

Cependant, compte tenu des risques de la technologie, « nous pensons que l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants », a déclaré le PDG d’OpenAI.

(Avec les contributions des agences)

Source link -57