Customize this title in frenchLe PDG d’OpenAI témoigne devant le Congrès américain qui qualifie de « critique » la réglementation de l’intelligence artificielle

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Le directeur général d’OpenAI, la startup qui a créé ChatGPT, Sam Altman, s’est adressé à un panel de législateurs américains, mardi 16 mai, et a déclaré que la réglementation des « modèles de plus en plus puissants » de l’intelligence artificielle est « essentielle » pour atténuer les risques que pose la technologie. Altman a également expliqué à quel point l’utilisation de l’IA pour interférer avec l’intégrité des élections est un « domaine de préoccupation important ».

Les avertissements et les préoccupations d’Altman concernant l’IA

« OpenAI a été fondée sur la conviction que l’intelligence artificielle a le potentiel d’améliorer presque tous les aspects de nos vies, mais aussi qu’elle crée de sérieux risques », a déclaré Altman lors d’une audience du sous-comité judiciaire du Sénat.

Cela survient alors que de nombreuses entreprises de toutes tailles, grandes et petites, se sont précipitées pour mettre sur le marché des modèles d’IA de plus en plus sophistiqués, ce qui a suscité des inquiétudes parmi les critiques et les experts de l’industrie qui ont mis en garde contre la façon dont la technologie peut exacerber les dommages sociétaux, y compris des facteurs tels que la désinformation et préjudice.

Tout en exprimant ses inquiétudes, Altman a également expliqué à quel point l’IA est également bénéfique pour la société et a déclaré qu’avec le temps, l’IA générative développée par OpenAI « s’attaquera à certains des plus grands défis de l’humanité, comme le changement climatique et la guérison du cancer ».

Cependant, compte tenu des risques de la technologie, « nous pensons que l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants », a déclaré le PDG d’OpenAI.

Qu’ont dit les sénateurs ?

Notamment, la session s’est ouverte avec le président du sous-comité, le sénateur Richard Blumenthal, démocrate du Connecticut, jouant un enregistrement d’une version AI plutôt convaincante de lui-même lisant des remarques rédigées par ChatGPT. Blumenthal préside le sous-comité du Comité judiciaire du Sénat sur la vie privée, la technologie et la loi.

« Et si je lui avais demandé, et s’il avait fourni, une approbation de la capitulation de l’Ukraine ou de la direction (du président russe) Vladimir Poutine ? » dit Blumenthal. Il a également expliqué comment les entreprises développant l’IA devraient tester leurs systèmes et divulguer les risques connus avant de les diffuser au grand public.

La technologie de l’IA est désormais plus que «de simples expériences de recherche. Ce ne sont plus des fantasmes de science-fiction, ils sont réels et présents », a déclaré le président du sous-comité.

Le sénateur américain Cory Booker, l’un des nombreux législateurs faisant partie du comité qui s’interroge sur la meilleure façon de réglementer l’IA, a noté qu’il n’y avait aucun moyen de « mettre ce génie dans la bouteille » car l’utilisation de l’IA explose à l’échelle mondiale.

Pendant ce temps, le sénateur républicain Josh Hawley du Missouri a qualifié l’IA de « transformatrice d’une manière que nous ne pouvons même pas imaginer », ajoutant qu’elle a des implications pour les élections, les emplois et la sécurité des Américains. Il a ajouté: « Cette audience marque une première étape cruciale vers la compréhension de ce que le Congrès devrait faire. »

Altman a appelé à «des règles, des lignes directrices, sur ce qui est attendu en termes de divulgation d’une entreprise fournissant un modèle», dans le contexte des élections et de l’IA. En outre, il a également suggéré que les États-Unis envisagent des exigences en matière de licences et de tests pour le développement de modèles d’IA.

Il a ensuite proposé la création d’une agence de réglementation qui autoriserait les systèmes d’IA les plus puissants, aux États-Unis ou dans le monde, qui aurait le pouvoir de « retirer cette licence et d’assurer le respect des normes de sécurité ». Il a ajouté : « Je pense que les États-Unis devraient montrer la voie et faire les choses en premier, mais pour être efficaces, nous avons besoin de quelque chose de mondial.

Altman a également déclaré que les entreprises devraient avoir le droit de dire si elles ne veulent pas que leurs données soient utilisées pour la formation à l’IA, alors que le matériel sur le Web public serait un jeu équitable. On lui a également demandé son avis sur l’IA qui devrait être soumise à licence, et a déclaré qu’un modèle capable de persuader ou de manipuler la croyance d’une personne serait certainement un exemple de « grand seuil ».

D’autre part, Christina Montgomery d’International Business Machines Corp (IBM), qui était également présente à l’audience, a appelé à une approche de « réglementation de précision » par opposition à un régulateur axé sur l’IA. Cela signifierait « établir des règles pour régir le déploiement de l’IA dans des cas d’utilisation spécifiques, et non réglementer la technologie elle-même », comme l’a cité l’Associated Press.

(Avec les contributions des agences)

Tu peux maintenant écrire pour wionews.com et faire partie de la communauté. Partagez vos histoires et opinions avec nous ici.

Source link -57