Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words IA : des chercheurs exhortent l’agence américaine à geler GPT-4 – l’Italie ferme ChatGPT Un organisme de recherche à but non lucratif a demandé à la Federal Trade Commission (FTC) américaine, responsable de la protection des consommateurs, d’enquêter sur OpenAI. Le Center for AI and Digital Policy (Policy Center en abrégé) a déposé une plainte officielle cette semaine. L’allégation centrale est que le lancement du GPT-4 sur le marché par OpenAI viole le droit commercial américain. Le produit trompe et met en danger les personnes, est biaisé et présente un risque pour la vie privée et la sécurité publique. L’agence fédérale américaine s’oppose aux pratiques anticoncurrentielles Dans le document de 46 pages, le Policy Center appelle les responsables des agences fédérales à enquêter et, si nécessaire, à réglementer les systèmes d’IA générative créés par OpenAI, la lettre est accessible au public. La Federal Trade Commission dont il est question ici est une autorité fédérale indépendante basée à Washington, D.C. Ses pouvoirs vont au-delà des tâches d’une autorité de la concurrence en réglementant également la protection des consommateurs aux États-Unis. En cas de plaintes directes de consommateurs, d’organisations ou d’entreprises, l’autorité prend des mesures à l’encontre des entreprises individuelles. Elle peut également intervenir en réponse à des demandes du Congrès ou après des publications dans les médias. L’autorité a pour mission d’assurer le fonctionnement d’un marché concurrentiel et de lutter contre les pratiques anticoncurrentielles déloyales ou trompeuses. OpenAI met en garde contre les risques – sans assumer de responsabilité Les campagnes de désinformation et de manipulation, la prolifération des armes conventionnelles et non conventionnelles et la cybersécurité sont considérées comme des menaces spécifiques qu’OpenAI elle-même a reconnues. La société d’IA elle-même a averti que les systèmes d’IA ont un potentiel important pour propager et solidifier les idéologies, les visions du monde, les vérités et les contrevérités. Le Policy Center est particulièrement critique sur le fait qu’OpenAI exclut toute responsabilité pour les conséquences et dommages causés par l’utilisation de son système d’IA. L’agence américaine de protection des consommateurs a soumis l’utilisation de l’intelligence artificielle dans les produits à plusieurs conditions : transparence, explicabilité, équité, fondement empirique et traçabilité, ainsi qu’une responsabilité claire, qui se traduit à la fois par la responsabilité et la responsabilité en cas de dommage. Selon la plainte, GPT-4 ne remplit aucune de ces conditions, il est donc temps pour l’agence d’intervenir. Le Policy Center propose une surveillance et une évaluation indépendantes des produits commerciaux d’IA arrivant sur le marché aux États-Unis. Des mesures sont nécessaires pour protéger les consommateurs, les entreprises et le commerce dans son ensemble, et de nouvelles publications de produits d’IA par OpenAI doivent être empêchées. Le Center for AI and Digital Policy est une organisation de recherche à but non lucratif basée à Washington, DC, qui comprend un réseau mondial d’experts en réglementation de l’IA et de professionnels du droit de 60 pays. Le Policy Center propose des formations professionnelles pour les décideurs dans le domaine de la régulation de l’IA (futurs AI policy leaders). L’organisation conseille les gouvernements des États américains et les organisations internationales sur les décisions réglementaires liées à l’IA et aux technologies émergentes. lire aussimontre plusMontrer moins Contre la discrimination algorithmique L’autorité américaine avait déjà mis en garde contre les mensonges publicitaires avec AI en février et avait jeté un regard critique sur la présence des fournisseurs sur le marché. À l’époque, elle a averti les entreprises faisant des affaires aux États-Unis de respecter les directives officielles sur l’IA d’avril 2023 (« Viser la vérité, l’équité et l’équité dans l’utilisation de l’IA par votre entreprise ») – avant même le lancement de nouveaux produits. En octobre 2022, le gouvernement américain a lancé le projet de « US Bill of AI Rights » – une future charte des droits fondamentaux à l’ère de l’IA destinée à prévenir la discrimination par les algorithmes. La protection des données et l’explicabilité font partie des principes qui y sont énoncés. Ce que les deux documents ont en commun, c’est qu’ils n’ont pas de force juridique directe, mais visent à donner l’exemple. Depuis 2021, la Federal Trade Commission élabore de nouvelles spécifications pour les produits et services du secteur informatique (« FTC Explores Rules Cracking Down on Commercial Surveillance and Lax Data Security Practices »). Semblable au processus législatif de l’UE entourant la prochaine loi sur l’IA, l’évaluation et la classification des risques sont au cœur de la législation émergente. Une éventuelle interdiction des applications d’IA telles que ChatGPT est dans l’air. L’autorité italienne de protection des données suspend ChatGPT L’Italie a bloqué ChatGPT « jusqu’à nouvel ordre » et OpenAI y est menacé d’une amende d’un million – pour des raisons de protection des données. L’autorité italienne de protection des données Garante per la Protezione dei Dati Personali (« Garante della privacy » en abrégé) est la première autorité au monde à empêcher l’utilisation d’un chatbot d’IA générative. La raison de la mesure restrictive était un problème de sécurité de la part d’OpenAI, qui a rendu visibles les historiques de chat et les informations de paiement des autres utilisateurs le 20 mars. Le stockage et l’utilisation massifs de données personnelles à des « fins de formation » ne sont pas transparents et ne sont pas conformes à la protection des données personnelles dans l’UE. Il n’y a pas non plus de filtre d’âge pour protéger les mineurs des contenus dérangeants. OpenAI dispose désormais apparemment de trois semaines pour mettre en œuvre des mesures de protection et « maîtriser le problème », a déclaré l’avocat et expert en protection des données Guido Scorza de l’autorité au portail Wired IT. Risques réels et scénarios de science-fiction Une lettre ouverte fait des vagues dans ce contexte : Le manifeste publié par le Future of Life Institute pose la question des risques des grands systèmes d’IA et appelle à un moratoire d’au moins six mois. Plus de 1700 pièces des personnalités du monde de l’IA et de la technologie soutiennent l’appel public. Les experts sont partagés : si quelque six mois de travail sur de grands modèles d’IA n’ont pas été suffisants, d’autres appellent à une accélération plutôt qu’à une pause forcée afin de maîtriser les risques et de rattraper OpenAI et GPT-4. Dans un commentaire de TIME sur la lettre ouverte, un chercheur bien connu en alignement et critique de l’IA est allé jusqu’à projeter des conditions dramatiques dans le futur, appeler à des bombardements pour détruire les centres de données d’IA et suggérer de suivre tous les GPU compatibles avec l’IA vendus – Eliezer Les explications de Yudkowsky sont mûres pour la science-fiction. Des voix plus modérées, qui se soucient autant de la sécurité que de la recherche et de la concurrence, se retrouvent peut-être dans une pétition du LAION, le Large-scale Artificial Intelligence Open Network : Ses membres proposent un CERN pour la recherche en IA et la formation des grandes sources ouvertes – modèles avant. La pétition comprend une justification axée sur la recherche qui mérite d’être lue, ainsi que des points de vue et des points d’intérêt sur la discussion en cours sur les risques liés à l’IA. Le Faire face aux arguments des deux parties pourrait être utile de procéder vous-même à une évaluation objective. lire aussimontre plusMontrer moins (son) Vers la page d’accueil
Source link -57