Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsUnion européenne Les négociateurs ont conclu aujourd’hui un accord sur les premières règles complètes au monde en matière d’intelligence artificielle, ouvrant la voie à une surveillance juridique de la technologie utilisée dans les services d’IA générative populaires comme ChatGPT, qui a promis de transformer la vie quotidienne et a suscité des avertissements sur les dangers existentiels pour l’humanité.Les négociateurs du Parlement européen et des 27 pays membres du bloc ont surmonté de grandes divergences sur des points controversés, notamment l’IA générative et l’utilisation par la police de la surveillance par reconnaissance faciale pour signer un accord politique provisoire sur la loi sur l’intelligence artificielle. »Accord! » » a tweeté le commissaire européen Thierry Breton, peu avant minuit. « L’UE devient le tout premier continent à fixer des règles claires pour l’utilisation de l’IA. »Le logo OpenAI est affiché sur un téléphone portable avec une image sur un écran d’ordinateur générée par le modèle texte-image Dall-E de ChatGPT, le vendredi 8 décembre 2023, à Boston. Les efforts déployés depuis des années par l’Europe pour élaborer des garde-fous en matière d’IA ont été entravés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent. (Photo AP/Michael Dwyer) (PA)Le résultat est intervenu après un marathon de négociations à huis clos cette semaine, la première session ayant duré 22 heures avant le coup d’envoi d’un deuxième tour vendredi matin.Les responsables étaient sous le feu des projecteurs pour assurer une victoire politique à la législation phare, mais ils étaient censés laisser la porte ouverte à de nouvelles négociations pour régler les petits caractères, ce qui entraînerait probablement davantage de lobbying en coulisses.L’UE a pris très tôt les devants dans la course mondiale à l’élaboration de garde-fous en matière d’IA lorsqu’elle a dévoilé la première version de son règlement en 2021.Le récent boom de l’IA générative a cependant poussé les responsables européens à se démener pour mettre à jour une proposition prête à servir de modèle pour le monde.Le Parlement européen devra encore voter sur ce sujet au début de l’année prochaine, mais une fois l’accord conclu, ce n’est plus qu’une formalité, a déclaré vendredi soir à l’Associated Press Brando Benifei, un législateur italien co-dirigeant les efforts de négociation de l’organisme. »C’est très très bien », a-t-il répondu par SMS après qu’on lui ait demandé s’il contenait tout ce qu’il voulait. »Bien sûr, nous avons dû accepter certains compromis, mais dans l’ensemble, c’est très bien. »L’éventuelle loi n’entrera pleinement en vigueur qu’en 2025 au plus tôt et prévoit de lourdes sanctions financières en cas de violation pouvant atteindre 35 millions d’euros (57 millions de dollars), soit 7 pour cent du chiffre d’affaires mondial d’une entreprise.Fichier – Le PDG d’OpenAI, Sam Altman, à gauche, apparaît sur scène avec le PDG de Microsoft, Satya Nadella, lors de la première conférence des développeurs d’OpenAI, le 6 novembre 2023, à San Francisco. Les négociateurs se réuniront cette semaine pour élaborer les détails des règles de l’Union européenne en matière d’intelligence artificielle, mais le processus a été enlisé par une bataille de dernière minute latente sur la manière de gouverner les systèmes qui sous-tendent les services d’IA à usage général comme ChatGPT d’OpenAI et le chatbot Bard de Google. (Photo AP/Barbara Ortutay, dossier) (PA)Les systèmes d’IA générative comme ChatGPT d’OpenAI ont explosé dans la conscience du monde, éblouissant les utilisateurs avec leur capacité à produire des textes, des photos et des chansons de type humain, mais suscitant des craintes quant aux risques que cette technologie en développement rapide fait peser sur l’emploi, la protection de la vie privée et des droits d’auteur et même sur la vie humaine. lui-même.Aujourd’hui, les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties se sont lancés dans cette démarche avec leurs propres propositions visant à réglementer l’IA, même s’ils sont encore en train de rattraper l’Europe.Une réglementation forte et complète de l’UE « peut servir d’exemple puissant à de nombreux gouvernements qui envisagent de réglementer », a déclaré Anu Bradford, professeur à la Columbia Law School et expert en matière de réglementation européenne et numérique.D’autres pays « ne copieront peut-être pas toutes les dispositions, mais en imiteront probablement de nombreux aspects ».Les entreprises d’IA qui devront obéir aux règles de l’UE étendront probablement également certaines de ces obligations à des marchés en dehors du continent, a-t-elle déclaré. »Après tout, il n’est pas efficace de recycler des modèles distincts pour différents marchés », a-t-elle déclaré.D’autres s’inquiètent du fait que l’accord ait été conclu à la hâte. »L’accord politique d’aujourd’hui marque le début d’un travail technique important et nécessaire sur des détails cruciaux de la loi sur l’IA, qui manquent encore », a déclaré Daniel Friedlaender, chef du bureau européen de la Computer and Communications Industry Association, un groupe de pression de l’industrie technologique.La loi sur l’IA a été conçue à l’origine pour atténuer les dangers liés à des fonctions spécifiques de l’IA en fonction de leur niveau de risque, de faible à inacceptable.Mais les législateurs ont poussé à l’étendre aux modèles de base, les systèmes avancés qui sous-tendent les services d’IA à usage général comme ChatGPT et le chatbot Bard de Google.Un logo ChapGPT est visible sur un moniteur à West Chester, en Pennsylvanie, le mercredi 6 décembre 2023. Les efforts de l’Europe depuis des années pour élaborer des garde-fous en matière d’IA ont été embourbés par l’émergence récente de systèmes d’IA génératifs comme OpenAIs ChatGPT, qui ont ébloui le monde avec leur capacité à produire un travail semblable à celui des humains, mais ont suscité des craintes quant aux risques qu’ils posent. (Photo AP/Matt Rourke) (PA)Les modèles de fondations semblent être l’un des principaux points de friction pour l’Europe. Cependant, les négociateurs ont réussi à parvenir à un compromis provisoire au début des négociations, malgré l’opposition menée par la France, qui a plutôt appelé à l’autorégulation pour aider les sociétés européennes d’IA générative locales à rivaliser avec leurs grands rivaux américains, dont Microsoft, le bailleur de fonds d’OpenAI.Également connus sous le nom de grands modèles de langage, ces systèmes sont formés à partir de vastes quantités d’œuvres écrites et d’images récupérées sur Internet.Ils donnent aux systèmes d’IA générative la capacité de créer quelque chose de nouveau, contrairement à l’IA traditionnelle, qui traite les données et accomplit les tâches en utilisant des règles prédéterminées.Dans le cadre de cet accord, les modèles de fondation les plus avancés qui posent les plus grands « risques systémiques » feront l’objet d’un examen plus approfondi, y compris l’obligation de divulguer davantage d’informations, telles que la quantité de puissance de calcul utilisée pour entraîner les systèmes.Les chercheurs ont averti que ces puissants modèles de base, construits par une poignée de grandes entreprises technologiques, pourraient être utilisés pour intensifier la désinformation et la manipulation en ligne, les cyberattaques ou la création d’armes biologiques.Les groupes de défense des droits préviennent également que le manque de transparence sur les données utilisées pour entraîner les modèles présente des risques pour la vie quotidienne, car elles constituent des structures de base pour les développeurs de logiciels qui créent des services basés sur l’IA.Le sujet le plus épineux était celui des systèmes de surveillance par reconnaissance faciale basés sur l’IA, et les négociateurs ont trouvé un compromis après d’intenses négociations.Ces photos sont réalisées avec l’IA, mais vous ne le sauriez jamaisLes législateurs européens voulaient une interdiction totale de l’utilisation publique du scanner facial et d’autres systèmes « d’identification biométrique à distance » en raison de problèmes de confidentialité, tandis que les gouvernements des pays membres voulaient des exemptions afin que les forces de l’ordre puissent les utiliser pour lutter contre des crimes graves comme l’exploitation sexuelle des enfants ou les attaques terroristes.Les groupes de la société civile étaient plus sceptiques. »Quelles qu’aient été les victoires lors de ces négociations finales, il n’en demeure pas moins que d’énormes défauts subsisteront dans ce texte final », a déclaré Daniel Leufer, analyste politique principal au sein du groupe de défense des droits numériques Access Now.Outre les exemptions en matière d’application de la loi, il a également cité le manque de protection des systèmes d’IA utilisés dans le contrôle des migrations et des frontières, ainsi que « de grandes lacunes dans les interdictions des systèmes d’IA les plus dangereux ».
Source link -57