Customize this title in french Les États-Unis avancent à toute allure dans leur tentative de contrôler l’intelligence artificielle – pourquoi l’UE est-elle si loin derrière ? | Seth Lazar

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsBentre les sommets mondiaux sophistiqués, les drames des conseils d’administration d’OpenAI et les rumeurs de percées techniques, le monde a récemment accordé une attention particulière aux frontières de la recherche sur l’IA. Mais le mois dernier, l’Office of Management and Budget (OMB) de la Maison Blanche aux États-Unis a publié une note sur l’utilisation de systèmes d’IA plus banals au sein du gouvernement qui est susceptible, du moins à court terme, d’avoir des conséquences tout aussi importantes.De son utilisation pour suivre les migrants sans papiers aux algorithmes prédictifs déployés par les services de police pour surveiller les populations et allouer les ressources, l’IA est désormais un outil courant du gouvernement américain pour réduire les coûts – mais au prix de soumettre les plus vulnérables de la société à des règles arbitraires sans procédure régulière. , et avec des résultats discriminatoires prévisibles. Des chercheurs, des journalistes et des militants attirent l’attention sur ce sujet depuis des années. Cet appel reçoit enfin une réponse.L’OMB est la plus grande unité du bureau exécutif du président américain. Bien que peu discuté, il est extrêmement puissant. Il supervise les autres agences gouvernementales et veille à ce que leurs actions soient alignées sur le programme du président. Et le mois dernier, la directrice de l’OMB, Shalanda Young, a publié une note qui pourrait révolutionner l’utilisation de l’IA au sein du gouvernement américain.La politique proposée – il s’agit encore d’une ébauche et pourrait être édulcorée – exigerait que chaque département nomme un responsable de l’IA et lui demande de fournir un registre des cas d’utilisation de l’IA existants. Cela constitue à lui seul une victoire significative en matière de transparence. Mais en outre, l’agent doit identifier les systèmes susceptibles d’avoir un impact sur la sécurité ou les droits des personnes, qui sont soumis à d’autres contraintes significatives.Il existe de nouvelles exigences visant à peser les risques que présentent les systèmes d’IA pour les droits et la sécurité par rapport aux avantages revendiqués. Les agences devront également vérifier la qualité des données qu’elles utilisent et surveiller de plus près les systèmes une fois qu’ils seront déployés. Il est essentiel que les personnes concernées par les systèmes d’IA reçoivent des explications en langage simple sur la manière dont l’IA est utilisée, ainsi que la possibilité de contester les décisions prises par l’IA.Les membres du Parlement européen participent à une séance de vote dans le cadre de l’examen de la loi européenne sur l’intelligence artificielle, Strasbourg, France, 14 juin 2023. Photographie : Frederick Florin/AFP/Getty ImagesToutes ces mesures peuvent sembler évidentes, mais elles ne sont pas encore prises, ce qui entraîne davantage de préjudices pour les plus vulnérables de la société.La politique obligerait également les ministères à veiller activement à ce que les systèmes d’IA favorisent l’équité, la dignité et la justice dans la manière dont ils sont déployés, en attirant l’attention sur les préjugés injustes inhérents aux modèles et sur les données non représentatives sur lesquelles les modèles sont souvent formés. Les ministères doivent également consulter les groupes concernés avant de déployer de tels systèmes et proposer des options de prise en compte humaine et de recours, permettant aux citoyens de contester les décisions qui les affectent négativement, au lieu d’être soumis à des « angles morts algorithmiques » kafkaïens.De manière impressionnante, le mémo aborde même la question profondément peu sexy mais importante des marchés publics en matière d’IA. De nombreux problèmes sociétaux liés à l’IA commencent par l’adoption par des agences gouvernementales inexpérimentées de nouveaux logiciels qu’ils ne comprennent pas suffisamment, qui sont survendus par leur fournisseur et qui, en fin de compte, échouent d’une manière qui affecte le plus gravement les plus démunis. Décrire et exiger les meilleures pratiques en matière d’acquisition de systèmes d’IA est l’une des choses les plus importantes que les ministères puissent faire à l’heure actuelle.Le mémo de l’OMB est une étude de cas sur la recherche et l’élaboration de politiques menées par la société civile. Les tentatives actuelles visant à réglementer les modèles d’IA frontaliers (qui peuvent effectuer un large éventail de tâches, notamment le traitement du langage et des images), en particulier dans l’UE, pourraient en tirer des leçons. Début 2023, surpris par la popularité de ChatGPT, le Parlement européen a tenté d’intégrer la réglementation des systèmes d’IA frontaliers à sa loi (déjà imparfaite) sur l’IA. Dans le cadre des négociations en trilogue en cours – au cours desquelles le Parlement, la Commission européenne et le Conseil européen tentent de concilier leurs différentes propositions concernant l’acte – la France et l’Allemagne ont récemment repoussés, car ils ont réalisé les implications possibles de ces propositions pour leurs sociétés nationales d’IA en croissance rapide (Mistral et Aleph Alpha respectivement).Ce désarroi était prévisible. GPT-4, le modèle d’IA de pointe le plus performant, avait à peine été publié lorsque les premières propositions réglementaires ont été présentées. Il est difficile de réglementer un domaine qui connaît de fréquentes avancées en matière de recherche. L’écosystème de déploiement de ces systèmes évolue également rapidement ; Les entreprises d’IA fonctionneront-elles comme des plateformes, tendant vers un pouvoir de monopole ou de duopole ? Ou y aura-t-il un marché concurrentiel robuste pour les modèles d’IA d’avant-garde ? Nous ne le savons pas encore. Nous n’avons pas eu le temps pour que la recherche d’intérêt public puisse proposer des propositions politiques équilibrées, ni pour qu’un débat solide et solide au sein de la société civile ait lieu.Certaines idées visant à réglementer les systèmes frontaliers vont de soi : l’UE et d’autres devraient clairement exiger beaucoup plus de transparence de la part des principaux laboratoires d’IA, notamment en ce qui concerne les capacités dangereuses révélées par la prochaine génération de systèmes d’IA. Mais au-delà de cela, le plus sage est peut-être de ne pas précipiter les choses et de favoriser le type de débat de la société civile et de recherche approfondie qui fonde une politique plus mûre, comme le mémo de l’OMB.

Source link -57