[ad_1]
L’administration Biden a dévoilé mardi un ensemble d’objectifs ambitieux visant à éviter les dommages causés par la montée en puissance des systèmes d’intelligence artificielle, y compris des directives sur la manière de protéger les données personnelles des personnes et de limiter la surveillance.
Le Blueprint for an AI Bill of Rights ne définit notamment pas de mesures d’application spécifiques, mais se veut plutôt un appel à l’action de la Maison Blanche pour que le gouvernement américain protège les droits numériques et civils dans un monde alimenté par l’IA, ont déclaré des responsables.
«C’est l’administration Biden-Harris qui dit vraiment que nous devons travailler ensemble, non seulement au sein du gouvernement, mais dans tous les secteurs, pour vraiment mettre l’équité au centre et les droits civils au centre des façons dont nous fabriquons et utilisons et gouverner les technologies », a déclaré Alondra Nelson, directrice adjointe pour la science et la société au Bureau de la politique scientifique et technologique de la Maison Blanche. « Nous pouvons et devons nous attendre à mieux et exiger mieux de nos technologies. »
Le bureau a déclaré que le livre blanc représentait une avancée majeure dans le programme de l’administration visant à responsabiliser les entreprises technologiques, et a souligné les engagements de diverses agences fédérales à peser les nouvelles règles et à étudier les impacts spécifiques des technologies d’IA. Le document a émergé après une consultation d’un an avec plus de deux douzaines de départements différents, et intègre également les commentaires de groupes de la société civile, de technologues, de chercheurs de l’industrie et d’entreprises technologiques telles que Palantir et Microsoft.
Il met en avant cinq principes fondamentaux qui, selon la Maison Blanche, devraient être intégrés aux systèmes d’IA pour limiter les impacts des biais algorithmiques, donner aux utilisateurs le contrôle de leurs données et garantir que les systèmes automatisés sont utilisés de manière sûre et transparente.
Les principes non contraignants citent des recherches universitaires, des études d’agences et des reportages qui ont documenté les dommages réels causés par des outils alimentés par l’IA, y compris des outils de reconnaissance faciale qui ont contribué à des arrestations injustifiées et un système automatisé qui discrimine les demandeurs de prêt qui ont assisté à un événement historiquement noir. Collège ou université.
Le livre blanc a également déclaré que les parents et les travailleurs sociaux pourraient bénéficier de savoir si les agences de protection de l’enfance utilisaient des algorithmes pour aider à décider quand les familles devraient faire l’objet d’une enquête pour maltraitance.
Plus tôt cette année, après la publication d’une revue AP d’un outil algorithmique utilisé dans un système de protection de l’enfance de Pennsylvanie, les membres du personnel de l’OSTP ont contacté les sources citées dans l’article pour en savoir plus, selon plusieurs personnes qui ont participé à l’appel. L’enquête d’AP a révélé que l’outil du comté d’Allegheny dans ses premières années de fonctionnement montrait une tendance à signaler un nombre disproportionné d’enfants noirs pour une enquête de négligence «obligatoire», par rapport aux enfants blancs.
En mai, des sources ont déclaré que des chercheurs de l’Université Carnegie Mellon et des membres du personnel de l’American Civil Liberties Union se sont entretenus avec des responsables de l’OSTP au sujet de l’utilisation des algorithmes par les agences de protection de l’enfance. Nelson a déclaré que la protection des enfants contre les dommages technologiques reste un sujet de préoccupation.
« Si un outil ou un système automatisé nuit de manière disproportionnée à une communauté vulnérable, il devrait y avoir, on l’espère, qu’il y aurait des leviers et des opportunités pour y remédier grâce à certaines des applications spécifiques et des suggestions prescriptives », a déclaré Nelson, qui sert également en tant qu’assistant adjoint du président Joe Biden.
L’OSTP n’a pas fourni de commentaires supplémentaires sur la réunion de mai.
Néanmoins, étant donné que de nombreux outils alimentés par l’IA sont développés, adoptés ou financés au niveau des États et au niveau local, le gouvernement fédéral exerce une surveillance limitée concernant leur utilisation. Le livre blanc ne fait aucune mention spécifique de la manière dont l’administration Biden pourrait influencer des politiques spécifiques aux niveaux national ou local, mais un haut responsable de l’administration a déclaré que l’administration explorait comment aligner les subventions fédérales sur les directives de l’IA.
Le livre blanc n’a aucun pouvoir sur les entreprises technologiques qui développent les outils et n’inclut aucune nouvelle proposition législative. Nelson a déclaré que les agences continueraient d’utiliser les règles existantes pour empêcher les systèmes automatisés de désavantager injustement les gens.
Le livre blanc n’a pas non plus abordé spécifiquement les technologies alimentées par l’IA financées par le ministère de la Justice, dont la division des droits civils a examiné séparément les préjudices algorithmiques, les préjugés et la discrimination, a déclaré Nelson.
Niché entre les appels à une plus grande surveillance, le livre blanc a également déclaré que lorsqu’ils sont correctement mis en œuvre, les systèmes d’IA ont le pouvoir d’apporter des avantages durables à la société, comme aider les agriculteurs à cultiver des aliments plus efficacement ou à identifier les maladies.
« Alimentés par la puissance de l’innovation américaine, ces outils ont le potentiel de redéfinir chaque partie de notre société et d’améliorer la vie de tous. Cet important progrès ne doit pas se faire au prix des droits civils ou des valeurs démocratiques », indique le document.
___
Suivez Garance Burke sur Twitter à @garanceburke.
[ad_2]
Source link -39