Customize this title in french L’IA devrait-elle décider de votre pointage de crédit ? Les démocrates disent non.

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

Les démocrates ont présenté jeudi l’Algorithmic Accountability Act de 2023, un projet de loi visant à empêcher l’IA de perpétuer des prises de décision discriminatoires dans des secteurs comme la finance, le logement, la santé, l’emploi et l’éducation.

Le projet de loi, parrainé par les sénateurs Ron Wyden (Démocrate-Oregon) et Cory Booker (DN.J.) au Sénat et la représentante Yvette Clarke (DN.Y.) à la Chambre, obligerait les entreprises utilisant l’IA à tester les algorithmes. pour partialité et divulguerait publiquement l’existence de ces algorithmes dans un registre de la Federal Trade Commission. Cela renforcerait également le personnel de l’agence afin qu’elle puisse appliquer la loi.

« Nous connaissons trop d’exemples concrets de systèmes d’IA dotés d’algorithmes défectueux ou biaisés : processus automatisés utilisés dans les hôpitaux qui sous-estiment les besoins de santé des patients noirs ; des outils de recrutement et d’embauche discriminatoires à l’égard des femmes et des candidats issus de minorités ; systèmes de reconnaissance faciale avec des taux d’erreur plus élevés chez les personnes à la peau plus foncée », a déclaré Booker dans un communiqué.

Le projet de loi intervient alors que les deux partis au Congrès jettent un regard sceptique sur les applications émergentes de l’IA lors d’auditions et de réunions à huis clos avec des personnalités majeures de la technologie.

Les agences fédérales s’efforcent également de clarifier la manière dont les garde-fous existants sur les entreprises s’appliquent à l’IA. Mardi, le Bureau de protection financière des consommateurs a souligné que les prêteurs doivent invoquer des « raisons spécifiques et précises » lorsqu’ils prennent une mesure défavorable, comme abaisser la limite de crédit d’une personne, même lorsque l’IA est impliquée. L’annonce vise à empêcher les créanciers d’utiliser de vastes ensembles de données pour prendre des décisions de prêt opaques et injustes.

Lors d’une audition mercredi devant la commission sénatoriale des banques, les sénateurs ont exprimé leur inquiétude quant au potentiel de la technologie à bouleverser le système financier de manière imprévue et face aux preuves selon lesquelles l’IA a déjà été utilisée pour « amplifier » la discrimination dans les prêts et les produits financiers.

« La philosophie de la Silicon Valley, qui consiste à agir vite et à casser, est dangereuse à la fois pour notre système financier et pour l’ensemble de notre économie », a déclaré le président du comité, Sherrod Brown (Démocrate de l’Ohio). « Si les technologies émergentes ne sont pas couvertes par les règles existantes, alors nous devons en adopter de nouvelles, pour créer de véritables garde-fous. »

Par ailleurs, les sénateurs Richard Blumenthal (Démocrate du Connecticut) et Josh Hawley (Républicain du Missouri) de la sous-commission judiciaire du Sénat sur la confidentialité et la technologie ont publié un cadre bipartisan pour réglementer l’utilisation de l’IA dans les domaines de la sécurité nationale, des décisions de consommation et d’emploi et de la vie privée. violations.

Blumenthal et Hawley ont reconnu la nécessité d’un nouvel organisme de surveillance fédéral et de contrôles des licences et des exportations des modèles d’IA ayant des utilisations « à haut risque », telles que la reconnaissance faciale et les politiques en matière de données.

Ils ont également appelé à des divulgations obligatoires pour alerter les utilisateurs lorsqu’ils interagissent avec ou voient du contenu créé par un modèle d’IA ou lorsque l’IA est utilisée pour prendre une décision défavorable, et pour donner aux chercheurs indépendants un aperçu facile des modèles et de leurs pièges. Leur cadre impose également des limites strictes à l’IA et aux enfants.

Les entreprises technologiques, quant à elles, font pression pour un processus de surveillance « dirigé par l’industrie » des réglementations fédérales plus strictes.



Source link -57