Customize this title in frenchLes régulateurs visent l’IA pour protéger les consommateurs et les travailleurs

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

NEW YORK (AP) – Alors que les inquiétudes grandissent au sujet de systèmes d’intelligence artificielle de plus en plus puissants comme ChatGPT, l’organisme de surveillance financière du pays affirme qu’il veille à ce que les entreprises respectent la loi lorsqu’elles utilisent l’IA.

Déjà, des systèmes automatisés et des algorithmes aident à déterminer les cotes de crédit, les conditions de prêt, les frais de compte bancaire et d’autres aspects de notre vie financière. L’IA affecte également l’embauche, le logement et les conditions de travail.

Ben Winters, avocat principal du Centre d’information sur la confidentialité électronique, a déclaré qu’une déclaration conjointe sur l’application publié par les agences fédérales le mois dernier était un premier pas positif.

« Il y a ce récit selon lequel l’IA est entièrement non réglementée, ce qui n’est pas vraiment vrai », a-t-il déclaré. « Ils disent: » Ce n’est pas parce que vous utilisez l’IA pour prendre une décision que vous êtes exempté de toute responsabilité concernant les impacts de cette décision. ‘Ceci est notre opinion à ce sujet. Nous regardons.' »

Au cours de l’année écoulée, le Consumer Finance Protection Bureau a déclaré qu’il avait infligé des amendes aux banques pour des systèmes automatisés mal gérés. qui ont entraîné des saisies immobilières injustifiées, des saisies de voitures et des paiements de prestations perdus, après que les institutions se soient appuyées sur de nouvelles technologies et des algorithmes défectueux.

Il n’y aura pas d ‘«exemptions d’IA» à la protection des consommateurs, disent les régulateurs, citant ces mesures d’application à titre d’exemples.

Le directeur du Consumer Finance Protection Bureau, Rohit Chopra, a déclaré que l’agence avait « déjà commencé à travailler pour continuer à se muscler en interne lorsqu’il s’agit d’impliquer des scientifiques des données, des technologues et d’autres pour s’assurer que nous pouvons relever ces défis » et que l’agence continue pour identifier les activités potentiellement illégales.

Des représentants de la Federal Trade Commission, de la Equal Employment Opportunity Commission et du ministère de la Justice, ainsi que du CFPB, disent tous qu’ils dirigent les ressources et le personnel pour viser les nouvelles technologies et identifier les façons négatives dont cela pourrait affecter la vie des consommateurs.

« L’une des choses que nous essayons de clarifier, c’est que si les entreprises ne comprennent même pas comment leur IA prend des décisions, elles ne peuvent pas vraiment l’utiliser », a déclaré Chopra. « Dans d’autres cas, nous examinons comment nos lois sur les prêts équitables sont respectées en ce qui concerne l’utilisation de toutes ces données. »

En vertu de la Fair Credit Reporting Act et de la Equal Credit Opportunity Act, par exemple, les prestataires de services financiers ont l’obligation légale d’expliquer toute décision défavorable en matière de crédit. Ces réglementations s’appliquent également aux décisions prises en matière de logement et d’emploi. Là où l’IA prend des décisions de manière trop opaque pour être expliquée, les régulateurs disent que les algorithmes ne devraient pas être utilisés.

« Je pense qu’il y avait un sentiment que, ‘Oh, donnons-le simplement aux robots et il n’y aura plus de discrimination' », a déclaré Chopra. « Je pense que l’apprentissage est que ce n’est en fait pas vrai du tout. À certains égards, le biais est intégré aux données.

La présidente de l’EEOC, Charlotte Burrows, a déclaré qu’il y aura une application contre la technologie d’embauche d’IA qui filtre les candidats handicapés, par exemple, ainsi que le soi-disant «bossware» qui surveille illégalement les travailleurs..

Burrows a également décrit comment les algorithmes pourraient dicter comment et quand les employés peuvent travailler d’une manière qui violerait la loi existante.

« Si vous avez besoin d’une pause parce que vous avez un handicap ou que vous êtes enceinte, vous avez besoin d’une pause », a-t-elle déclaré. « L’algorithme ne prend pas nécessairement en compte cet hébergement. Ce sont des choses que nous examinons de près … Je tiens à préciser que même si nous reconnaissons que la technologie évolue, le message sous-jacent ici est que les lois s’appliquent toujours et que nous avons des outils pour les faire respecter.

Le meilleur avocat d’OpenAI, lors d’une conférence ce mois-ci, a suggéré une approche de la réglementation dirigée par l’industrie.

« Je pense que cela commence d’abord par essayer d’atteindre une sorte de normes », a déclaré Jason Kwon, avocat général d’OpenAI, lors d’un sommet technologique à Washington, DC, organisé par le groupe de l’industrie du logiciel BSA. « Ceux-ci pourraient commencer par les normes de l’industrie et une sorte de fusion autour de cela. Et les décisions de les rendre obligatoires ou non, et ensuite quel est le processus de mise à jour, ces choses sont probablement un terrain fertile pour plus de conversation.

Sam Altman, le responsable d’OpenAI, qui fabrique ChatGPT, a déclaré que l’intervention du gouvernement « sera essentielle pour atténuer les risques de systèmes d’IA de plus en plus puissants ».suggérant la formation d’une agence américaine ou mondiale pour autoriser et réglementer la technologie.

Bien qu’il n’y ait aucun signe immédiat que le Congrès élaborera de nouvelles règles radicales sur l’IA, comme le font les législateurs européensles préoccupations sociétales ont amené Altman et d’autres PDG de la technologie à la Maison Blanche ce mois-ci pour répondre à des questions difficiles sur les implications de ces outils.

Winters, de l’Electronic Privacy Information Center, a déclaré que les agences pourraient faire davantage pour étudier et publier des informations sur les marchés pertinents de l’IA, sur le fonctionnement de l’industrie, sur l’identité des principaux acteurs et sur la manière dont les informations collectées sont utilisées – la manière dont les régulateurs ont fait dans le passé avec les nouveaux produits et technologies de crédit à la consommation.

« Le CFPB a fait un très bon travail à ce sujet avec les sociétés ‘Achetez maintenant, payez plus tard’, » il a dit. « Il y a tellement de parties de l’écosystème de l’IA qui sont encore si inconnues. Publier ces informations irait loin.

___

Le journaliste technologique Matt O’Brien a contribué à ce rapport.

___

L’Associated Press reçoit le soutien de la Fondation Charles Schwab pour des rapports éducatifs et explicatifs visant à améliorer la littératie financière. La fondation indépendante est distincte de Charles Schwab and Co. Inc. L’AP est seule responsable de son journalisme.

Source link -57