Customize this title in frenchLe CFPB détaille les exigences légales concernant l’utilisation de l’IA par les prêteurs lors de la prise de décisions de crédit

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

Le Bureau de la protection financière des consommateurs (CFPB) a annoncé mardi une série d’exigences juridiques que les prêteurs doivent respecter lorsqu’ils utilisent l’intelligence artificielle (IA) ou « d’autres modèles complexes » pour prendre des décisions concernant la solvabilité des emprunteurs.

« Les lignes directrices décrivent comment les prêteurs doivent utiliser des raisons spécifiques et précises lorsqu’ils prennent des mesures défavorables à l’encontre des consommateurs », a indiqué le CFPB dans son communiqué. « Cela signifie que les créanciers ne peuvent pas simplement utiliser des exemples de formulaires d’action défavorable et de listes de contrôle du CFPB s’ils ne reflètent pas la raison réelle du refus de crédit ou d’un changement des conditions de crédit.

Des exigences comme celles-ci deviennent « particulièrement importantes » en raison de l’évolution du rythme d’utilisation d’algorithmes avancés et de données personnelles des consommateurs dans la souscription du crédit à la consommation, a déclaré le Bureau. Expliquer pourquoi certaines mesures sont prises améliorera également les chances futures d’obtention de crédit des consommateurs tout en les protégeant contre la discrimination illégale.

« La technologie commercialisée sous le nom d’intelligence artificielle élargit les données utilisées pour les décisions de prêt, et augmente également la liste des raisons potentielles pour lesquelles le crédit est refusé », a déclaré le directeur du CFPB, Rohit Chopra, dans un communiqué. « Les créanciers doivent être en mesure d’expliquer spécifiquement les raisons de leur refus. Il n’existe pas d’exemption particulière pour l’intelligence artificielle.

Sur le marché du crédit à la consommation, l’utilisation d’algorithmes avancés, souvent commercialisés sous le nom d’« intelligence artificielle », est en augmentation. L’IA et d’autres technologies de prise de décision prédictive sont de plus en plus liées aux modèles de souscription, a déclaré le Bureau.

« Les créanciers alimentent souvent ces algorithmes complexes avec de grands ensembles de données, comprenant parfois des données qui peuvent être collectées lors de la surveillance des consommateurs », explique l’annonce. « En conséquence, un consommateur peut se voir refuser un crédit pour des raisons qu’il ne considère pas particulièrement pertinentes pour ses finances. »

Certains créanciers peuvent également « s’appuyer de manière inappropriée sur une liste de contrôle de raisons fournie dans les exemples de formulaires du CFPB », mais la Loi sur l’égalité des chances en matière de crédit (ECOA) n’autorise pas les créanciers à « simplement procéder à des exercices de vérification des cases lorsqu’ils délivrent des avis d’action défavorable s’ils le font ». il ne parvient donc pas à informer avec précision les consommateurs des raisons pour lesquelles des mesures défavorables ont été prises », a déclaré le Bureau.

Une circulaire publiée en 2022 précisait que l’ECOA exige que les créanciers « expliquent les raisons spécifiques pour lesquelles ils prennent des mesures défavorables », une exigence qui reste en vigueur même si ces entreprises « utilisent des algorithmes complexes et des modèles de crédit boîte noire qui rendent difficile l’identification de ces raisons. .»

Les orientations rendues mardi développent la perspective partagée dans cette circulaire de 2022 en expliquant que « les exemples de listes de contrôle d’actions défavorables ne doivent pas être considérés comme exhaustifs et ne couvrent pas automatiquement les exigences légales d’un créancier ».

Les raisons des « actions indésirables » telles que les refus de crédit doivent être spécifiques et éviter les généralités qui peuvent découler de l’exemple de langage précédemment fourni par le CFPB. Le fait de ne pas fournir suffisamment de détails sur une décision particulière et de s’appuyer plutôt sur un « large éventail » reste tout aussi applicable aux algorithmes avancés qu’à toute autre chose ou à n’importe qui d’autre.

« Les créanciers doivent divulguer les raisons spécifiques, même si les consommateurs peuvent être surpris, contrariés ou irrités d’apprendre que leurs demandes de crédit ont été évaluées sur la base de données qui peuvent ne pas être intuitivement liées à leurs finances », a déclaré le CFPB.

Source link -57