Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
L’utilisation de l’intelligence artificielle (IA) est sur le point de se développer dans un contexte de coûts de création plus élevés et d’une concurrence accrue, mais sans corriger les causes sous-jacentes des biais dans les données, les modèles d’IA peuvent intégrer les inégalités d’équité raciale à une plus grande échelle, selon un rapport récent du Institut urbain conclu.
« Toutefois, elle doit d’abord surmonter les préjugés et les inégalités déjà ancrés dans les données qu’elle analyse. Les décideurs politiques et le secteur hypothécaire doivent tenir compte des barrières historiques et actuelles qui excluent complètement du marché les acheteurs potentiels de couleur », selon le rapport publié lundi.
Près de 50 entretiens menés auprès de membres du personnel du gouvernement fédéral, d’entreprises de technologie financière, de prêteurs hypothécaires et de défenseurs des droits des consommateurs ont révélé que la capacité de l’IA à améliorer l’équité raciale peut être minée par les données utilisées pour entraîner l’algorithme, et pas seulement par l’algorithme lui-même.
Les entretiens ont révélé que certains des modèles de souscription basés sur l’IA les plus prometteurs sont également les plus controversés – comme l’intégration explicite de la course à l’avance dans les modèles de souscription.
Alors que l’IA est utilisée dans le marketing, la souscription, l’évaluation des propriétés et la détection des fraudes, selon les résultats des entretiens, elle commence seulement à être intégrée aux services.
En termes d’adoptants, les entreprises parrainées par le gouvernement (GSE), les grands prêteurs hypothécaires et les sociétés de technologie financière ont utilisé l’IA. Cependant, les données des entretiens ont montré que les taux d’adoption semblent plus faibles parmi les prêteurs plus petits et axés sur une mission, tels que les institutions de dépôt minoritaires (MDI) et les institutions financières de développement communautaire (CDFI).
Une conception intentionnelle pour l’équité, des programmes pilotes soigneusement étudiés et des orientations réglementaires sont trois domaines sur lesquels le rapport recommande aux décideurs politiques, aux régulateurs et aux développeurs de se concentrer pour garantir que l’IA étend équitablement l’accès aux services hypothécaires.
En créant une conception intentionnelle pour une IA équitable, le rapport souligne qu’une réflexion approfondie est nécessaire sur les données de formation utilisées et sur les biais qui doivent être pris en compte ; comment rendre l’outil d’IA ou d’apprentissage automatique plus transparent pour les utilisateurs ; et si le processus humain remplacé par l’IA est équitable ou doit être amélioré.
L’Urban Institute a suggéré au gouvernement fédéral… Ginnie Mae et les GSE, en particulier, peuvent également utiliser des programmes pilotes pour déterminer l’efficacité des outils d’IA et répondre aux problèmes d’équité à une plus petite échelle avant que l’industrie ne mette en œuvre ces outils à plus grande échelle.
Un nouveau projet pilote potentiel pourrait être utilisé par les GSE ou la FHA pour tester l’utilisation de l’IA dans le service des prêts hypothécaires.
« Un algorithme basé sur l’IA qui projette la probabilité de délinquance des emprunteurs et identifie le meilleur processus de gestion des risques pourrait être utile. Les GSE ou la FHA pourraient déployer le projet pilote et le tester par rapport aux processus actuels pour déterminer la délinquance et la gestion qui en résulte », selon le rapport.
Les personnes interrogées ont souligné l’absence de normes réglementaires claires régissant l’utilisation de l’IA dans le secteur hypothécaire.
«Tout ce qui crée plus de certitude et de sécurité de la part de la communauté réglementaire aiderait à la fois les acteurs de l’industrie et les consommateurs», selon une personne interrogée.
Le rapport souligne la nécessité pour les régulateurs fédéraux de protéger les consommateurs, en particulier les plus vulnérables, car le gouvernement, les prêteurs et les fournisseurs tiers peuvent tous avoir des incitations différentes à utiliser l’IA.
Le Bureau de la protection financière des consommateurs (CFPB) a également un rôle à jouer pour définir clairement « à quels éléments de données les consommateurs ont droit d’accéder, quelles sont les normes applicables aux entreprises privées qui accèdent aux données et les transfèrent, et comment plusieurs lois fédérales sur le financement de la consommation devraient être appliquées aux transferts de données des consommateurs. » selon le rapport.
Les changements ne se produiront pas automatiquement et le gouvernement fédéral doit montrer la voie en garantissant que l’IA produit des résultats équitables, indique le rapport.
« Un rôle important du gouvernement fédéral peut surmonter le gouffre de l’innovation, fournir une plus grande clarté sur le prix de l’innovation et étendre plus facilement les services basés sur l’IA les plus prometteurs qui optimisent à la fois l’efficacité et l’équité. »