Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Les outils d’intelligence artificielle pourraient être en mesure de prédire vos opinions politiques, selon une nouvelle étude.
- Les chercheurs ont découvert que l’IA relie les opinions de droite aux personnes qui ont l’air heureuses et aux femmes jugées « attrayantes ».
- La capacité de prédire avec précision les tendances politiques d’une personne présente une « menace pour la vie privée ». dit l’étude.
L’IA peut être en mesure de prédire vos opinions politiques en fonction de votre apparence – et cela pourrait causer des problèmes en bout de ligne, selon de nouvelles recherches.
Une équipe de chercheurs basée au Danemark et en Suède a mené une étude pour voir si les « techniques d’apprentissage en profondeur », comme la technologie de reconnaissance faciale, et l’analyse prédictive peuvent être utilisées sur les visages pour prédire les opinions politiques d’une personne.
Le but de l’étude de mars, ont écrit les chercheurs, « était de démontrer la menace importante pour la vie privée posée par l’intersection des techniques d’apprentissage en profondeur et des photographies facilement disponibles ».
Pour ce faire, les chercheurs ont utilisé un ensemble de données publiques de 3 233 images de candidats politiques danois qui se sont présentés aux élections locales et les ont recadrées pour ne montrer que leurs visages. Après cela, ils ont appliqué des techniques avancées pour évaluer leurs expressions faciales et une base de données de beauté faciale pour déterminer le « score de beauté » d’une personne.
En utilisant ces points de données, les scientifiques ont prédit si les personnages représentés étaient de gauche ou de droite. L’étude a révélé que la technologie prédisait avec précision les affiliations politiques 61% du temps.
Les variations des expressions faciales étaient liées aux opinions politiques d’un candidat, a-t-il constaté : Le modèle prédit que les candidats conservateurs « semblaient plus heureux que leurs homologues de gauche » en raison de leurs sourires, alors que les candidats libéraux étaient plus neutres. Les femmes qui exprimaient du mépris – une expression faciale caractérisée par des yeux neutres et un coin des lèvres levé – étaient liées à une politique plus libérale par le mannequin.
Les chercheurs ont également constaté que le modèle corrélait le niveau d’attractivité d’un candidat avec sa politique. On prévoyait que les femmes jugées attirantes par leurs scores de beauté avaient des opinions conservatrices, bien qu’il n’y ait pas de corrélation similaire entre le niveau d’attractivité des hommes – mesuré par leur apparence masculine – et les penchants de droite.
Bien que les liens entre l’attractivité et l’idéologie politique ne soient pas nouveaux, les résultats de l’étude révèlent à quel point l’IA peut être puissante pour déduire ces informations – et, selon les auteurs de l’étude, « ont confirmé la menace pour la vie privée posée par les approches d’apprentissage en profondeur ».
Les notions préconçues autour des normes de beauté et du genre souvent utilisées pour former des modèles d’IA peuvent renforcer les stéréotypes qui peuvent conduire à des résultats spécifiques, par exemple, dans les décisions d’embauche.
« Les photographies faciales sont généralement disponibles pour les employeurs potentiels, et ceux qui sont impliqués dans les décisions d’embauche déclarent eux-mêmes leur volonté de discriminer sur la base de l’idéologie », ont écrit les chercheurs. « Les membres du public peuvent ainsi être aidés en reconnaissant quels éléments de leurs photographies pourraient affecter leurs chances d’emploi. »
Les inquiétudes quant à la façon dont la technologie de pointe peut renforcer les perceptions autour de certaines données démographiques sont devenues plus répandues maintenant que de puissants outils d’IA comme ChatGPT d’OpenAI prennent d’assaut le monde.
Une étude distincte publiée en mars a révélé que DALL-E 2, un générateur d’images d’IA, produisait des images qui reliaient les hommes blancs au « PDG » ou au « réalisateur » 97% du temps – des résultats biaisés, selon les chercheurs, peuvent perpétuer les stéréotypes raciaux.
Les chercheurs de l’étude sur l’apprentissage en profondeur n’ont pas répondu à la demande de commentaires d’Insider avant la publication.