[ad_1]
Tout le monde a une opinion sur le rachat de Twitter par Elon Musk. Je l’ai vécu. J’ai vu de première main les méfaits qui peuvent découler d’un pouvoir incontrôlé dans la technologie. Mais il n’est pas trop tard pour renverser la vapeur.
J’ai rejoint Twitter en 2021 en provenance de Parity AI, une société que j’ai fondée pour identifier et corriger les biais dans les algorithmes utilisés dans divers secteurs, notamment la banque, l’éducation et la pharmacie. C’était difficile de laisser mon entreprise derrière moi, mais je croyais en la mission : Twitter offrait une opportunité d’améliorer la façon dont des millions de personnes dans le monde sont vues et entendues. Je dirigerais les efforts de l’entreprise pour développer des approches plus éthiques et transparentes de l’intelligence artificielle en tant que directeur technique de l’équipe META (Machine Learning Ethics, Transparency, and Accountability).
Rétrospectivement, il est remarquable que l’équipe ait existé. Il était axé sur la communauté, l’engagement du public et la responsabilisation. Nous avons poussé l’entreprise à s’améliorer, en offrant à nos dirigeants des moyens de donner la priorité à plus que les revenus. Sans surprise, nous avons été anéantis lorsque Musk est arrivé.
Il n’a peut-être pas vu la valeur du type de travail que META a fait. Prenez notre enquête sur la fonction de recadrage d’image automatisée de Twitter. L’outil a été conçu pour identifier automatiquement les sujets les plus pertinents dans une image lorsque seule une partie est visible dans le flux d’un utilisateur. Si vous postiez une photo de groupe de vos amis au bord du lac, elle se concentrerait sur les visages plutôt que sur les pieds ou les arbustes. C’était une prémisse simple, mais imparfaite : les utilisateurs ont remarqué que l’outil semblait favoriser les Blancs par rapport aux personnes de couleur dans ses cultures. Nous avons décidé de mener une audit complet, et il y avait effectivement un biais faible mais statistiquement significatif. Lorsque Twitter a utilisé l’IA pour déterminer quelle partie d’une grande image afficher sur le flux d’un utilisateur, il avait une légère tendance à favoriser les Blancs (et, en plus, à favoriser les femmes). Notre solution était simple : le recadrage d’image n’était pas une fonction qui devait être automatisée, donc Twitter a désactivé l’algorithme.
Je me suis senti bien à l’idée de rejoindre Twitter pour aider à protéger les utilisateurs, en particulier les personnes déjà confrontées à une discrimination plus large, contre les préjudices algorithmiques. Mais des mois après le rachat de Musk – une nouvelle ère définie par une réduction fébrile des coûts, une modération laxiste du contenu, l’abandon de fonctionnalités importantes telles que les listes de blocage, et une prolifération de problèmes techniques qui ont empêché le site de rester en ligne pendant tout le Super Bowl – il semble que personne ne surveille. Un an et demi après notre audit, Musk a licencié des employés dédiés à la protection des utilisateurs. (De nombreux employés, dont moi, poursuivent l’arbitrage en réponse.) Il a nommé une nouvelle responsable de la confiance et de la sécurité, Ella Irwin, qui a la réputation de l’apaiser. Je crains qu’en ignorant la question nuancée de la surveillance algorithmique – à tel point que Musk aurait exigé une refonte des systèmes de Twitter pour afficher ses tweets au-dessus de tous les autres – Twitter perpétuera et augmentera les problèmes de biais, de désinformation et de désinformation du monde réel, et contribuent à un climat politique et social mondial instable.
Irwin n’a pas répondu à une série de questions sur les licenciements, la surveillance algorithmique et la modération du contenu. Une demande adressée à l’e-mail de presse de l’entreprise est également restée sans réponse.
Certes, Twitter n’a jamais été parfait. Le leadership distrait de Jack Dorsey dans plusieurs entreprises l’a empêché de définir une orientation stratégique claire pour la plate-forme. Son successeur de courte durée, Parag Agrawal, était bien intentionné mais inefficace. Le chaos constant et la structuration et la restructuration sans fin étaient des plaisanteries internes permanentes. Des impératifs concurrents se manifestaient parfois par des désaccords entre ceux d’entre nous chargés de protéger les utilisateurs et l’équipe dirigeant la personnalisation algorithmique. Notre mandat était de rechercher des résultats qui gardaient les gens en sécurité. Le leur était de stimuler l’engagement et donc les revenus. Le grand point à retenir : l’éthique ne s’adapte pas toujours à un engagement à court terme.
Un mentor m’a dit un jour que mon rôle était de dire la vérité. Parfois, cela signifiait confronter les dirigeants à des réalités inconfortables. Chez Twitter, cela signifiait pointer vers des méthodes d’augmentation des revenus (telles qu’une personnalisation accrue) qui conduiraient à des bulles de filtres idéologiques, ouvriraient des méthodes de manipulation de robots algorithmiques ou populariseraient par inadvertance la désinformation. Nous avons travaillé sur des moyens d’améliorer nos algorithmes d’identification de la parole toxique afin qu’ils ne discriminent pas l’anglais vernaculaire afro-américain ainsi que les formes de parole récupérées. Tout cela dépendait des employés de base. Aussi désordonné qu’il était, Twitter semblait parfois fonctionner principalement sur la bonne volonté et le dévouement de son personnel. Mais cela a fonctionné.
Ces jours sont révolus. De l’annonce de l’offre de Musk au jour où il est entré dans le bureau en tenant un évier, j’ai regardé, horrifié, alors qu’il tuait lentement la culture de Twitter. Le débat et la dissidence constructive ont été étouffés sur Slack, les dirigeants ont accepté leur sort ou ont discrètement démissionné, et Twitter est lentement passé d’une entreprise qui se souciait des personnes sur la plate-forme à une entreprise qui ne se soucie que des personnes en tant qu’unités monétisables. Les quelques jours que j’ai passés sur le Twitter de Musk pourraient être décrits comme un Seigneur des mouches– comme un test de caractère alors que le leadership existant s’effondrait, que les copains de Musk emménageaient et que sa gestion au hasard – si on pouvait l’appeler ainsi – insufflait un sentiment de peur et de confusion.
Malheureusement, Musk ne peut pas simplement être ignoré. Il a acheté un siège mondialement influent et politiquement puissant. Nous n’avons certainement pas besoin de spéculer sur ses réflexions sur l’éthique algorithmique. Il aurait licencié un ingénieur de haut niveau au début du mois pour avoir suggéré que son engagement diminuait parce que les gens se désintéressaient de lui, plutôt qu’à cause d’une sorte d’interférence algorithmique. (Musk a d’abord répondu au reportage sur la hiérarchisation de ses tweets en publiant un mème hors couleuret aujourd’hui appelé la couverture « FAUX. » ) Et son palmarès est loin d’être inclusif :virus de l’esprit éveillé», et explicitement jeté dans son sort avec Donald Trump et Ye (anciennement Kanye West).
Dévaloriser les travaux sur les biais algorithmiques pourrait avoir des conséquences désastreuses, notamment en raison de la pernicieuse invisibilité mais de l’omniprésence de ces biais. En tant qu’arbitres de la soi-disant place publique numérique, les systèmes algorithmiques jouent un rôle important dans le discours démocratique. En 2021, mon équipe publié une étude montrant que le système de recommandation de contenu de Twitter amplifiait les publications de droite au Canada, en France, au Japon, en Espagne, au Royaume-Uni et aux États-Unis. Nos données d’analyse ont couvert la période juste avant l’élection présidentielle américaine de 2020, identifiant un moment où les médias sociaux ont été un point de contact crucial d’informations politiques pour des millions de personnes. Actuellement, les discours de haine de droite peuvent circuler sur Twitter dans des endroits comme l’Inde et le Brésil, où des partisans radicalisés de Jair Bolsonaro ont organisé une tentative de coup d’État à la manière du 6 janvier.
Le Twitter de Musk est simplement une manifestation supplémentaire de la façon dont l’autorégulation par les entreprises technologiques ne fonctionnera jamais, et il souligne la nécessité d’une véritable surveillance. Nous devons doter un large éventail de personnes des outils nécessaires pour faire pression sur les entreprises afin qu’elles reconnaissent et traitent les vérités inconfortables concernant l’IA qu’elles construisent. Les choses doivent changer.
Mon expérience sur Twitter m’a donné une idée claire de ce qui peut aider. L’IA est souvent considérée comme une boîte noire ou une force d’un autre monde, mais c’est du code, comme beaucoup d’autres technologies. Les gens peuvent l’examiner et le modifier. Mon équipe l’a fait sur Twitter pour des systèmes que nous n’avons pas créés ; d’autres le pouvaient aussi, s’ils étaient autorisés. L’Algorithmic Accountability Act, la Platform Accountability and Transparency Act et la loi locale 144 de la ville de New York, ainsi que les lois sur les services numériques et l’IA de l’Union européenne, démontrent toutes comment la législation pourrait créer une voie permettant aux parties externes d’accéder au code source et aux données pour assurer le respect des exigences en matière d’antibias. Les entreprises devraient prouver statistiquement que leurs algorithmes ne sont pas nuisibles, permettant dans certains cas à des personnes extérieures à leur entreprise un niveau d’accès sans précédent pour effectuer des audits de code source, similaires au travail que mon équipe effectuait chez Twitter.
Après la publication de l’audit de mon équipe sur la fonctionnalité de recadrage d’images, Twitter a reconnu le besoin de commentaires publics constructifs, nous avons donc organisé notre premier prime de biais algorithmique. Nous avons rendu notre code disponible et avons laissé des data scientists externes creuser. Ils pourraient gagner de l’argent en identifiant les biais que nous avions manqués. Nous avons reçu des réponses uniques et créatives du monde entier et inspiré des programmes similaires dans d’autres organisations, notamment l’Université de Stanford.
Les primes de biais public pourraient faire partie intégrante des programmes algorithmiques d’évaluation des risques dans les entreprises. Le National Institute of Standards and Technology, l’entité gouvernementale américaine qui élabore des normes de risque algorithmique, a inclus des exercices de validation, tels que des primes, dans le cadre de son programme d’éthique algorithmique recommandé dans son dernier cadre de gestion des risques liés à l’IA. Les programmes Bounty peuvent être un moyen informatif d’intégrer les commentaires publics structurés dans la surveillance algorithmique en temps réel.
Pour répondre aux impératifs de la lutte contre la radicalisation à la vitesse de la technologie, nos approches doivent également évoluer. Nous avons besoin d’équipes bien dotées en personnel et en ressources qui travaillent au sein des entreprises technologiques pour s’assurer que les dommages algorithmiques ne se produisent pas, mais nous avons également besoin de protections juridiques et d’investissements dans des méthodes d’audit externe. Les entreprises technologiques ne se surveilleront pas, surtout pas avec des personnes comme Musk aux commandes. Nous ne pouvons pas supposer – et nous n’aurions jamais dû le supposer – que ceux qui sont au pouvoir ne font pas également partie du problème.
[ad_2]
Source link -30