La Cour suprême examine l’algorithme

[ad_1]

Lorsque la Cour d’appel du neuvième circuit a examiné un procès contre Google en 2020, le juge Ronald M. Gould a déclaré sans ambages son point de vue sur l’atout le plus important du géant de la technologie : « Les algorithmes dits » neutres «  », a-t-il écrit, peuvent être » transformés en des missiles mortels de destruction par ISIS.

Selon Gould, il était temps de remettre en question les limites d’un petit extrait de la loi de 1996 sur la décence des communications, connue sous le nom de section 230, qui protège les plateformes en ligne de toute responsabilité pour les éléments que leurs utilisateurs publient. Les plaignants dans cette affaire, la famille d’une jeune femme qui a été tuée lors d’une attaque de l’État islamique à Paris en 2015, ont allégué que Google avait violé la loi antiterroriste en autorisant le système de recommandation de YouTube à promouvoir des contenus terroristes. Les algorithmes qui amplifiaient les vidéos d’ISIS étaient un danger en soi, ont-ils soutenu.

Gould était en minorité et l’affaire a été tranchée en faveur de Google. Mais même la majorité a averti que les rédacteurs de l’article 230 – des personnes dont la conception du World Wide Web aurait pu se limiter à des courriers électroniques et à la page d’accueil de Yahoo – n’ont jamais imaginé « le niveau de sophistication atteint par les algorithmes ». La majorité a écrit que «l’immunité radicale» de l’article 230 était «probablement fondée sur une compréhension archaïque» de la modération de la plate-forme, et que le Congrès devrait la reconsidérer. L’affaire s’est ensuite dirigée vers la Cour suprême.

Ce mois-ci, la plus haute cour du pays examinera l’article 230 pour la première fois alors qu’elle évalue une paire d’affaires—Gonzalez contre Google, et un autre contre Twitter, qui invoquent la Loi antiterroriste. Les juges chercheront à déterminer si les plateformes en ligne doivent être tenues responsables lorsque leurs systèmes de recommandation, fonctionnant d’une manière que les utilisateurs ne peuvent ni voir ni comprendre, aident les terroristes en faisant la promotion de leur contenu et en les connectant à un public plus large. Ils examineront la question de savoir si les algorithmes, en tant que créations d’une plate-forme comme YouTube, sont quelque chose de distinct de tout autre aspect de ce qui fait d’un site Web une plate-forme pouvant héberger et présenter du contenu tiers. Et, selon la façon dont ils répondront à cette question, ils pourraient transformer Internet tel que nous le connaissons actuellement, et comme certaines personnes l’ont connu toute leur vie.

Le choix de la Cour suprême de ces deux affaires est surprenant, car la question centrale semble si manifestement réglée. Dans l’affaire contre Google, la cour d’appel a fait référence à une affaire similaire contre Facebook à partir de 2019, concernant un contenu créé par le Hamas qui aurait encouragé des attaques terroristes. La Cour d’appel du deuxième circuit a tranché en faveur de Facebook, bien que, dans une dissidence partielle, le juge en chef de l’époque, Robert Katzmann, ait réprimandé Facebook pour son utilisation d’algorithmes, écrivant que l’entreprise devrait envisager de ne pas les utiliser du tout. « Ou, à défaut de cela, Facebook pourrait modifier ses algorithmes pour les empêcher de présenter des terroristes les uns aux autres », a-t-il suggéré.

Dans les affaires Facebook et Google, les tribunaux font également référence à une affaire historique en vertu de l’article 230 datant de 2008, déposée contre le site Web Roommates.com. Le site a été reconnu coupable d’avoir encouragé les utilisateurs à enfreindre le Fair Housing Act en leur soumettant une enquête leur demandant s’ils préféraient des colocataires de certaines races ou orientations sexuelles. En invitant les utilisateurs de cette manière, Roommates.com a « développé » l’information et a ainsi directement causé l’activité illégale. La Cour suprême évaluera maintenant si un algorithme développe des informations d’une manière tout aussi significative.

La large immunité décrite par l’article 230 est controversée depuis des décennies, mais a attiré une attention particulière et un débat accru au cours des dernières années pour diverses raisons, y compris le contrecoup des Big Tech. Pour les républicains et les démocrates à la recherche d’un moyen de vérifier le pouvoir des sociétés Internet, l’article 230 est devenu une cible attrayante. Donald Trump voulait s’en débarrasser, tout comme Joe Biden.

Pendant ce temps, les Américains expriment des sentiments plus durs à propos des plateformes de médias sociaux et sont devenus plus articulés dans le langage de l’économie de l’attention ; ils sont conscients des possibles effets de radicalisation et de polarisation des sites Web qu’ils considéraient auparavant comme amusants. Les poursuites pour préjudice corporel ont cité le pouvoir des algorithmes, tandis que le Congrès a envisagé des efforts pour réglementer «l’amplification» et imposer la «transparence» algorithmique. Lorsque Frances Haugen, la lanceuse d’alerte de Facebook, a comparu devant un sous-comité du Sénat en octobre 2021, le démocrate Richard Blumenthal a fait remarquer dans ses commentaires liminaires qu’il y avait une question « de savoir s’il existe un algorithme sûr ».

Bien que les algorithmes de classement, tels que ceux utilisés par les moteurs de recherche, aient toujours été protégés, Jeff Kosseff, l’auteur d’un livre sur la section 230 intitulé Les vingt-six mots qui ont créé Internet, m’a dit qu’il comprend pourquoi il y a « une certaine tentation » de dire que tous les algorithmes ne devraient pas être couverts. Parfois, les recommandations générées par algorithme servent du contenu préjudiciable aux gens, et les plateformes n’ont pas toujours fait assez pour empêcher cela. Il peut donc sembler utile de dire quelque chose comme Vous n’êtes pas responsable du contenu lui-même, mais vous êtes responsable si vous l’aidez à devenir viral. « Mais si tu dis ça, alors quelle est l’alternative ? » a demandé Kosseff.

Peut-être devriez-vous obtenir l’immunité de la section 230 uniquement si vous placez chaque élément de contenu sur votre site Web dans un ordre chronologique précis et ne laissez jamais aucun algorithme le toucher, le trier, l’organiser ou le bloquer pour quelque raison que ce soit. « Je pense que ce serait un très mauvais résultat », a déclaré Kosseff. Un site comme YouTube, qui héberge des millions et des millions de vidéos, deviendrait probablement fonctionnellement inutile si toucher à ce contenu avec un algorithme de recommandation pouvait entraîner un risque de responsabilité légale. Dans un mémoire d’amicus déposé à l’appui de Google, Microsoft a qualifié l’idée de supprimer la protection de l’article 230 des algorithmes d' »illogique », et a déclaré que cela aurait des effets « dévastateurs et déstabilisants ». (Microsoft possède Bing et LinkedIn, qui utilisent tous deux des algorithmes.)

Robin Burke, directeur du That Recommender Systems Lab de l’Université du Colorado à Boulder, a un problème similaire avec l’affaire. (Burke faisait partie d’un groupe d’experts, organisé par le Center for Democracy and Technology, qui a déposé un autre mémoire d’amicus pour Google.) L’année dernière, il a co-écrit un article sur la « haine algorithmique », qui a creusé les causes possibles d’un dégoût généralisé. de recommandations et de classement. Il a fourni, à titre d’exemple, 2022 d’Elon Musk déclaration à propos du flux Twitter : « Vous êtes manipulé par l’algorithme d’une manière dont vous ne vous rendez pas compte. » Burke et ses co-auteurs ont conclu que la frustration et la peur des utilisateurs et la haine algorithmique peuvent provenir en partie du « manque de connaissances que les utilisateurs ont sur ces systèmes complexes, mis en évidence par le terme monolithique « l’algorithme », pour ce qui sont en fait des collections de algorithmes, politiques et procédures.

Lorsque nous nous sommes entretenus récemment, Burke a souligné qu’il ne nie pas les effets néfastes que peuvent avoir les algorithmes. Mais l’approche suggérée dans le procès contre Google n’a pas de sens pour lui. D’une part, cela suggère qu’il y a quelque chose de particulièrement mauvais dans les algorithmes « ciblés ». « Une partie du problème est que ce terme n’est pas vraiment défini dans le procès », m’a-t-il dit. « Qu’est-ce que cela signifie pour quelque chose d’être ciblé? » Il y a beaucoup de choses que la plupart des gens faire veulent être ciblés. Dactylographie serrurier dans un moteur de recherche ne serait pas pratique sans ciblage. Vos recommandations d’amis n’auraient aucun sens. Vous finirez probablement par écouter beaucoup de musique que vous détestez. « Il n’y a pas vraiment de bon endroit pour dire: » D’accord, c’est d’un côté de la ligne, et ces autres systèmes sont de l’autre côté de la ligne «  », a déclaré Burke. Plus important encore, les plateformes utilisent également des algorithmes pour rechercher, masquer et minimiser les contenus nuisibles. (Le matériel d’abus sexuels sur des enfants, par exemple, est souvent détecté par des processus automatisés qui impliquent des algorithmes complexes.) Sans eux, a déclaré Kosseff, Internet serait « un désastre ».

« J’ai été vraiment surpris que la Cour suprême se saisisse de cette affaire », m’a-t-il dit. Si les juges voulaient avoir l’occasion de reconsidérer l’article 230 d’une manière ou d’une autre, ils en ont eu beaucoup. « Il y a eu d’autres cas qu’ils ont niés qui auraient été de meilleurs candidats. » Par exemple, il a nommé une affaire déposée contre l’application de rencontres Grindr pour avoir prétendument permis le harcèlement et le harcèlement, qui a fait valoir que les plates-formes devraient être responsables des fonctionnalités fondamentalement mauvaises du produit. « Il s’agit d’un véritable différend au titre de l’article 230 sur lequel les tribunaux ne sont pas cohérents », a déclaré Kosseff. L’affaire Grindr a échoué, mais le neuvième circuit a été convaincu par un argument similaire avancé par les plaignants contre Snap concernant la mort de deux jeunes de 17 ans et d’un jeune de 20 ans, qui ont été tués dans un accident de voiture alors qu’ils utilisaient un Snapchat. filtre qui montre à quelle vitesse un véhicule se déplace. Une autre affaire alléguant que l’application « parler à des inconnus » Omegle a facilité le trafic sexuel d’une fillette de 11 ans est en phase de découverte.

De nombreux cas faisant valoir qu’il existe un lien entre les médias sociaux et des actes de terrorisme spécifiques sont également rejetés, car il est difficile de prouver un lien direct, m’a dit Kosseff. « Cela me fait penser que c’est une sorte de cas étrange », a-t-il déclaré. « Cela me fait presque penser qu’il y avait des juges qui voulaient vraiment, vraiment entendre une affaire en vertu de l’article 230 ce trimestre. » Et pour une raison ou une autre, celles qui les intéressaient le plus étaient celles concernant la culpabilité de ce méchant moderne mystérieux et incompris, l’algorithme tout-puissant.

L’algorithme aura donc bientôt son jour devant les tribunaux. Ensuite, nous verrons si l’avenir du Web sera désordonné et déroutant et parfois dangereux, comme son présent, ou totalement absurde et honnêtement inimaginable. « Il faudrait à un utilisateur moyen environ 181 millions d’années pour télécharger toutes les données du Web aujourd’hui », a écrit Twitter dans son mémoire d’amicus soutenant Google. Une personne peut penser qu’elle veut tout voir, dans l’ordre, intact, mais ce n’est vraiment pas le cas.



[ad_2]

Source link -30