[ad_1]
Pour la première fois, la Cour suprême examine son avis sur les brefs mais puissants « 26 mots qui ont créé Internet ».
Promulgué en 1996, l’article 230 du Communications Decency Act immunise les plateformes en ligne contre toute responsabilité pour tout ce qui est publié sur leur site par un tiers – une protection qui a permis au Web de s’épanouir en encourageant l’expérimentation et l’interactivité dans ses premières années. Plus récemment, l’article 230 a fait l’objet d’un examen minutieux, car les critiques bipartisanes affirment qu’il offre aux entreprises technologiques puissantes trop de couverture et trop peu de responsabilité.
Le point de vue de la Cour suprême sur la question était un mystère jusqu’à cette semaine, lorsque les juges ont entendu les plaidoiries de deux affaires impliquant 230 personnes. Mardi, la Cour a été invitée à examiner si Google était responsable des algorithmes de recommandation de YouTube montrant des vidéos de l’État islamique aux utilisateurs. L’affaire de mercredi était similaire mais concernait la responsabilité présumée de Twitter pour les membres de l’Etat islamique utilisant sa plateforme pour recruter et collecter des fonds. Quelle que soit la décision des juges, ce sera un moment majeur dans l’histoire du Web : affirmer 230 mettrait davantage de pression sur le Congrès ou les agences de réglementation pour qu’ils proposent leurs propres idées pour moderniser les garde-fous juridiques d’Internet, et le réinterpréter obligerait les entreprises technologiques à toutes les tailles à muter afin d’éviter toute responsabilité.
La direction et le ton de l’interrogatoire suggèrent que les juges penchent davantage vers le premier, bien que les avis de la Cour ne soient pas susceptibles d’être publiés avant au moins quelques mois. « Il ne semble pas y avoir d’appétit de la part de la Cour suprême pour ouvrir délibérément les vannes aux poursuites contre les entreprises technologiques », m’a dit James Grimmelmann, professeur de droit numérique et de l’information à la Cornell Law School. Ceci est remarquable en partie parce que la Cour n’a pas dit grand-chose sur les plates-formes auparavant, a-t-il observé : « Nous ne savons rien depuis des années. Nous avons enfin découvert quelque chose sur leurs pensées. Il semble, peut-être, qu’ils penchent pour laisser Internet seul.
La Cour a brièvement discuté de la question de savoir si les algorithmes pouvaient perdre l’immunité de l’article 230 s’ils étaient intentionnellement discriminatoires – l’exemple qu’ils ont retenu était un algorithme d’application de rencontres écrit pour interdire les correspondances interraciales. Ils semblaient réfléchir au rôle de l’intentionnalité : serait-il important que YouTube ait écrit un algorithme favorisant l’EI ou d’autres extrémistes par rapport à un contenu plus bénin, ou tout algorithme serait-il toujours protégé par 230 ? Mais ces questions n’étaient pas résolues ; les juges ont laissé entendre qu’ils aimeraient voir le Congrès être celui qui affinerait l’article 230 s’il avait besoin d’être peaufiné, et se dépréciaient parfois quant à leur propre capacité à comprendre les problèmes. « Nous ne savons vraiment pas grand-chose sur ces choses », a plaisanté mardi la juge Elena Kagan. « Vous savez, ce ne sont pas, comme, les neuf plus grands experts d’Internet. »
Cependant, ils ont surtout compris qu’ils comprenaient assez bien Internet. Lors des plaidoiries contre Google, Eric Schnapper, représentant la famille de la victime de l’Etat islamique Nohemi Gonzalez, s’est longuement exprimé sur le choix de YouTube d’afficher des suggestions de vidéos à l’aide d’images miniatures, affirmant que cela constituait la création de nouveaux contenus. par la plateforme. « Existe-t-il un autre moyen de s’organiser sans utiliser de vignettes ? » a demandé le juge Samuel Alito, apparemment de façon rhétorique. (Il a ensuite plaisanté en disant qu’il supposait que le site pouvait contenir « ISIS vidéo un, ISIS vidéo deux, etc. ») Le juge Clarence Thomas a demandé à Schnapper si l’algorithme de recommandation de YouTube fonctionnait différemment pour les vidéos sur, disons, le riz pilaf que pour vidéos d’ISIS. Schnapper a dit qu’il ne le pensait pas, et le juge Kagan est intervenu : « Je pense que ce qui se cachait sous la question du juge Thomas était une suggestion que les algorithmes sont endémiques à Internet, que chaque fois que quelqu’un regarde quoi que ce soit sur Internet, il y a un algorithme impliqué. » Elle s’est demandé si cette approche centrée sur l’algorithme enverrait la Cour « sur la route de sorte que 230 ne signifie vraiment rien du tout ».
Aucun des juges n’a semblé satisfait du raisonnement de Schnapper. Le juge Brett Kavanaugh l’a résumé comme paradoxal, soulignant qu’un « service informatique interactif », tel que visé à l’article 230, a été compris comme signifiant un service « qui filtre, filtre, sélectionne, choisit, organise le contenu ». Si les algorithmes ne sont pas soumis à l’immunité de l’article 230, cela « signifierait que la chose même qui fait du site Web un service informatique interactif signifie également qu’il perd la protection de l’article 230. Et tout comme une question textuelle et structurelle, nous ne ‘ Je ne lis généralement pas une loi pour, en substance, se vaincre elle-même.
Le deuxième jour des plaidoiries, la Cour a à peine discuté de l’article 230, se concentrant plutôt presque entièrement sur le fond de l’affaire contre Twitter en vertu de la loi sur la justice contre les sponsors du terrorisme. Cela équivaut à une longue discussion sur ce qui peut ou non constituer une « aide et un encouragement ». Une plateforme serait-elle responsable, par exemple, si elle n’appliquait pas ses propres politiques interdisant aux terroristes d’utiliser ses services ? Edwin Kneedler, plaidant au nom du ministère de la Justice, a pris le parti de Twitter dans l’affaire, affirmant que la loi « exige plus que des allégations selon lesquelles une organisation terroriste s’est prévalue de services informatiques interactifs éloignés de l’acte de terrorisme ; étaient largement et régulièrement accessibles à des centaines de millions, voire des milliards de personnes grâce aux fonctions automatiques de ces services ; et n’a pas choisi ISIS pour un traitement favorable.
La Cour a ensuite examiné une série d’hypothèses impliquant des ventes de téléavertisseurs, des ventes d’armes à feu, la notion d’Oussama ben Laden utilisant des services bancaires personnalisés et le scénario imaginaire de J. Edgar Hoover disant à Bell Telephone que Dutch Schultz était un gangster et utilisait son téléphone pour effectuer des activités de foule. « La discussion de ce matin a vraiment pris un ton très académique », a observé le juge en chef John Roberts.
En fait, les deux matinées étaient chargées d’arguments abstraits. La Cour doit traiter les questions plus larges avant que quiconque ne se demande si, comme indiqué dans les documents de l’affaire, 1 348 vidéos de l’Etat islamique recevant un total de 163 391 vues sur YouTube – pour une moyenne de 121 vues par vidéo – constituent une amplification algorithmique du contenu terroriste. Il y a quelques semaines, j’ai soutenu que la décision de la Cour suprême sur ces deux affaires pourrait changer le Web tel que nous le connaissons, en particulier si elle décide que les algorithmes de toutes sortes ne sont pas soumis à l’immunité de l’article 230. Cela rendrait les moteurs de recherche inutilisables et provoquerait un déluge de poursuites contre toutes les entreprises qui organisent le contenu par le biais de tout type de processus automatisé.
En prenant ces affaires, la Cour était évidemment curieuse de savoir si la singularisation des recommandations algorithmiques pouvait être une bonne occasion de réinterpréter et ainsi de moderniser l’article 230. « Je peux voir pourquoi cela semblait attrayant », a déclaré Grimmelmann. « Mais ce qui s’est passé lorsque les affaires sont passées à la plaidoirie, c’est que les juges ont vu à quel point c’était complexe et pourquoi cette ligne n’est pas très bonne à tracer. »
[ad_2]
Source link -30