[ad_1]
- La Cour suprême a entendu mardi des arguments dans le cadre d’un défi technologique de grande envergure.
- Les juges semblaient sceptiques quant à la limitation des protections de l’article 230.
- L’article 230 offre aux entreprises technologiques une immunité légale sur le contenu partagé sur leurs sites.
La Cour suprême a semblé hésiter mardi à apporter des changements radicaux au fonctionnement d’Internet alors qu’elle examinait une loi fédérale historique qui protège les entreprises technologiques contre les poursuites pour le contenu partagé sur leurs sites.
« Nous sommes un tribunal », a déclaré la juge Elena Kagan pendant plus de deux heures et demie de plaidoiries sur l’affaire technologique majeure. « Nous ne savons vraiment rien de ces choses. Vous savez, ce ne sont pas comme les neuf plus grands experts d’Internet. »
Le défi de haut niveau a été porté par la famille de Nohemi Gonzalez, une étudiante américaine de 23 ans tuée lors de l’attaque de l’Etat islamique en 2015 à Paris. La famille a fait valoir que Google devrait être tenu responsable de sa plate-forme, YouTube, recommandant des vidéos ISIS à ses utilisateurs intéressés.
Outre Kagan, une majorité de juges des deux côtés du spectre idéologique ont exprimé à plusieurs reprises leur scepticisme quant à la limitation de l’immunité légale accordée à des entreprises comme Google en vertu de l’article 230 du Communications Decency Act, adopté par le Congrès en 1996.
« Le Congrès a rédigé un texte large, et ce texte a été lu à l’unanimité par les cours d’appel au fil des ans pour fournir une protection dans ce genre de situation et que vous voulez maintenant contester », a déclaré le juge Brett Kavanaugh à l’avocat Eric Schnapper, représentant la famille Gonzalez. . « Sommes-nous vraiment la bonne instance pour revenir sur ce qui avait été le texte et l’interprétation constante des cours d’appel ?
Le juge Clarence Thomas, qui a précédemment demandé au tribunal de revoir l’article 230, a également soulevé des questions sur le fait que YouTube soit légalement responsable de la manière dont il promeut le contenu.
YouTube applique son algorithme de manière « neutre », montrant des vidéos de cuisine aux utilisateurs intéressés par la cuisine, des vidéos de course aux utilisateurs intéressés par la course et des vidéos ISIS aux utilisateurs intéressés par ISIS, a déclaré Thomas.
« J’essaie de vous faire expliquer comment quelque chose qui est standard sur YouTube pour pratiquement tout ce qui vous intéresse revient soudainement à aider et à encourager parce que vous êtes dans la catégorie ISIS », a-t-il ajouté.
C’est la première fois qu’une contestation de l’article 230, très contesté, est portée devant la Cour suprême. Le bouclier juridique du monde de la technologie a fait l’objet d’un examen minutieux ces dernières années. Les républicains et les démocrates ont attaqué la disposition, affirmant que les entreprises technologiques devraient être soumises à une certaine responsabilité quant à la manière dont elles gèrent leurs plates-formes.
Mais les raisons de leurs critiques diffèrent. L’ancien président Donald Trump avait fait pression pour l’abrogation de l’article 230 en raison d’affirmations selon lesquelles les géants de la technologie auraient un parti pris anti-conservateur et limiteraient la liberté d’expression. Le président Joe Biden a déclaré que les entreprises devraient être tenues responsables de la désinformation et des discours de haine diffusés sur leurs plateformes.
Les PDG de Big Tech, d’autre part, ont hésité face aux appels à démolir l’article 230. Internet ne serait pas le même sans la loi, ont-ils averti.
Malgré le scepticisme des juges, certains d’entre eux ont cependant remis en question la large immunité juridique accordée aux entreprises technologiques lors des plaidoiries de mardi.
« N’est-il pas vrai que cette loi avait une portée d’immunité plus étroite que ce que les tribunaux ont finalement interprété pour
avoir … qu’il s’agissait vraiment de s’assurer que votre plate-forme et d’autres plates-formes n’étaient pas découragées pour bloquer, filtrer et supprimer le contenu offensant? », A demandé le juge Ketanji Brown Jackson à l’avocate Lisa Blatt, qui a plaidé au nom de Google.
Le tribunal devrait rendre sa décision dans l’affaire Gonzalez contre Google d’ici juin. Mercredi, les juges entendront une affaire distincte mais connexe concernant la question de savoir si Twitter peut être tenu responsable en vertu de la loi antiterroriste pour les allégations selon lesquelles la société de médias sociaux a aidé et encouragé le terrorisme sur le contenu de l’EI sur sa plateforme.
[ad_2]
Source link -3