Comment Google ignore les conséquences des réseaux sociaux pour les enfants


Dans les litiges comme dans la vie, parfois ce qui n’est pas dit en dit plus que ce qui est. Considérez les mémoires déposés auprès de la Cour suprême pour défendre une loi accordant à Google et à d’autres entreprises technologiques une immunité limitée contre les poursuites.

Gonzalez contre Google, prévu pour une plaidoirie devant la Cour suprême mardi, concerne l’article 230 de la Communications Decency Act, une loi promulguée en 1996 pour réglementer le nouvel Internet. Les groupes de défense des enfants qui ont déposé des mémoires d’amis du tribunal dans l’affaire notent que les plateformes de médias sociaux blessent sciemment les enfants en diffusant un contenu dangereux dans un addictif manière. Fait révélateur, aucun des dizaines de mémoires déposés du côté des entreprises technologiques ne traite de ces préjudices.

L’un des principaux objectifs du Congrès en promulguant l’article 230 était de fournir, comme l’ont dit certains sénateurs, « protection indispensable pour les enfants,” non seulement du contenu explicite mais aussi des abus. Ironiquement, les plateformes soutiennent maintenant que le Congrès avait en fait l’intention de leur offrir l’immunité pour les décisions commerciales dont elles savent qu’elles nuiront aux enfants.

L’affaire Gonzalez a été portée par la famille d’un Américain assassiné par l’Etat islamique lors des attentats terroristes de 2015 à Paris. La famille allègue qu’en conséquence prévisible des efforts déployés pour garder autant d’yeux que possible sur YouTube de Google, des vidéos de recrutement de terroristes sont diffusées à des personnes susceptibles d’être intéressées par le terrorisme. Dans une affaire similaire qui sera débattue mercredi, Twitter contre Taamneh, le tribunal évaluera si le prétendu manquement des plateformes à prendre des «mesures significatives» pour supprimer le contenu terroriste viole la loi fédérale antiterroriste.

Les répercussions de l’essor des médias sociaux vont bien au-delà d’un accès accru au contenu terroriste. Au cours des années où Instagram a explosé d’un million à un milliard d’utilisateurs, les États-Unis ont connu une croissance étonnante 146 % de pointe dans les suicides par arme à feu chez les enfants de 10 à 14 ans. Le nombre global de suicides chez les jeunes a augmenté de 57 %, sans précédent. Bien que la corrélation entre la croissance des plateformes et la crise de la maladie mentale chez les jeunes ne prouve pas la causalité, la recherche interne divulguée de Facebook a noté que 6 % des adolescents américains utilisateurs d’Instagram « font remonter leur désir de se suicider » à la plateforme.

Les chercheurs et les cliniciens ont également documenté à plusieurs reprises les dommages physiques et mentaux généralisés liés aux médias sociaux chez les enfants. Lundi dernier, les Centers for Disease Control and Prevention des États-Unis ont rapporté que les adolescentes souffraient de niveaux record de tristesse et de risque de suicide, que certains experts attribuent en partie à l’essor des médias sociaux. Et mardi, un comité du Sénat américain a entendu des histoires déchirantes sur les dangers, comme l’a décrit un parent en deuil, du « pouvoir incontrôlé de l’industrie des médias sociaux ».

Les plateformes de médias sociaux gagnent de l’argent en vendant de la publicité. Plus de temps passé sur une plate-forme signifie plus de regards sur ses publicités, ce qui signifie qu’elle peut facturer plus pour ces publicités. De plus, plus un utilisateur passe de temps sur la plate-forme, plus la plate-forme développe de données sur l’utilisateur, qu’elle peut à son tour utiliser pour garder l’utilisateur sur la plate-forme plus longtemps.

Les humains ne trient pas personnellement qui voit ce qui se trouve sur ces plateformes. Au contraire, les humains donnent aux technologies d’intelligence artificielle l’instruction de maximiser ce que les plates-formes appellent « l’engagement des utilisateurs ». L’IA le fait à une vitesse fantastique en testant quelles recommandations fonctionnent le mieux auprès de milliards d’utilisateurs. Ensuite, il fournit un contenu basé non seulement sur ce qu’un enfant dit qu’il veut, mais aussi sur ce qui est statistiquement le plus susceptible de garder les enfants comme lui collés à l’écran. Trop souvent, la réponse est tout ce qui exploite ses peurs et ses angoisses.

Cela signifie qu’avec une fréquence inquiétante, les adolescents déprimés reçoivent des conseils de suicide, les filles soucieuses de leur image corporelle obtiennent du contenu faisant la promotion des troubles de l’alimentation et les jeunes curieux de drogue ont la possibilité d’acheter des pilules contenant du fentanyl mortel. De plus, les plates-formes utilisent des gadgets neuroscientifiquement adaptés tels que le défilement automatique, des rappels constants pour revenir sur la plate-forme et des « j’aime » qui déclenchent la dopamine et qui peuvent créer une dépendance pour les enfants. Souvent, les enfants qui veulent ardemment éteindre la plate-forme ne le peuvent pas ; leur cerveau n’est tout simplement pas assez vieux pour résister aux dépendances au même degré que celui des adultes.

Pour maintenir la croissance chaque trimestre, les plateformes doivent trouver des moyens d’attirer et de conserver plus d’utilisateurs plus longtemps. Si les plateformes sont autorisées à continuer de profiter de la technologie dont elles savent qu’elle nuira à un grand nombre d’enfants sans crainte de conséquences financières, elles continueront à perfectionner leurs techniques et davantage d’enfants seront blessés. La crise du suicide des enfants et de la santé mentale que nous connaissons actuellement va s’aggraver sans fin en vue.

Il n’a pas à être de cette façon. La méthode du moteur de recherche Google consistant à hiérarchiser le contenu pour les téléspectateurs, conçue pour être basée sur l’expertise, l’autorité et la fiabilité des sites Web, montre qu’il existe des moyens de décider qui voit quoi qui sont beaucoup moins risqués pour les enfants – et pour tous les autres.

La décision du tribunal ne mettra pas fin au débat sur l’article 230, mais elle pourrait commencer à rétablir la loi dans son objectif initial de protection des jeunes. Mais il ne devrait pas y avoir de débat sur le fait qu’il devrait être illégal de militariser sciemment les vulnérabilités des enfants contre eux.

Et si nous ne pouvons pas nous mettre d’accord là-dessus, quiconque pense que le mal sans précédent que subissent les enfants est le prix que la société doit payer pour la liberté sur Internet devrait au moins reconnaître ce mal.

Ed Howard est avocat principal au Children’s Advocacy Institute de la faculté de droit de l’Université de San Diego.



Source link -21