[ad_1]
NMaintenant que l’enquête sur la mort atroce de Molly Russell en 2017 a livré ses conclusions, nous devons nous adapter à une nouvelle réalité. L’adolescent est décédé des suites d’un acte d’automutilation, « alors qu’il souffrait de dépression et des effets négatifs des contenus en ligne ». Son père a décrit comment elle était entrée dans « le plus sombre des mondes »: du contenu en ligne sur l’automutilation et le suicide a été diffusé par vagues par Instagram et Pinterest, laissant le soin à l’algorithme. « On dirait que vous avez déjà montré un intérêt pour le désespoir : essayez ce flux infiniment régénérant de désespoir frais. »
Les plateformes de médias sociaux ciblent délibérément les utilisateurs avec du contenu, recherchant l’attention et donc les revenus publicitaires : nous le savions. Ce contenu peut être extrêmement préjudiciable : nous le savions aussi. Mais sûrement maintenant que nous avons lutté, hésitant, vers la conclusion que cela peut être mortel, il ne peut plus y avoir de complaisance. Ce sont des entreprises comme les autres, et il est temps de s’appuyer sur le consensus selon lequel elles causent des dommages en réglementant, comme nous le ferions si elles produisaient des déchets toxiques et les pompaient dans les pataugeoires.
Les gens, en particulier les parents, s’inquiètent beaucoup de l’ère numérique et de son impact sur les adolescents, et beaucoup de ces inquiétudes sont absurdes : sont-ils accros à la Fifa ? Minecraft les transformera-t-il en reclus ou rompra-t-il leur lien avec le monde naturel ? Est-ce que Fortnite les empêche de lire des livres (en fait, oui, mais une autre fois pour ça) ? Parfois, vous obtiendrez une correction utile d’un spécialiste de la toxicomanie ou de l’adolescence, mais il n’y a pas de réponse cohérente des géants de la technologie, car ces angoisses créent exactement le débat dont elles ont besoin, amorphes et essentiellement luddites : et si les enfants d’aujourd’hui étaient moins résilients qu’hier parce qu’ils ont été élevés dans un monde aux stimuli différents ? Si la véritable menace pour les enfants est la modernité elle-même, elle ne peut jamais être abordée, elle ne peut qu’être discutée.
Sous tout ce bruit se cache un battement de tambour persistant, un programme désormais bien connu, poursuivi par des méthodes largement étudiées. Toute plate-forme dont l’utilisation est gratuite existe pour maximiser ses revenus publicitaires, ce qui signifie chasser les spectateurs et le temps de visionnage. Les algorithmes suggérant du contenu ne sont pas conçus pour donner la priorité à la qualité ou à la pertinence, mais plutôt pour s’intéresser à un utilisateur donné et le diriger, dans le cas de Molly Russell, vers des versions plus extrêmes de celui-ci. Cela a eu pour résultat tragique avec Molly qu’elle a été bombardée par des explorations de plus en plus explicites de la misère, de sorte que le coroner, Andrew Walker, a déclaré: « Il ne serait pas sûr de laisser le suicide comme conclusion. » Nous ne pouvons pas sceller une mort par désespoir en tant qu’acte individuel alors que des sociétés mondiales commercialisent sans retenue le désespoir.
Le problème va bien au-delà des jeunes : nous pouvons voir les impacts des algorithmes dans la politique nativiste partout dans le monde, et à cet égard, la jeunesse n’est pas le facteur déterminant – en effet, la caractérisation désinvolte de la jeunesse comme un état de vulnérabilité est sa propre impasse . Néanmoins, il y a deux éléments qui rendent les médias sociaux particulièrement influents sur les jeunes, et les mastodontes du domaine particulièrement coupables de leur incapacité à résoudre le problème. Comme le note Laura Bates dans Men Who Hate Women, ses recherches détaillées sur la « manosphère », la couverture des médias sociaux de la génération Z est astronomique : 85 % des adolescents américains utilisent YouTube, 72 % utilisent Instagram, 51 % utilisent encore Facebook. Les internautes passent beaucoup plus de temps à regarder des contenus recommandés qu’à rechercher : sur YouTube, 70 % de tout ce qui est regardé a été suggéré par le site.
L’adolescence est aussi, manifestement, une période de grande plasticité intellectuelle autant que neurologique, où l’on peut facilement vouloir savoir ce qu’est un incel sans vouloir le devenir, ou ressentir très vivement que le monde est condamné un jour, sans y être prêt. l’intégralité de votre flux concerne les variations de l’apocalypse. Nous pouvons, et débattons jusqu’à la nausée, de la façon dont une société mature soutient les limites extérieures de la turbulence juvénile, des troubles de l’alimentation à la masculinité toxique, mais nous permettons aux principaux médias consommés par cette génération de fonctionner, pas seulement sans aucun sens de la responsabilité ou du devoir , mais avec un modèle d’entreprise qui fomente chaque problème pour le profit.
Les normes que les entreprises de médias sociaux se fixent sont curieusement fourbes, tout en étant manifestement insuffisantes. L’année dernière, le personnel du sénateur du Connecticut, Richard Blumenthal, a créé un faux compte Insta se faisant passer pour une jeune fille de 13 ans intéressée par les « régimes extrêmes » ; il s’est immédiatement dirigé vers des comptes d’utilisateurs appelés « je dois être mince », « éternellement affamé », « je veux être parfait » : preuve, a dit la sénatrice, que l’algorithme amplifiait à dessein les contenus préjudiciables. La réponse de la plate-forme a été qu’il s’agissait d’une erreur de filtrage – le site avait déjà des règles contre la promotion des régimes extrêmes, et ces comptes l’ont échappé. Mais cela ne répond pas à l’accusation centrale, qui n’était pas que leurs règles n’étaient pas assez bien exécutées, mais qu’ils faisaient activement la publicité des troubles de l’alimentation auprès des enfants qui montraient un intérêt. CNN a répété la piqûre la semaine suivante, avec les mêmes résultats.
Le projet de loi sur la sécurité en ligne, qui devrait progresser au Parlement – bien qu’il ne soit pas promulgué avant 2024 – traite du contenu qui favorise l’automutilation et les idées suicidaires, et le confierait à l’Ofcom pour évaluer ce qui est approprié pour les moins de 18 ans. C’est un point de repère utile, loin des géants de la technologie qui se contentent de se réguler, mais insuffisant à la fois dans la pratique et dans l’esprit. Cela ne sert à rien que les pays réglementent un par un, la réponse doit être internationale : et nous ne devrions pas perdre de temps à discuter de quel type d’idées suicidaires est approprié pour quel groupe d’âge. Nous devons poser des questions plus fondamentales, en commençant plus loin dans le pipeline, sur les responsabilités morales de l’édition de masse.
Tout cela prend du temps, la jeunesse est courte, les parents penseront qu’ils doivent contrôler eux-mêmes l’influence entrante, qu’ils n’ont pas le temps d’attendre les initiatives internationales, les factures pour avancer. Vous pouvez microgérer la consommation de vos enfants, être conscient des déclencheurs partout – YouTube pour la masculinité toxique, TikTok pour l’anxiété climatique écrasante, Instagram pour les troubles de l’alimentation – essayez de tout contrôler vous-même, et cela fonctionnera pour certains. Mais cela corrode également votre relation avec vos enfants de les surveiller constamment, détruisant leur confiance et leur ouverture. Je ne veux pas devenir le geôlier d’Internet juste pour que Mark Zuckerberg puisse profiter d’un profit sans entrave.
Un air de défaitisme préventif plane sur ce débat : le sentiment qu’il est trop tard pour réglementer les médias sociaux, que le mensonge a fait le tour du monde et qu’il est désormais inutile que la vérité enfile son pantalon. Mais c’est un conseil du désespoir. Nous ne pouvons pas nous permettre de désespérer.
Mais en même temps, la solution n’est pas individuelle. La réponse n’est pas qu’un milliard de parents surveillent les flux Instagram et Pinterest de leurs enfants. Il s’agit de construire un consensus, aussi global que les plateformes elles-mêmes, que certaines choses sont plus importantes que le profit, et de réglementer en conséquence.
-
Zoe Williams est une chroniqueuse du Guardian
-
Au Royaume-Uni et en Irlande, les Samaritains peuvent être contactés au 116 123 ou par e-mail à [email protected] ou [email protected]. Aux États-Unis, la National Suicide Prevention Lifeline est le 1-800-273-8255. En Australie, le service d’assistance en cas de crise Lifeline est le 13 11 14. D’autres lignes d’assistance internationales sont disponibles sur befrienders.org.
-
Avez-vous une opinion sur les questions soulevées dans cet article? Si vous souhaitez soumettre une lettre de 300 mots maximum pour être considérée pour publication, envoyez-la nous par e-mail à [email protected]
[ad_2]
Source link -11