Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Le harcèlement scolaire n’est pas nouveau. Mais maintenant, avec l’essor des médias sociaux et des smartphones, ce qui s’arrêtait aux portes de l’école suit désormais de nombreux enfants à la maison. Et la législation a du mal à suivre les menaces modernes.
Avertissement : cet article mentionne le suicide et l’automutilation. Partout en Europe, les mineurs peuvent bénéficier d’une aide gratuite en appelant le 116 111. D’autres ressources sont disponibles ici. Au Royaume-Uni, les adultes peuvent appeler le 116 123 ou envoyer « SHOUT » par SMS au 85258.
Des exemples tragiques d’adolescents victimes d’intimidation font régulièrement la une des journaux. En mai 2023, Lindsay, une Française de 13 ans, s’est suicidée après des mois de violences physiques et psychologiques à l’école et en ligne.
Quelques années plus tôt, l’adolescente irlandaise Nicole Fox a connu le même sort. Elle n’avait que 21 ans.
Depuis lors, sa mère Jackie Fox fait campagne pour faire de la cyberintimidation une infraction pénale.
Nommée d’après sa défunte fille, la loi de Coco a été adoptée en 2021 en Irlande. Après s’être entretenue avec certains législateurs européens, Jackie Fox s’est dite optimiste quant à la possibilité de la mettre en œuvre plus loin.
Pas de législation européenne
Il n’y a pas encore de loi européenne contre le harcèlement en ligne, seulement des directives européennes. Ils n’ont aucune valeur juridique et la manière dont les États membres les mettent en œuvre dans leur juridiction leur appartient.
Sans législation disponible avant son suicide en 2018, Jackie Fox a déclaré que sa fille se sentait impuissante face à ses intimidateurs, car les autorités n’avaient aucun moyen de les poursuivre pour la violence dont elle était victime en ligne.
« Coco était son nom de bébé, son petit nom », a déclaré Jackie Fox à Euronews.
« J’espère que la loi de Coco sauvera des vies, ici en Irlande et en Europe. Mais il s’agit aussi d’aider les victimes, qui peuvent se sentir seules ou qui s’automutilent, à obtenir de l’aide. Parce qu’avant, ils n’avaient pas de ressources appropriées vers lesquelles se tourner.
D’autres pays ont des lois similaires. En France, le harcèlement en ligne est puni par la loi depuis 2014.
Les plateformes de médias sociaux sont légalement responsables et doivent réagir lorsqu’elles sont informées d’éléments relatifs à l’intimidation.
Agir seulement après que le mal est fait
La législation existante dans les pays européens présuppose que la cyberintimidation existe déjà pour que les auteurs soient poursuivis, ou pour que les modérateurs des médias sociaux suppriment les messages.
Après la mort de l’adolescent français de 13 ans, des commentaires haineux en ligne étaient toujours publiés. Sur Instagram, un compte sans équivoque a été créé : ‘lindsay_est_enfin_morte’ (« Enfin, Lindsay est morte » en anglais). Il a été désactivé depuis.
La famille de Lindsay a porté plainte contre Facebook et Instagram, dénonçant leurs échecs à modérer les contenus haineux, avant et après le suicide de leur fille.
Euronews a contacté Meta, propriétaire des deux réseaux sociaux. Aucun porte-parole n’était disponible pour une entrevue. Dans une déclaration écrite, Meta a présenté ses condoléances à la famille de Lindsay et a déclaré que la plateforme agissait contre le contenu et les comptes qui vont à l’encontre de ses règles lorsqu’elle a été informée de leur existence.
Les associations se demandent si l’intimidation doit être active avant que quoi que ce soit ne soit fait pour l’arrêter. Selon Justine Atlan, directrice de l’association française de lutte contre le harcèlement e-enfance, les plateformes de médias sociaux ont les moyens de réagir avant que d’autres utilisateurs ne signalent des messages problématiques.
Les réseaux sociaux peuvent-ils faire plus ?
Le principe des algorithmes est en effet de cibler et de proposer des contenus spécifiques en fonction des préférences des utilisateurs, notamment à des fins commerciales.
Atlan a déclaré à Euronews: « Puisque nous savons qu’ils peuvent activement se mêler de contenu, nous pourrions nous attendre à ce que leurs responsabilités légales soient plus importantes, pour les obliger à cibler certains contenus que nous savons dangereux. »
Certaines technologies déjà implémentées permettent aux plateformes de cibler des contenus préalablement signalés par les utilisateurs et supprimés une première fois par la plateforme.
Meta, sur sa page dédiée à la prévention du harcèlement, précise : « Nous utilisons des technologies préventives de photomatching.
« Si quelqu’un essaie de partager l’image après qu’elle nous a été signalée et supprimée, nous l’alerterons qu’elle enfreint nos politiques.
« Nous arrêtons également la tentative de repartage et pouvons désactiver le compte. »