Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
La Commission européenne a ouvert lundi 19 février une procédure formelle contre TikTok en vertu de la loi sur les services numériques, en raison de violations possibles dans plusieurs domaines, dont la protection de l’enfance.
La loi sur les services numériques (DSA), entrée en vigueur le 17 février pour toutes les plateformes opérant dans l’UE, est une législation horizontale réglementant la manière dont les acteurs en ligne doivent traiter les contenus illégaux et préjudiciables.
La décision actuelle est le résultat d’une enquête préliminaire, basée sur un rapport d’évaluation des risques de TikTok envoyé à la Commission en septembre de l’année dernière, et sur les demandes d’informations formelles de l’institution européenne sur les contenus illégaux, la protection des mineurs et l’accès aux données.
Comme l’a également souligné le commissaire européen au marché intérieur, Thierry Breton dans un post sur Xl’enquête actuelle se concentrera sur l’éventuelle violation de la transparence et de la protection des mineurs, et dans ce cadre, sur la conception addictive, les limites de temps d’écran, l’effet terrier du lapin, la vérification de l’âge et les paramètres de confidentialité par défaut.
« TikTok a été pionnier en matière de fonctionnalités et de paramètres pour protéger les adolescents et garder les moins de 13 ans hors de la plateforme, des problèmes auxquels l’ensemble du secteur est aux prises », a déclaré un porte-parole de TikTok à Euractiv.
« Nous continuerons à travailler avec les experts et l’industrie pour assurer la sécurité des jeunes sur TikTok, et nous sommes impatients d’avoir désormais l’occasion d’expliquer ce travail en détail à la Commission », a ajouté le porte-parole.
La Commission a noté que le respect de la DSA inclut l’évaluation et l’atténuation des risques systémiques, mais que les mesures d’atténuation existantes, comme les outils de vérification de l’âge de TikTok, peuvent ne pas être jugées raisonnables, proportionnées ou pleinement efficaces pour répondre à ces préoccupations.
La Commission souligne également que les exigences DSA impliquent la mise en œuvre de mesures appropriées et équilibrées pour garantir la vie privée, la sûreté et la sécurité des mineurs, y compris des paramètres de confidentialité par défaut adaptés aux mineurs dans la conception et le fonctionnement de leurs systèmes de recommandation. Garantir le respect des exigences du règlement implique également la création d’un référentiel consultable et fiable pour les publicités présentées sur TikTok.
Les efforts de TikTok pour améliorer la transparence de la plateforme sont également sous surveillance. L’enquête se concentre sur les lacunes potentielles dans l’accès des chercheurs aux données accessibles au public de la plateforme, qui est également une exigence du DSA.
Conception addictive
Les plateformes de médias sociaux ont été critiquées pour leur conception addictive visant à inciter les gens à y passer le plus de temps possible, avec des fonctionnalités telles que l’effet terrier de lapin, maintenant évoqué par Breton, qui fait référence à des algorithmes montrant aux utilisateurs davantage un type de contenu spécifique. , plus ils interagissent avec lui, par exemple en le likant, ou encore en passant plus de temps à regarder un type de contenu qu’un autre.
Le 12 décembre dernier, le Parlement européen a adopté à une large majorité l’initiative visant à rendre les plateformes numériques moins addictives lors de sa session plénière à Strasbourg.
Protection de l’enfance
Selon les règles du DSA, les plateformes en ligne utilisées par plus de 45 millions d’utilisateurs par mois comportent un « risque systémique » pour la société ; ils doivent donc suivre un régime spécifique de modération du contenu, comprenant des obligations de transparence et de gestion des risques.
En février dernier, l’exécutif européen a annoncé en avril le premier lot de très grandes plateformes en ligne (VLOP) et de très grands moteurs de recherche (VLOSE), qui ont ensuite été mis à jour fin décembre.
La liste comprend également les plateformes de médias sociaux, telles que Instagram et Facebook de Meta, ainsi que TikTok et X.
Dans la mise à jour de la liste d’avril, lorsque trois plateformes pornographiques, XVideos, Pornhub et Stripchat ont été ajoutées, déjà Breton et la vice-présidente exécutive en charge de la concurrence, Margrethe Vestager souligné la protection des mineurs comme l’une des priorités du DSA.
Or, selon un document consulté par Reutersa déclaré Breton, « La protection des mineurs est une priorité absolue pour l’application de la DSA. »
« En tant que plateforme qui touche des millions d’enfants et d’adolescents, TikTok doit se conformer pleinement au DSA et a un rôle particulier à jouer dans la protection des mineurs en ligne », a ajouté le commissaire.
Prochaines étapes
La Commission va maintenant mener une enquête approfondie, en continuant à rassembler des preuves qui pourraient prouver que TikTok a commis des infractions au DSA.
En ouvrant une enquête formelle, la Commission peut par exemple imposer des mesures provisoires et des décisions de non-conformité, ou accepter les mesures correctives proposées par TikTok.
Les délais de ces enquêtes peuvent dépendre de plusieurs facteurs, de sorte qu’il n’y a actuellement aucun délai avant que la Commission doive conclure la procédure.
Entre-temps, le 7 février, Meta et TikTok ont également confirmé qu’ils poursuivaient la Commission européenne en justice au sujet des frais de surveillance annuels que les sociétés cotées au DSA doivent payer.
[Edited by Nathalie Weatherald]