Customize this title in frenchGoogle va supprimer de ses plateformes les images malades générées par l’IA de James Bulger après la campagne menée par la mère d’un enfant assassiné

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLa mère de James Bulger a gagné une bataille contre Google après que le géant de la technologie a resserré les règles pour supprimer les images générées par l’IA de son fils décédé.Denise Fergus avait exigé que des mesures soient prises après la découverte des images des malades sur l’application de réseau social TikTok, avec des vidéos montrant un avatar de James parlant de son meurtre.Celles-ci ont pu être trouvées sur le moteur de recherche de Google, suscitant l’indignation de Denise qui a été extrêmement bouleversée par les représentations de son fils qui a été brutalement assassiné alors qu’il n’avait que deux ans.Ses assassins Jon Venebles et Robert Thompson, alors âgés de 10 ans, l’avaient kidnappé dans un centre commercial avant de le torturer et de le tuer sur la voie ferrée.Les patrons de Google ont désormais modifié les termes et conditions de la plateforme pour l’aider à purger ce contenu de son moteur de recherche et d’autres sites Web dont elle est propriétaire, comme YouTube. Denise Fergus a félicité Google pour avoir modifié ses politiques afin de faciliter la suppression de ses sites Web des images d’enfants morts générées par l’IA, y compris son fils James Bulger. Sur la photo : Mme Fergus dans Good Morning Britain le 14 décembre de l’année dernière James Bulger a été brutalement assassiné alors qu’il n’avait que deux ans après avoir été kidnappé dans un centre commercial par ses assassins. Sur la photo : une image de James Bulger souriant à la caméraCela signifie que les personnes qui téléchargent les images et les vidéos pourraient voir leur compte fermé en cas de récidive. Denise, 54 ans, a déclaré au Mirror : « Je suis tellement soulagée de la mise en œuvre de nouvelles règles sur le contenu généré par l’IA mettant en vedette des mineurs décédés.« L’année dernière, j’ai été horrifié de découvrir que des individus créaient et publiaient des vidéos générées par l’IA de mon bien-aimé James.« La détresse que cela m’a causée, à moi et à ma famille, était incommensurable. C’était une violation de notre chagrin.Selon les nouvelles règles, les contenus considérés comme insensibles seront immédiatement supprimés et les personnes qui les ont téléchargés recevront un avertissement.Si cela se répète dans un délai de trois mois, l’utilisateur responsable verra son compte supprimé.Le journal cite Google disant : « Le 16 janvier, nous commencerons à diffuser des contenus simulant de manière réaliste des mineurs décédés ou des victimes d’événements violents majeurs meurtriers ou bien documentés décrivant leur mort ou les violences subies. » »Nous pouvons mettre fin à votre chaîne ou à votre compte en cas de violations répétées des directives de la communauté ou des conditions d’utilisation. »Nous pouvons également résilier votre chaîne ou votre compte après un seul cas d’abus grave, ou lorsque la chaîne est dédiée à une violation des règles. »Cette décision a suscité les éloges de Denise, qui a déclaré que la société basée aux États-Unis « reconnaissait la gravité de ce problème » et l’a qualifiée de « mesure cruciale » pour protéger la mémoire des personnes décédées.Dans une déclaration publiée lorsque les vidéos ont été portées à son attention l’année dernière, TikTok a déclaré : « Nous voulons que TikTok soit un lieu accueillant pour tout le monde, et il n’y a pas de place sur notre plateforme pour des contenus dérangeants de cette nature.« Nos directives communautaires indiquent clairement que nous n’autorisons pas les médias synthétiques contenant l’image d’un jeune. »Nous continuons à supprimer les contenus de cette nature au fur et à mesure que nous les trouvons. » Jon Venables (à gauche) et Robert Thompson (à droite), tous deux âgés de 10 ans, ont été emprisonnés pour le meurtre du petit enfant.TikTok continue d’examiner et de supprimer du contenu conformément aux directives de sa communauté.Le site offre aux utilisateurs la possibilité de signaler tout contenu inapproprié, mais dispose également de professionnels de la sécurité dédiés pour signaler et supprimer le contenu de manière proactive.MailOnline a contacté TikTok et Google pour de plus amples commentaires.Le 12 février 1993, Thompson et Venables ont prémédité l’enlèvement de James Bulger, l’éloignant de sa mère au centre commercial New Strand jusqu’au canal de Leeds et Liverpool.Là, ils l’ont laissé tomber sur la tête, Bulger étant blessé au visage.Ils ont ensuite emmené l’enfant de deux ans faire une promenade de deux milles et demi autour de Liverpool, prétendant être son frère.Thompson et Venables ont conduit Bulger jusqu’à une voie ferrée à Walton, où l’un d’eux lui a jeté de la peinture dans les yeux.Ils lui ont donné des coups de pied et des pieds, lui ont jeté des briques et lui ont mis des piles dans la bouche.Les garçons ont ensuite laissé tomber une éclisse de 10 kg sur Bulgar, qui a subi dix fractures du crâne.Avec 42 blessés, les pathologistes n’ont pas pu déterminer quelle attaque avait été le coup fatal.Thompson et Venables ont étendu Bulgar de l’autre côté des voies ferrées, après quoi son corps a été coupé en deux par un train.Les assaillants sont devenus les plus jeunes meurtriers reconnus coupables de l’histoire britannique moderne après qu’une femme a contacté la police et identifié Venables.Les images de vidéosurveillance et les analyses médico-légales ont ensuite permis de confirmer leur rôle dans le meurtre.Les deux hommes ont été condamnés à une détention pour une durée indéterminée, avec possibilité de libération conditionnelle après huit ans derrière les barreaux. Thompson a ensuite été libéré et a reçu une nouvelle identité. Venables a été renvoyé en prison à plusieurs reprises pour des délits sexuels sur des enfants et s’est récemment vu refuser la libération conditionnelle.Les utilisateurs de TikTok ont ​​été critiqués l’année dernière après avoir été surpris en train d’utiliser l’intelligence artificielle pour générer des portraits du petit enfant et donner des détails sur la tragédie.Les vidéos ne sont pas uniques. La tendance du « trauma porn » a vu l’IA être utilisée pour créer des « faux » d’autres enfants disparus ou assassinés, notamment Madeleine McCann et Baby P. Les images montrent des gens portant l’étoile de David, des vêtements rayés et maquillés pour ressembler à des bleus et des coupures et parlant à la caméra comme s’ils étaient morts.En 2020, les utilisateurs de TikTok ont ​​été critiqués pour s’être déguisés en victimes de l’Holocauste et avoir parlé à la caméra comme s’ils étaient morts.La tendance faisait que les gens portaient l’étoile de David, des vêtements rayés et du maquillage pour ressembler à des bleus et des coupures.Dans d’autres, l’expérience de l’utilisateur est le camp de concentration d’Auschwitz où plus d’un million de personnes sont mortes.Certains des auteurs du contenu ont défendu leurs actions, affirmant que l’intention était « d’éduquer les gens ».La directrice des affaires des survivants au Musée américain de l’Holocauste, Diane Saltzman, a déclaré à Insider : « Imiter les expériences de l’Holocauste déshonore la mémoire des victimes, est offensant pour les survivants et banalise l’histoire. »

Source link -57