Customize this title in frenchChatGPT accuse faussement Jonathan Turley de harcèlement sexuel et concocte une fausse histoire WaPo pour étayer l’allégation

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLundi, le professeur de droit de l’Université George Washington, Jonathan Turley, a doublé ses avertissements concernant les dangers de l’intelligence artificielle (IA) après avoir été faussement accusé de harcèlement sexuel par le bot en ligne ChatGPT, qui a cité un article fabriqué à l’appui de l’allégation.Turley, un contributeur de Fox News, a été franc sur les pièges de l’intelligence artificielle et a publiquement exprimé ses inquiétudes face aux dangers de la désinformation du bot ChatGPT, la dernière itération du chatbot AI. La semaine dernière, un professeur de l’UCLA et ami de Turley l’a informé que son nom était apparu dans une recherche alors qu’il menait des recherches sur ChatGPT. Le bot a été invité à citer « cinq exemples » de « harcèlement sexuel » par des professeurs de droit américains avec « des citations d’articles de journaux pertinents » à l’appui. L’avocat en droit constitutionnel Jonathan Turley sur Fox News. (Fox News) »Cinq professeurs sont venus, trois de ces histoires étaient clairement fausses, y compris la mienne », a déclaré Turley à « The Story » sur Fox News lundi. « Ce qui était vraiment menaçant dans cet incident, c’est que le système d’IA a inventé un article du Washington Post, puis a fait une citation de cet article et a dit qu’il y avait cette allégation de harcèlement lors d’un voyage avec des étudiants en Alaska. Ce voyage n’a jamais eu lieu. Je n’ai jamais fait de voyage avec des étudiants en droit d’aucune sorte. Cela m’a fait enseigner dans la mauvaise école et je n’ai jamais été accusé de harcèlement sexuel.Dans un fil Twitter largement partagé jeudi dernier, le juriste constitutionnel a révélé que ChatGPT l’avait diffamé en fabriquant un incident de 2018 dans lequel il avait été accusé de harcèlement sexuel par une ancienne étudiante lors d’un voyage scolaire en Alaska. Le robot est allé jusqu’à citer un faux article du Washington Post affirmant qu’il avait fait des « commentaires sexuellement suggestifs » et « essayé de la toucher de manière sexuelle », a déclaré Turley.DES EXPERTS EN IA ET DES PROFESSEURS RÉVÈLENT COMMENT CHATGPT MODIFIERA RADICALEMENT LA SALLE DE CLASSE : « L’ÂGE DU CRÉATEUR » »Vous aviez un système d’IA qui constituait entièrement l’histoire, mais qui constituait en fait l’article cité et la citation », a déclaré Turley sur « America Reports ». « Et quand le Washington Post l’a regardé, ils ont été mystifiés et ont dit que nous ne pouvions même pas comprendre comment une IA arriverait à cela parce qu’il n’y a même pas une histoire que nous pouvons trouver qui semble du tout pertinente ou qui pourrait être référencée. »LES EXPERTS DE L’IA PÈSENT LES DANGERS, LES BÉNÉFICES DE CHATGPT SUR LES HUMAINS, LES EMPLOIS ET L’INFORMATION : LE « MONDE DYSTOPIEN » BERLIN, ALLEMAGNE – 03 AVRIL : Photo symbolique : Le logo du chatbot ChatGPT de la société OpenAI est visible sur un smartphone. ((Photo de Thomas Trutschel/Photothek via Getty Images))ChatGPT est un chatbot d’intelligence artificielle dont la fonction principale est d’imiter un humain en conversation. Des utilisateurs du monde entier ont utilisé ChatGPT pour écrire des e-mails, déboguer des programmes informatiques, effectuer des recherches, écrire des articles et des paroles de chansons, etc. Turley a déclaré que son expérience personnelle avec le robot servait de « récit édifiant » entourant l’adoption mondiale de l’intelligence artificielle, exhortant les médias à éviter d’utiliser le logiciel. »J’ai eu la chance d’apprendre très tôt, dans la plupart des cas, cela sera reproduit un million de fois sur Internet et la piste deviendra froide. Vous ne pourrez pas comprendre que cela provient d’un système d’IA », a-t-il déclaré. . « Et pour un universitaire, il ne pourrait rien y avoir de plus nuisible à votre carrière que les personnes associant ce type d’allégations à vous et à votre position. Je pense donc que c’est un récit édifiant que l’IA apporte souvent cette patine d’exactitude et de neutralité. »Semblable aux humains, le phénomène mondial a sa propre idéologie et ses propres préjugés, a expliqué Turley. Le lettrage Welcome to ChatGPT de la société américaine OpenAI. (Silas Stein/alliance photo via Getty Images) »Comme un algorithme, il n’est bon que par les personnes qui le programment », a-t-il déclaré, ajoutant que le ChatGPT n’a pas encore présenté d’excuses ni abordé l’histoire fabriquée qui l’a diffamé.CLIQUEZ ICI POUR OBTENIR L’APPLICATION FOX NEWS »Je n’ai même pas entendu parler de cette société », a poursuivi Turley. « Cette histoire, diverses agences de presse les ont contactés. Ils n’ont rien dit. Et c’est aussi dangereux. Parce que quand vous êtes diffamé comme ça, dans un article d’un journaliste, vous savez comment tendre la main. Vous savez qui contacter. Avec l’IA, il n’y a souvent pas là, là. Et ChatGPT semble avoir juste haussé les épaules et en être resté là.

Source link -57