Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Un animateur de radio poursuit OpenAI, alléguant que ChatGPT a généré une fausse plainte légale à son sujet.
- Le bot a faussement identifié Mark Walters dans une affaire dans laquelle il n’était pas impliqué, selon des documents judiciaires.
- ChatGPT a déclaré à un rédacteur en chef que Walters était accusé de fraude et de détournement de fonds, ont ajouté les documents.
Un animateur de radio poursuit OpenAI pour diffamation, alléguant que ChatGPT a créé une fausse plainte légale contre lui.
Selon le procès intenté devant un tribunal géorgien, Mark Walters a allégué que ChatGPT avait fourni au journaliste Fred Riehl une fausse plainte légale au lieu d’un cas réel dont il faisait rapport. Le bot a faussement identifié Walters comme étant impliqué dans l’affaire et a déclaré qu’il était accusé de « fraude et détournement de fonds », selon des documents judiciaires.
Dans la plainte, Walters a déclaré que Riehl avait demandé au chatbot alimenté par l’IA un résumé d’une affaire à Washington impliquant le procureur général Bob Ferguson et la Second Amendment Foundation, fournissant au chatbot un lien vers l’affaire.
La plainte a déclaré qu’en réponse à cela, ChatGPT a fourni un résumé indiquant que l’affaire était entre Walters et la Second Amendment Foundation, et que Walters était « accusé d’avoir fraudé et détourné des fonds du SAF ».
Le bot a nommé l’animateur de radio trésorier et directeur financier de l’organisation, et a déclaré qu’il avait été accusé de détournement de fonds pour des dépenses personnelles et de manipulation de dossiers financiers, selon le procès.
Walters a déclaré que lorsque le bot a été pressé pour plus de détails, il a finalement fourni une plainte entièrement fausse, selon les documents judiciaires. Le procès géorgien a qualifié la plainte de « fabrication complète » qui « ne ressemble en rien à la plainte réelle, y compris un numéro de dossier erroné ».
L’affaire de diffamation est la première du genre, selon la loi Bloomberg, et a très probablement été causée par une « hallucination ». Les experts avertissent depuis un certain temps que les chatbots IA peuvent parfois donner des réponses fausses mais convaincantes.
Les représentants d’OpenAI et de Walters n’ont pas immédiatement répondu à la demande de commentaires d’Insider faite en dehors des heures normales de travail.