[ad_1]
New York Les créateurs du logiciel d’écriture ChatGPT tentent désormais de saisir les conséquences de leur invention. La société de développement OpenAI a publié un programme censé distinguer si un texte a été écrit par un humain ou un ordinateur.
ChatGPT est si bon pour imiter le discours humain qu’il est à craindre, entre autres, qu’il puisse être utilisé pour tromper les devoirs scolaires ou créer des campagnes de désinformation à grande échelle.
Cependant, la détection fonctionne toujours mal, comme OpenAI l’a admis dans une entrée de blog mardi. Lors des tests, le logiciel a correctement identifié les textes écrits par un ordinateur dans 26 % des cas. Dans le même temps, cependant, neuf pour cent des textes formulés par des humains ont été attribués à tort à une machine. Par conséquent, pour le moment, il est recommandé de ne pas se fier principalement à l’évaluation du « classificateur » lors de l’évaluation des textes.
ChatGPT est un logiciel basé sur l’intelligence artificielle formé sur d’énormes quantités de texte et de données pour imiter la parole humaine. OpenAI a rendu ChatGPT accessible au public l’année dernière, suscitant l’admiration pour les capacités du logiciel et les inquiétudes concernant la fraude.
Le système convainc avant tout par la qualité linguistique de ses réponses. Dans le même temps, les utilisateurs ne peuvent pas compter sur ChatGPT pour répondre avec sincérité et obtenir les faits exacts. Les critiques du système sont également gênés par le fait que le système d’IA ne peut nommer aucune source pour ses déclarations.
>> Lire ici : Comment fonctionne le chatbot d’OpenAI
Dans le secteur de l’éducation en particulier, il y a une discussion sur la façon dont le contenu d’un robot textuel peut être démasqué. Avec un scanner anti-plagiat classique, avec lequel on peut vérifier efficacement l’authenticité des textes, on n’ira pas plus loin. Ces scanners vérifient uniquement si le texte ou des parties de celui-ci apparaissent déjà dans d’autres sources. Cependant, le rédacteur AI de ChatGPT produit des textes uniques qui n’ont jamais été formulés exactement comme celui-ci.
OpenAI parle également d’utiliser une sorte de filigrane numérique pour ChatGPT qui serait invisible à l’œil humain. Un logiciel de vérification spécial signalerait alors s’il s’agit ou non d’un texte IA.
>> Lire ici : Ce que Microsoft a l’intention de faire avec ChatGPT
Le battage médiatique autour de ChatGPT effraie désormais également la concurrence. Le groupe Google Alphabet notamment y voit une menace sérieuse pour son propre modèle économique.
Google développe également depuis des années un logiciel capable d’écrire et de parler comme un humain, mais s’est jusqu’à présent abstenu de le publier. Désormais, le groupe Internet permet à ses employés de tester un chatbot qui fonctionne de manière similaire à ChatGPT, a rapporté mercredi soir le diffuseur CNBC. Un e-mail interne indique qu’une réponse à ChatGPT est prioritaire. Google expérimente également une version questions-réponses de son moteur de recherche Internet.
Suite: Baidu développe un concurrent pour ChatGPT
[ad_2]
Source link -48