Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les journalistes, les scénaristes et les professeurs d’université font partie des groupes de plus en plus nombreux de personnes qui craignent de perdre éventuellement leurs moyens de subsistance au profit de programmes d’intelligence artificielle comme ChatGPT, qui peuvent produire des copies plus rapidement et peut-être mieux que les humains. Mais un entrepreneur poursuit la technologie pour faciliter la distinction entre le texte écrit par des personnes et celui composé par une machine.
Edward Tian, un étudiant de 22 ans à l’Université de Princeton qui étudie l’informatique et le journalisme, a développé une application appelée GPTZero pour dissuader l’utilisation abusive du chatbot viral ChatGPT dans les salles de classe. L’application a accumulé 1,2 million d’utilisateurs enregistrés depuis janvier.
Il lance maintenant un nouveau programme appelé Origin visant à «sauver le journalisme», en distinguant la désinformation générée par l’IA des faits dans les médias en ligne. Tian a obtenu un financement de 3,5 millions de dollars co-dirigé par Uncork Capital et Neo Capital, avec des investisseurs technologiques dont Emad Mostaque, directeur général de Stability AI Ltd, et Jack Altman.
GPTZero analyse le caractère aléatoire du texte, connu sous le nom de perplexité, et l’uniformité de ce caractère aléatoire dans le texte – appelé rafale – pour identifier quand l’IA est utilisée. L’outil a un taux de précision de 99 % pour le texte humain et de 85 % pour le texte IA, selon l’entreprise.
L’équipe de 10 personnes souhaite désormais renforcer le journalisme et s’entretient avec de grandes organisations médiatiques, telles que la BBC et des dirigeants de l’industrie, dont l’ancien directeur général du New York Times, Mark Thompson, pour discuter de partenariats pour la détection et l’analyse de l’IA. La société voit également sa technologie pour une utilisation dans les domaines de la confiance et de la sécurité, du gouvernement, du droit d’auteur, de la finance, du droit et plus encore.
« Nous pensons que nous pouvons rassembler les personnes les plus intelligentes sur la détection de l’IA dans une pièce », a déclaré Tian. « Le domaine de la détection est si nouveau et nous pensons qu’il mérite plus d’attention et de soutien. »
Open AI, la société derrière ChatGPT, a lancé un classificateur de texte AI pour détecter le contenu généré par la machine, mais il est loin d’être infaillible. L’outil identifie correctement seulement 26 % du texte écrit par l’IA comme « probablement écrit par l’IA », tout en étiquetant incorrectement le texte écrit par l’homme comme écrit par l’IA 9 % du temps. Le classificateur fonctionne également « nettement moins bien » dans des langues autres que l’anglais et n’est « pas fiable » sur le code et les textes plus courts. Pour les entrées très différentes du texte dans l’ensemble de formation de l’outil, le classificateur peut également être erroné, selon OpenAI.
« Notre classificateur présente un certain nombre de limitations importantes », reconnaît la société sur le site Web. « Il ne doit pas être utilisé comme un outil de prise de décision principal, mais plutôt comme un complément à d’autres méthodes pour déterminer la source d’un morceau de texte. »
Le manque de fiabilité de l’outil de détection pose un dilemme aux éducateurs. Même si un enseignant trouve un article suspect d’un élève signalé avec une probabilité de 70 % d’être généré par l’IA, tant que la précision de ces outils de détection n’est pas de 100 %, il est très difficile pour les enseignants de prendre des mesures décisives.
« Je ne pense pas que nous sachions quoi faire avec un drapeau indiquant qu’il pourrait y avoir un problème », a déclaré Jack Cushman, directeur du Harvard Library Innovative Lab, qui explore des sujets tels que l’impact d’Internet. « Tout ce que vous pouvez faire à ce stade est de parler avec un étudiant et de dire que vous pourriez avoir commis une malhonnêteté académique selon cet outil. »
Parallèlement, la définition du plagiat évolue également avec l’émergence de l’IA. « Cela va remettre en question toute la notion d’honnêteté académique, car parfois, avoir un outil qui recommande une phrase ou deux ou une aide pour les citations va être légitime de la même manière que d’utiliser une calculatrice pour faire des travaux mathématiques », a-t-il déclaré. « La meilleure réponse est que vous ne devriez pas le laisser écrire le tout. »
La montée des deepfakes
Nick Loui, co-fondateur et PDG de PeakMetrics, une startup qui aide les gouvernements et les grandes entreprises à lutter contre la désinformation, a déclaré que ses clients ne sont pas autant préoccupés par la menace des textes générés par l’IA, car le potentiel de préjudice est moindre que la prolifération. de vidéos deepfake, par exemple, où il y a eu plus d’instances malveillantes de contenu manipulé.
Jusqu’à présent, les limites techniques de toute technologie de détection et l’absence d’une voie claire vers la monétisation ont rendu difficile l’attraction des investissements. Les outils de détection actuels sont des produits transitoires, a déclaré Sheila Gulati, directrice générale de Tola Capital, une société de capital-risque qui se concentre sur les startups d’IA, car bloquer les technologies nouvelles et émergentes n’est généralement pas un excellent moyen pour les gens de les exploiter. « Je pense que l’état final de cela sera simplement beaucoup plus sophistiqué. »
Certains observateurs de l’industrie affirment que l’open source, qui rend le code source du logiciel accessible au public et permet aux utilisateurs de le visualiser, de le modifier et de le distribuer librement, est bon pour les produits de modèles de langage volumineux car il réduit les coûts, augmente la transparence et favorise l’innovation.
Cependant, l’open source est également plus facilement piratable et peut rendre les outils de détection plus sujets aux exploits. « C’est un peu comme montrer à un cambrioleur le plan de configuration de votre réseau de surveillance à domicile », a déclaré Alex Cui, directeur de la technologie et co-fondateur de GPTZero.