[ad_1]
Quelques semaines après le lancement de ChatGPT, un puissant chatbot d’intelligence artificielle (IA), Darren Hick a déclaré avoir surpris l’un de ses étudiants en train de tricher en soumettant un essai généré par un robot.
La nouvelle technologie, publiée par OpenAI et ouvertement accessible au public, peut à peu près tout faire.
Tapez une demande et il peut écrire un essai scolaire persuasif, composer une chanson ou même faire une blague idiote en quelques secondes.
Bien qu’il puisse écrire de manière convaincante, cela ne signifie pas que ce qu’il dit est vrai.
C’est ce qui a déclenché la sonnette d’alarme pour Hick, professeur adjoint de philosophie à l’Université Furman, dans l’État américain de Caroline du Sud.
« Le premier drapeau rouge qui a surgi était que mon élève parlait d’un philosophe d’une manière que je ne m’attendrais pas à ce que la classe sache », a-t-il déclaré à Euronews.
« Le drapeau rouge final était à quel point c’était bien écrit. Les essais qui sont plagiés sont assez mal écrits – la voix change, la structure ne fonctionne pas. C’était une étrange combinaison de drapeaux que je n’avais jamais vu auparavant », a-t-il déclaré. .
Le logiciel a suscité de nombreuses inquiétudes en ce qui concerne les problèmes éthiques, en particulier la tricherie dans le milieu universitaire.
Mais plus inquiétant encore, l’IA a été utilisée pour générer de faux articles d’actualité réalistes, faisant craindre qu’elle ne soit utilisée à mauvais escient pour influencer les élections, par exemple.
Comment savoir si une IA a écrit le texte que vous lisez ?
Certaines choses peuvent vous rendre méfiant.
Si plusieurs personnes posent exactement la même question à ChatGPT, cela générera presque la même réponse pour chacune d’entre elles.
Donc, si vous êtes enseignant et que vous corrigez plusieurs devoirs qui ont la même construction ou les mêmes exemples ou raisonnements, alors il peut s’agir d’un texte généré par l’IA.
Selon Muhammad Abdul-Mageed, titulaire de la chaire de recherche du Canada sur le traitement du langage naturel et l’apprentissage automatique à l’Université de la Colombie-Britannique, un autre indice à surveiller est la façon dont l’IA réagit aux événements récents.
« Le point faible de ChatGPT est qu’il est formé sur des données obsolètes de 2021 ou 2022. Il ne sera pas en mesure de détecter quelque chose qui s’est passé récemment », a-t-il déclaré à Euronews.
« Par exemple, il ne serait pas en mesure de vous dire si la France a remporté ou non la Coupe du monde au Qatar. Ce type d’informations factuelles est difficile à dire pour le modèle ».
Une application pour « détecter » l’utilisation de ChatGPT
D’autres développent des modèles pour détecter si un texte a été écrit par l’IA. C’est le cas d’Edward Tian, un étudiant universitaire de 22 ans qui prétend avoir créé l’application GPTZero qui peut dire si ChatGPT a été utilisé.
Mais aucune de ces méthodes n’est infaillible car aucun modèle de détection n’existe aujourd’hui, selon Irene Solaiman, directrice des politiques de la start-up d’IA Hugging Face.
« Il n’y a pas de solution magique à la détection de l’IA. Tout comme les humains, à mesure que ces modèles deviennent plus puissants, ces modèles de détection rattrapent leur retard et ne seront pas aussi bons », a-t-elle déclaré à Euronews.
Pour Abdul-Mageed, travailler sur des modèles de détection est comme un jeu de taupe.
« C’est comme essayer de poursuivre une cible en mouvement. Chaque fois que vous trouvez quelque chose pour détecter le modèle, il existe un modèle encore meilleur. Je ne pense pas que cette course soit le meilleur moyen de résoudre ce problème », a-t-il déclaré.
Bien que de nombreux membres de la communauté de l’IA aient loué les avantages éducatifs potentiels de ChatGPT, la perspective que l’IA se glisse dans la salle de classe terrifie Hick, le professeur d’université.
« Le problème avec ce logiciel est qu’il est conçu pour s’améliorer. Il est formé sur un large ensemble de données. Si l’ensemble de données est élargi, ces petits drapeaux rouges que j’ai remarqués pourraient disparaître en un an. Le génie est sorti de la bouteille et c’est effrayant », a-t-il déclaré à Euronews.
Les experts estiment qu’avec l’intelligence artificielle devenant de plus en plus puissante, il est peut-être temps de repenser la façon dont le système éducatif teste les étudiants ou les différentes politiques que les législateurs pourraient mettre en œuvre pour empêcher les outils d’IA de causer des dommages dans le monde réel.
« Beaucoup de politiques ne sont pas mises à jour pour intégrer ces modèles. Est-ce qu’écrire un essai entier en utilisant l’IA est académiquement malhonnête ? Nous n’avons jamais eu à y penser auparavant », a déclaré Solaiman.
Quant à Hick, il dit qu’il a dû reconsidérer sa façon d’enseigner : « Chaque fois que je donne un devoir de dissertation, je dois me demander ‘Qu’est-ce que ChatGPT pourrait faire avec ça ?' »
Il a depuis trouvé une solution : un examen oral impromptu s’il sent un jour un devoir qui semble avoir été écrit par l’IA.
[ad_2]
Source link -32