Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
WLorsque je me suis assis pour corriger les dissertations d’étudiants de premier cycle au printemps 2023, le battage médiatique autour de ChatGPT était déjà à des sommets vertigineux. Comme les enseignants du monde entier, je craignais que les étudiants ne succombent à la tentation de confier leur réflexion à la machine. De nombreuses universités, dont la mienne, ont réagi en adoptant un logiciel de détection d’IA, et mes craintes ont rapidement été confirmées lorsqu’il a émis le jugement suivant sur l’un des essais : « 100 % généré par l’IA ».
Les essais sont notés de manière anonyme, alors mon cœur s’est brisé lorsque j’ai découvert que le premier essai « 100 % généré par l’IA » que j’ai noté appartenait à un penseur brillant et incisif dont les essais de l’ère pré-ChatGPT étaient toujours excellents, bien que de style quelque peu formel. .
Je me suis retrouvé dans une situation difficile de plus en plus courante, coincé entre les produits logiciels et les humains : les étudiants et ChatGPT d’un côté, les professeurs et les détecteurs d’IA de l’autre. La politique exige que je renvoie les essais avec des scores de détection d’IA élevés pour mauvaise conduite académique, ce qui peut entraîner de lourdes sanctions, y compris l’expulsion. Mais mon étudiant remarquable a contesté cette référence, affirmant que le logiciel d’assistance approuvé par l’université qu’il utilisait pour l’orthographe et la grammaire incluait des capacités d’IA générative limitées qui avaient été confondues avec ChatGPT.
Le logiciel qui a numérisé la dissertation de mon étudiant est fourni par Turnitin, un géant américain des « technologies éducatives » qui est l’un des plus grands acteurs sur le marché de l’inconduite académique. Avant ChatGPT, la fonction principale de Turnitin était de produire des « rapports de similarité » en vérifiant les essais par rapport à une base de données de sites Web et les travaux d’étudiants précédemment soumis. Un score de similarité élevé n’est pas toujours synonyme de plagiat – certains étudiants citent simplement abondamment – mais facilite la recherche d’emplois de copier-coller.
L’IA générative donne l’impression que le copier-coller est démodé. Invité par une question à développement, ChatGPT produit des combinaisons de mots qui n’apparaîtront pas dans un rapport de similarité. Face à une menace pour son modèle commercial, Turnitin a répondu avec un logiciel de détection d’IA qui mesure si un essai enchaîne les mots selon des modèles prévisibles – comme le fait ChatGPT – ou dans le style plus idiosyncrasique d’un humain. Mais l’outil n’est pas définitif : alors que le label annonce qu’un essai est « X % généré par l’IA », un lien en petits caractères sous le pourcentage ouvre un avertissement qui admet seulement qu’il « pourrait l’être ».
Contrairement au « rapport de similarité », qui inclut des liens vers des sources afin que les professeurs puissent vérifier si un étudiant a plagié ou utilisé trop de citations, le logiciel de détection de l’IA est une boîte noire. ChatGPT compte plus de 180 millions d’utilisateurs mensuels et produit des textes différents – bien que formulés – pour chacun d’entre eux. Il n’existe aucun moyen fiable de reproduire le même texte pour la même invite, et encore moins de savoir comment les élèves pourraient l’inviter. Les étudiants et les professeurs sont pris dans un jeu de devinettes basé sur l’IA. Il n’est pas difficile de trouver des étudiants partageant des conseils en ligne pour échapper à la détection de l’IA grâce à des outils de paraphrase et des « humanisateurs » de l’IA. Il n’est pas non plus difficile de trouver des étudiants désespérés qui se demandent comment vaincre de fausses accusations basées sur une détection peu fiable de l’IA.
Lorsque mon élève a contesté le jugement du détecteur IA, j’ai fait droit à l’appel. J’avoue faire confiance à l’humain plutôt qu’à la machine. Mais la défense était également convaincante, et cet étudiant en particulier écrivait constamment dans ce style bien avant la création de ChatGPT. Pourtant, je faisais un appel aux enjeux élevés sans preuves fiables. Ce fut une expérience pénible pour mon élève et qui se répète dans tout le secteur.
De nombreux universitaires ont traduit le battage médiatique autour de l’IA par une méfiance accrue à l’égard des étudiants. Et il est vrai que ChatGPT peut rédiger de manière plausible des essais de niveau universitaire médiocres. Une combinaison de ChatGPT et d’« humaniseurs » d’IA pourrait même permettre à quelqu’un d’aller à l’université avec un rapport de 2 :2.
Mais si les universités traitent cela comme une course aux armements, cela nuira inévitablement aux étudiants qui comptent sur un soutien supplémentaire pour survivre dans un système qui est majoritairement biaisé en faveur des Blancs, de la classe moyenne, de langue maternelle anglaise sans handicap et dont les parents sont allés à l’université. Les étudiants qui n’entrent pas dans ces catégories sont également plus susceptibles de se tourner vers des vérificateurs d’orthographe et de grammaire comme Grammarly, qui utilise également l’IA générative pour proposer des suggestions stylistiques, les exposant au risque de se tromper des détecteurs d’IA même lorsque les idées de fond sont originaux. Des étudiants innocents se retrouveront inévitablement dans une sorte de scénario informatique kafkaïen – accusés par un logiciel automatisé de s’appuyer de manière inappropriée sur un autre.
Qu’y a-t-il à faire? Dans la course désespérée – et largement vaine – pour « rattraper » l’IA, il existe un réel danger que les universitaires perdent de vue la raison pour laquelle nous attribuons des dissertations en premier lieu : donner aux étudiants la possibilité de démontrer leur capacité à évaluer des informations, à réfléchir. critique et présenter des arguments originaux. Cela peut même être l’occasion de s’éloigner du type de questions à développement conventionnelles qui peuvent si facilement être intégrées à ChatGPT. Les étudiants peuvent présenter des travaux originaux et critiques dans des présentations, des podcasts, des vidéos et des écrits réflexifs.
Il est également possible de poser des questions aux étudiants qui incluent des informations qui n’existent pas dans les données de formation de ChatGPT – par exemple, en incorporant du contenu généré en classe. Les professeurs pourraient également s’attaquer de front à l’anxiété ambiante liée à l’IA en demandant à ChatGPT de lui poser des questions à développement et en demandant aux étudiants de critiquer le résultat obtenu en classe. L’objectif ne doit pas nécessairement être simplement de repousser les dissertations générées par l’IA : élargir la gamme des évaluations peut également aider les universités à combler l’écart de réussite qui existe en partie parce que les formes traditionnelles d’évaluation ont tendance à favoriser les étudiants les plus privilégiés.
Bien entendu, tout cela exerce davantage de pression sur un personnel précaire et surchargé de travail. C’est pourquoi la réaction instinctive consistant à revenir à des examens manuscrits à huis clos est compréhensible, même si elle est erronée. Nous pouvons critiquer l’IA, mais nous ne pouvons pas prétendre qu’elle n’existe pas si nous voulons préparer les étudiants à un monde où les humains devront vivre et travailler aux côtés de machines pensantes.
Il serait plus facile d’atteindre cet objectif si les étudiants arrivaient à l’université en tant que penseurs critiques et ouverts d’esprit plutôt que de consommateurs stressés et accablés de dettes. En ce sens, la panique autour de l’IA n’est que le dernier symptôme d’une crise plus large dans les universités britanniques, et c’est une crise qui n’est pas ressentie de la même manière. La décision du gouvernement conservateur d’obliger les universités à plafonner les admissions aux diplômes de « faible valeur » – coupant ainsi leur principale source de financement – est également une attaque contre les étudiants de la classe ouvrière et des minorités ethniques. Répondre à l’IA par des mesures punitives basées sur des logiciels de détection peu fiables risque de contribuer à cette même attaque. S’il y a une chance d’éviter l’amère ironie de la plus grande avancée technologique depuis l’Internet, qui a enraciné des inégalités persistantes dans l’éducation, elle viendra des professeurs travaillant avec l’IA, au lieu de se joindre à un combat perdu contre elle.