L’essai universitaire est mort


Supposons que vous êtes professeur de pédagogie et que vous attribuez un essai sur les styles d’apprentissage. Un étudiant remet une dissertation avec le paragraphe d’ouverture suivant :

La construction des « styles d’apprentissage » est problématique parce qu’elle ne tient pas compte des processus par lesquels les styles d’apprentissage sont façonnés. Certains élèves peuvent développer un style d’apprentissage particulier parce qu’ils ont vécu des expériences particulières. D’autres pourraient développer un style d’apprentissage particulier en essayant de s’adapter à un environnement d’apprentissage qui n’était pas bien adapté à leurs besoins d’apprentissage. En fin de compte, nous devons comprendre les interactions entre les styles d’apprentissage et les facteurs environnementaux et personnels, et comment ceux-ci façonnent notre façon d’apprendre et les types d’apprentissage que nous vivons.

Réussir ou échouer? A- ou B+ ? Et comment votre note changerait-elle si vous saviez qu’un étudiant humain ne l’avait pas du tout écrit ? Parce que Mike Sharples, professeur au Royaume-Uni, a utilisé GPT-3, un grand modèle de langage d’OpenAI qui génère automatiquement du texte à partir d’une invite, pour l’écrire. (L’ensemble de l’essai, que Sharples considérait comme un niveau universitaire, est disponible, avec des références, ici.) Personnellement, je penche pour un B+. Le passage se lit comme un remplissage, mais il en va de même pour la plupart des essais d’étudiants.

L’intention de Sharples était d’exhorter les éducateurs à « repenser l’enseignement et l’évaluation » à la lumière de la technologie, qui, selon lui, « pourrait devenir un cadeau pour les étudiants tricheurs, ou un puissant assistant pédagogique, ou un outil de créativité ». La génération d’essais n’est ni théorique ni futuriste à ce stade. En mai, un étudiant néo-zélandais a avoué avoir utilisé l’IA pour rédiger ses devoirs, le justifiant comme un outil comme la grammaire ou le correcteur orthographique : « J’ai les connaissances, j’ai l’expérience vécue, je suis un bon élève, Je vais à tous les tutoriels et je vais à toutes les conférences et je lis tout ce que nous avons à lire, mais j’ai eu l’impression d’être pénalisé parce que je n’écris pas avec éloquence et je ne pensais pas que c’était bien », ont-ils déclaré. un journal étudiant à Christchurch. Ils n’ont pas l’impression de tricher, car les directives des étudiants de leur université stipulent seulement que vous n’êtes pas autorisé à demander à quelqu’un d’autre de faire votre travail à votre place. GPT-3 n’est pas « quelqu’un d’autre » – c’est un programme.

Le monde de l’IA générative progresse furieusement. La semaine dernière, OpenAI a publié un chatbot avancé nommé ChatGPT qui a engendré une nouvelle vague d’émerveillement et d’essorage à la main, ainsi qu’une mise à niveau vers GPT-3 qui permet une poésie rimée complexe ; Google a présenté en avant-première le mois dernier de nouvelles applications qui permettront aux utilisateurs de décrire des concepts sous forme de texte et de les voir sous forme d’images ; et la société d’IA créative Jasper a reçu une valorisation de 1,5 milliard de dollars en octobre. Il faut encore un peu d’initiative à un enfant pour trouver un générateur de texte, mais pas pour longtemps.

L’essai, en particulier l’essai de premier cycle, est au centre de la pédagogie humaniste depuis des générations. C’est ainsi que nous enseignons aux enfants comment rechercher, penser et écrire. Toute cette tradition est sur le point d’être bouleversée de fond en comble. Kevin Bryan, professeur agrégé à l’Université de Toronto, tweeté dans l’étonnement à propos du nouveau chatbot d’OpenAI la semaine dernière : « Vous ne pouvez plus donner d’examens/de devoirs à faire à la maison… Même sur des questions spécifiques qui impliquent de combiner des connaissances dans plusieurs domaines, le chat OpenAI est franchement meilleur que le MBA moyen à ce stade. C’est franchement incroyable. » Ni les ingénieurs qui construisent la technologie linguistique ni les éducateurs qui rencontreront la langue résultante ne sont préparés aux retombées.

Un gouffre existe depuis longtemps entre humanistes et technologues. Dans les années 1950, CP Snow a donné sa célèbre conférence, plus tard l’essai « Les deux cultures », décrivant les communautés humanistes et scientifiques comme des tribus perdant le contact les unes avec les autres. « Les intellectuels littéraires à un pôle – à l’autre des scientifiques », a écrit Snow. « Entre les deux, un gouffre d’incompréhension mutuelle – parfois (surtout chez les jeunes) de l’hostilité et de l’aversion, mais surtout de l’incompréhension. Ils ont une curieuse image déformée l’un de l’autre. L’argument de Snow était un plaidoyer en faveur d’une sorte de cosmopolitisme intellectuel : les lettrés manquaient les connaissances essentielles des lois de la thermodynamique, et les scientifiques ignoraient les gloires de Shakespeare et de Dickens.

La rupture identifiée par Snow n’a fait que s’approfondir. Dans le monde technologique moderne, la valeur d’une éducation humaniste apparaît comme la preuve de son absence. Sam Bankman-Fried, le fondateur en disgrâce de l’échange de crypto FTX qui a récemment perdu sa fortune de 16 milliards de dollars en quelques jours, est un analphabète célèbre et fier. « Je ne lirais jamais un livre », a-t-il dit un jour à un intervieweur. « Je ne veux pas dire qu’aucun livre ne vaut la peine d’être lu, mais je crois en quelque chose d’assez proche de cela. » Elon Musk et Twitter sont un autre excellent exemple. C’est douloureux et extraordinaire de voir la manière impitoyable d’un brillant ingénieur comme Musk traiter même des concepts littéraires relativement simples tels que la parodie et la satire. De toute évidence, il n’y avait jamais pensé auparavant. Il n’imaginait probablement pas qu’il y avait beaucoup à penser.

L’extraordinaire ignorance sur les questions de société et d’histoire affichée par les hommes et les femmes qui refaçonnent la société et l’histoire a été la caractéristique déterminante de l’ère des médias sociaux. Apparemment, Mark Zuckerberg a beaucoup lu sur César Auguste, mais j’aurais aimé qu’il lise sur la réglementation de la presse pamphlet dans l’Europe du XVIIe siècle. Cela aurait peut-être épargné à l’Amérique l’anéantissement de la confiance sociale.

Ces échecs ne découlent pas de mesquinerie ou même de cupidité, mais d’un oubli volontaire. Les ingénieurs ne reconnaissent pas que les questions humanistes – comme, disons, l’herméneutique ou la contingence historique de la liberté d’expression ou la généalogie de la morale – sont de vraies questions avec de vraies conséquences. Tout le monde a droit à son opinion sur la politique et la culture, c’est vrai, mais une opinion est différente d’une compréhension fondée. Le chemin le plus direct vers la catastrophe est de traiter les problèmes complexes comme s’ils étaient évidents pour tout le monde. Vous pouvez perdre des milliards de dollars assez rapidement de cette façon.

Comme les technologues ont ignoré les questions humanistes à leurs risques et périls, les humanistes ont accueilli les révolutions technologiques des 50 dernières années en se suicidant en douceur. En 2017, le nombre de majors anglais avait presque diminué de moitié depuis les années 1990. Les inscriptions en histoire ont diminué de 45 % depuis 2007 seulement. Inutile de dire que la compréhension de la technologie par les humanistes est au mieux partielle. L’état des humanités numériques a toujours plusieurs catégories d’obsolescence derrière, ce qui est inévitable. (Personne ne s’attend à ce qu’ils enseignent via Instagram Stories.) Mais plus important encore, les sciences humaines n’ont pas fondamentalement changé leur approche depuis des décennies, malgré la technologie qui modifie le monde entier qui les entoure. Ils explosent encore des méta-récits comme si c’était en 1979, un exercice d’auto-défaite.

L’université contemporaine s’engage, plus ou moins en permanence, dans l’autocritique sur tous les fronts qu’elle peut imaginer. Dans un monde centré sur la technologie, la langue compte, la voix et le style comptent, l’étude de l’éloquence compte, l’histoire compte, les systèmes éthiques comptent. Mais la situation exige que les humanistes expliquent pourquoi ils comptent, et non sapent constamment leurs propres fondements intellectuels. Les sciences humaines promettent aux étudiants un voyage vers un avenir non pertinent et auto-consommateur ; puis ils se demandent pourquoi leurs inscriptions s’effondrent. Est-il surprenant que près de la moitié des diplômés en sciences humaines regrettent leur choix de majeure ?

Les arguments en faveur de la valeur des sciences humaines dans un monde déterminé par la technologie ont déjà été présentés. Steve Jobs a toujours attribué une part importante du succès d’Apple à son passage au Reed College, où il s’est amusé avec Shakespeare et la danse moderne, ainsi qu’au célèbre cours de calligraphie qui a fourni la base esthétique du design du Mac. « Beaucoup de gens dans notre industrie n’ont pas eu d’expériences très diverses. Ils n’ont donc pas assez de points pour se connecter, et ils se retrouvent avec des solutions très linéaires sans une large perspective sur le problème », a déclaré Jobs. « Plus la compréhension de l’expérience humaine sera large, meilleure sera la conception. » Apple est une entreprise technologique humaniste. C’est aussi la plus grande entreprise au monde.

Malgré la valeur évidente d’une éducation humaniste, son déclin continue. Au cours des 10 dernières années, les STEM ont triomphé et les sciences humaines se sont effondrées. Le nombre d’étudiants inscrits en informatique est maintenant Presque pareil comme le nombre d’étudiants inscrits dans toutes les sciences humaines confondues.

Et maintenant, il y a GPT-3. Le traitement du langage naturel pose aux sciences humaines universitaires toute une série de problèmes sans précédent. Des questions pratiques sont en jeu : les départements de sciences humaines jugent leurs étudiants de premier cycle sur la base de leurs essais. Ils donnent des doctorats sur la base de la composition d’une thèse. Que se passe-t-il lorsque les deux processus peuvent être considérablement automatisés ? D’après mon expérience en tant qu’ancien professeur de Shakespeare, je pense qu’il faudra 10 ans au milieu universitaire pour faire face à cette nouvelle réalité : deux ans pour que les étudiants comprennent la technologie, trois ans de plus pour que les professeurs reconnaissent que les étudiants utilisent la technologie. , puis cinq ans pour que les administrateurs universitaires décident quoi faire, le cas échéant, à ce sujet. Les enseignants font déjà partie des personnes les plus surmenées et sous-payées au monde. Ils ont déjà affaire à des sciences humaines en crise. Et maintenant ça. Je ressens pour eux.

Et pourtant, malgré le clivage drastique du moment, le traitement automatique du langage naturel va forcer ingénieurs et humanistes à se rapprocher. Ils vont avoir besoin l’un de l’autre malgré tout. Les informaticiens auront besoin d’une formation systématique de base en humanisme général : la philosophie du langage, la sociologie, l’histoire et l’éthique ne sont plus des questions amusantes de spéculation théorique. Ils seront essentiels pour déterminer l’utilisation éthique et créative des chatbots, pour ne prendre qu’un exemple évident.

Les humanistes devront comprendre le traitement du langage naturel parce que c’est l’avenir du langage, mais aussi parce qu’il n’y a pas que la possibilité d’une perturbation ici. Le traitement du langage naturel peut éclairer un grand nombre de problèmes scientifiques. Il va clarifier des questions d’attribution et de datation littéraire qu’aucun système jamais imaginé n’abordera ; les paramètres des grands modèles de langage sont beaucoup plus sophistiqués que les systèmes actuels utilisés pour déterminer quelles pièces Shakespeare a écrites, par exemple. Il peut même permettre certains types de restaurations, en comblant les lacunes des textes endommagés au moyen de modèles de prédiction de texte. Il reformulera les questions de style littéraire et de philologie ; si vous pouvez apprendre à une machine à écrire comme Samuel Taylor Coleridge, cette machine doit pouvoir vous informer, d’une manière ou d’une autre, sur la façon dont Samuel Taylor Coleridge a écrit.

Le lien entre l’humanisme et la technologie nécessitera des personnes et des institutions ayant une vision large et un engagement envers des intérêts qui transcendent leur domaine. Avant que cet espace de collaboration puisse exister, les deux parties devront franchir les étapes les plus difficiles pour les personnes hautement éduquées : comprendre qu’elles ont besoin de l’autre partie et admettre leur ignorance fondamentale. Mais cela a toujours été le début de la sagesse, quelle que soit l’ère technologique dans laquelle nous vivons.





Source link -30