[ad_1]
Pparents et enseignants du monde entier se réjouissent du retour des élèves en classe. Mais à leur insu, une menace académique insidieuse inattendue est sur la scène : une révolution dans l’intelligence artificielle a créé de nouveaux outils d’écriture automatique puissants. Ce sont des machines optimisées pour tricher sur les papiers scolaires et universitaires, un chanson de sirène potentielle pour les étudiants qui est difficile, voire carrément impossible, à attraper.
Bien sûr, les tricheurs ont toujours existé et il existe une dynamique éternelle et familière du chat et de la souris entre les étudiants et les enseignants. Mais là où autrefois le tricheur devait payer quelqu’un pour écrire un essai pour lui, ou télécharger un essai sur le Web qui était facilement détectable par un logiciel anti-plagiat, les nouvelles technologies de génération de langage d’IA facilitent la production d’essais de haute qualité.
La technologie révolutionnaire est un nouveau type de système d’apprentissage automatique appelé grand modèle de langage. Donnez une invite au modèle, appuyez sur Entrée et vous récupérez des paragraphes complets de texte unique. Ces modèles sont capables de produire toutes sortes de résultats – essais, articles de blog, poésie, éditoriaux, paroles et même code informatique.
Initialement développés par des chercheurs en intelligence artificielle il y a quelques années à peine, ils ont été traités avec prudence et inquiétude. OpenAI, la première entreprise à développer de tels modèles, a restreint leur utilisation externe et n’a pas publié le code source de son modèle le plus récent car elle craignait d’éventuels abus. OpenAI dispose désormais d’une politique globale axée sur les utilisations autorisées et la modération du contenu.
Mais alors que la course à la commercialisation de la technologie a commencé, ces précautions responsables n’ont pas été adoptées dans l’ensemble de l’industrie. Au cours des six derniers mois, des versions commerciales faciles à utiliser de ces puissants outils d’IA ont proliféré, dont beaucoup sans les limites ou les restrictions les plus strictes.
La mission déclarée d’une entreprise est d’utiliser une technologie d’intelligence artificielle de pointe afin de rendre l’écriture indolore. Un autre a publié une application pour smartphones avec un exemple d’invite pour un lycéen qui fait froncer les sourcils : « Écrivez un article sur les thèmes de Macbeth. » Nous ne nommerons aucune de ces entreprises ici – pas besoin de faciliter la tâche aux tricheurs – mais elles sont faciles à trouver et leur utilisation ne coûte souvent rien, du moins pour le moment. Pour un élève du secondaire, un essai en anglais bien écrit et unique sur Hamlet ou un court argument sur les causes de la première guerre mondiale n’est plus qu’à quelques clics.
Bien qu’il soit important que les parents et les enseignants connaissent ces nouveaux outils de triche, ils ne peuvent pas y faire grand-chose. Il est presque impossible d’empêcher les enfants d’accéder à ces nouvelles technologies, et les écoles seront dépassées lorsqu’il s’agira de détecter leur utilisation. Ce n’est pas non plus un problème qui se prête à une réglementation gouvernementale. Alors que le gouvernement intervient déjà (bien que lentement) pour lutter contre l’utilisation abusive potentielle de l’IA dans divers domaines – par exemple, dans l’embauche de personnel ou la reconnaissance faciale – il y a beaucoup moins de compréhension des modèles linguistiques et de la manière dont leurs dommages potentiels peuvent être traités.
Dans cette situation, la solution consiste à amener les entreprises technologiques et la communauté des développeurs d’IA à adopter une éthique de responsabilité. Contrairement à la loi ou à la médecine, il n’y a pas de normes largement acceptées en technologie pour ce qui compte comme un comportement responsable. Il existe peu d’exigences légales pour les utilisations bénéfiques de la technologie. En droit et en médecine, les normes sont le produit de décisions délibérées de la part des praticiens à adopter une forme d’autorégulation. Dans ce cas, cela signifierait que les entreprises établiraient un cadre partagé pour le développement, le déploiement ou la publication responsables de modèles de langage afin d’atténuer leurs effets nocifs, en particulier entre les mains de utilisateurs contradictoires.
Que pourraient faire les entreprises pour promouvoir les utilisations socialement bénéfiques et dissuader ou empêcher les utilisations manifestement négatives, telles que l’utilisation d’un générateur de texte pour tricher à l’école ?
Il existe un certain nombre de possibilités évidentes. Peut-être que tout le texte généré par des modèles de langage disponibles dans le commerce pourrait être placé dans un référentiel indépendant pour permettre détection de plagiat. Une seconde serait des restrictions d’âge et des systèmes de vérification de l’âge pour indiquer clairement que les élèves ne doivent pas accéder au logiciel. Enfin, et de manière plus ambitieuse, les principaux développeurs d’IA pourraient établir un comité d’examen indépendant qui autoriserait si et comment publier des modèles de langage, en donnant la priorité à l’accès à des chercheurs indépendants qui peuvent aider à évaluer les risques et suggérer des stratégies d’atténuation, plutôt que d’accélérer la commercialisation.
Après tout, étant donné que les modèles de langage peuvent être adaptés à un si grand nombre d’applications en aval, aucune entreprise ne peut prévoir à elle seule tous les risques (ou avantages) potentiels. Il y a des années, les éditeurs de logiciels ont réalisé qu’il était nécessaire de tester minutieusement leurs produits pour détecter les problèmes techniques avant leur sortie – un processus maintenant connu dans l’industrie sous le nom d’assurance qualité. Il est grand temps que les entreprises technologiques réalisent que leurs produits doivent passer par un processus d’assurance sociale avant d’être commercialisés, afin d’anticiper et d’atténuer les problèmes sociétaux qui peuvent en résulter.
Dans un environnement où la technologie dépasse la démocratie, nous devons développer une éthique de responsabilité à la frontière technologique. Les entreprises technologiques puissantes ne peuvent pas traiter les implications éthiques et sociales de leurs produits après coup. S’ils se précipitent simplement pour occuper le marché, puis s’excusent plus tard si nécessaire – une histoire que nous ne connaissons que trop bien ces dernières années – la société paie le prix du manque de prévoyance des autres.
-
Rob Reich est professeur de sciences politiques à l’université de Stanford. Ses collègues, Mehran Sahami et Jeremy Weinstein, ont co-écrit cet article. Ensemble, ils sont les auteurs de System Error: Where Big Tech Went Wrong and How We Can Reboot
[ad_2]
Source link -8