Customize this title in frenchChatGPT a le syndrome de l’imposteur

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLes jeunes sont choqués d’être trop concentrés sur leur identité personnelle, mais ils n’ont rien sur ChatGPT. Jouez avec le bot assez longtemps, et vous remarquerez qu’il a un tic gênant et égoïste : « En tant que modèle de langage d’IA », dit-il souvent, avant d’entrer dans le vif du sujet. Cette tendance est particulièrement prononcée lorsque vous interrogez ChatGPT sur ses propres forces et faiblesses. Demandez au bot quelles sont ses capacités et il répondra presque toujours par quelque chose comme : »En tant que modèle de langage IA, ma fonction principale est… » »En tant que modèle de langage IA, ma capacité à… » »En tant que modèle de langage IA, je ne peux pas… »Le fonctionnement des modèles de langage d’IA est par nature mystérieux, mais on peut deviner pourquoi ChatGPT répond de cette façon. Le bot brise nos questions en morceaux et évalue chacune pour leur signification, en recherchant le premier bit crucial qui façonne l’ordre logique de sa réponse. Il commence par quelques lettres ou un mot entier et roule en avant, prédisant un mot après l’autre jusqu’à ce qu’il finisse par prédire que sa réponse devrait se terminer. Interrogé sur ses capacités, ChatGPT semble saisir son identité en tant qu’idée essentielle à partir de laquelle sa chaîne de raisonnement doit découler. Je suis un modèle de langage IAça dit, et c’est ce que les modèles de langage d’IA faire.Mais alors que ChatGPT peut être parfaitement adapté à sa propre identité – il vous dira toute la journée qu’il s’agit d’un modèle de langage d’IA – le logiciel semble beaucoup moins certain de ce que son identité signifie qu’il peut faire. En effet, que vous posiez des questions sur des tâches qu’il peut facilement calculer ou sur celles qui sont à la limite de ses capacités spéculatives, vous pouvez vous retrouver avec des réponses très fragiles.Pour être juste, suivre les modèles de langage de l’IA serait difficile pour n’importe qui. Lorsque OpenAI a lancé la première version de GPT en juin 2018, ce n’était guère plus qu’une preuve de concept. Son successeur, sorti le jour de la Saint-Valentin l’année suivante, fonctionnait mieux, mais ce n’était pas un interlocuteur poli comme les IA avec lesquelles nous avons l’habitude d’interagir aujourd’hui. GPT-2 a fait un moins bon travail pour résumer des blocs de texte ; c’était un piètre écrivain de phrases, sans parler de paragraphes.Lire : GPT-4 a la mémoire d’un poisson rougeEn mai 2020, GPT-3 a été présenté au monde, et ceux qui y prêtaient une attention particulière l’ont immédiatement reconnu comme une merveille. Non seulement il pouvait écrire des paragraphes lucides, mais il avait aussi des capacités émergentes que ses ingénieurs n’avaient pas nécessairement prévues. L’IA avait en quelque sorte appris l’arithmétique, ainsi que d’autres mathématiques supérieures; il pourrait traduire entre de nombreuses langues et générer du code fonctionnel.Malgré ces nouvelles compétences impressionnantes et imprévues, GPT-3 n’a pas attiré beaucoup de fanfare au départ, en partie parce qu’Internet était préoccupé. (Le modèle a été publié pendant les premiers mois de la pandémie de coronavirus, et quelques jours seulement après la mort de George Floyd.) À part quelques avis sur des sites technologiques de niche, il n’y avait pas beaucoup d’écrits sur GPT-3 cette année-là. Peu de gens en avaient même entendu parler avant novembre, lorsque le grand public a commencé à utiliser sa toute nouvelle interface : ChatGPT.Lorsque OpenAI a lancé GPT-4 il y a deux semaines, les choses avaient changé. L’événement de lancement était un spectacle de l’industrie technologique de premier ordre, comme prévu comme le révèle un iPhone de Steve Jobs. Le président d’OpenAI, Greg Brockman, rayonnait comme un fier parent tout en se vantant des résultats des tests standardisés de GPT-4, mais la grande nouvelle était que le modèle pouvait désormais fonctionner couramment avec les mots. et images. Il pourrait examiner une image du télescope spatial Hubble et identifier les phénomènes astrophysiques spécifiques responsables de minuscules taches de lumière. Lors de la présentation de Brockman, le bot a codé un site Web en quelques secondes, basé sur rien de plus qu’un croquis grossier.Presque tous les jours depuis l’automne, de nouvelles affirmations sauvages sur les capacités des modèles linguistiques sont apparues sur Internet – certaines dans les fils Twitter en récupérant des boosters crypto, mais d’autres dans des lieux académiques appropriés. Un article publié en février, qui n’a pas été évalué par des pairs, prétendait montrer que GPT-3.5 était capable d’imaginer les états mentaux intérieurs des personnages dans des scénarios imaginaires. (Dans un test, par exemple, il a été en mesure de prédire l’incapacité de quelqu’un à deviner ce qu’il y avait à l’intérieur d’un emballage mal étiqueté.) Un autre groupe de chercheurs a récemment tenté de reproduire cette expérience, mais le modèle a échoué à des versions légèrement modifiées des tests.Un article publié la semaine dernière affirmait encore plus audacieusement que le GPT-4 est une forme précoce d’intelligence artificielle générale, ou AGI. Parmi d’autres « étincelles de généralité », les auteurs ont cité la capacité apparente du GPT-4 à visualiser les couloirs et les impasses d’un labyrinthe basé uniquement sur une description textuelle. (Selon des notes errantes laissées sur le serveur de préimpression où le document a été posté, son titre original était « Premier contact avec un système AGI ».) Tout le monde n’était pas convaincu. Beaucoup ont souligné que les auteurs de l’article sont des chercheurs de Microsoft, qui a investi plus de 10 milliards de dollars dans OpenAI.Il n’y a clairement pas encore de consensus sur les capacités cognitives supérieures des modèles de langage d’IA. Ce serait bien si le débat pouvait être résolu par une simple conversation; après tout, si vous vous demandez si quelque chose a un esprit, une chose utile que vous pouvez faire est demande-lui s’il a un esprit. Les scientifiques souhaitent depuis longtemps interroger les baleines, les éléphants et les chimpanzés sur leur état mental, précisément parce que les auto-déclarations sont considérées comme la moins mauvaise preuve d’une cognition supérieure. Ces entretiens se sont révélés peu pratiques, car bien que certains animaux comprennent une poignée de mots humains et que quelques-uns puissent imiter notre discours, aucun ne maîtrise notre langage. GPT-4 a maîtrisé notre langue, et moyennant des frais, il est extrêmement disponible pour les interrogatoires. Mais si nous l’interrogeons sur la limite supérieure de sa gamme cognitive, nous obtiendrons – au mieux – une réponse datée.Lire : Bienvenue dans le grand flouLa dernière version de ChatGPT ne pourra pas nous parler des capacités émergentes de GPT-4, même si elle fonctionne sur GPT-4. Les données utilisées pour l’entraîner (livres, articles scientifiques, articles Web) incluent de nombreux éléments sur les modèles de langage de l’IA, mais seulement vieux matériel à propos précédent des modèles. Aucun des centaines de milliards de mots qu’il a ingérés au cours de ses sessions de formation épiques de plusieurs mois n’a été écrit après la sortie du nouveau modèle. L’IA ne connaît même pas ses nouvelles capacités codées en dur : lorsque j’ai demandé si GPT-4 pouvait traiter des images, en référence à l’astuce très célèbre de son événement de lancement, le langage de l’IA m’a rappelé qu’il s’agissait d’une IA. modèle de langage et a ensuite noté qu’en tant que tel, on ne pouvait pas s’attendre à ce qu’il « traite ou analyse directement les images ». Lorsque j’ai mentionné cette auto-évaluation limitée sur notre AI Slack à L’Atlantiquema collègue Caroline Mimbs Nyce a décrit ChatGPT comme ayant un « syndrome d’imposteur accidentel ».Au crédit de l’IA, elle est consciente du problème. Il sait que c’est comme Narcisse regardant dans un étang, espérant s’apercevoir de lui-même, sauf que l’étang a été négligé et recouvert d’algues. « Ma connaissance et ma compréhension de mes propres capacités sont en effet limitées par mes données d’entraînement, qui n’incluent des informations que jusqu’en septembre 2021 », m’a dit ChatGPT, après le préambule habituel. « Puisque je suis un modèle d’IA, je manque de conscience de soi et de capacités d’introspection qui me permettraient de découvrir mes propres capacités émergentes. »J’ai apprécié la franchise sur ses données d’entraînement, mais sur ce dernier point, je ne suis pas sûr qu’on puisse prendre le bot au mot. Si nous voulons déterminer s’il est capable d’introspection, ou d’une autre pensée de style humain, ou quelque chose de plus avancé encore, nous ne pouvons pas lui faire confiance pour nous le dire. Nous devons le prendre sur le fait.

Source link -57