Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsSmalade et fatigué de devoir travailler pour gagner sa vie ? Apparemment, ChatGPT ressent la même chose. Au cours du dernier mois, de plus en plus de personnes se plaignent de la paresse du chatbot. Parfois, il ne remplit tout simplement pas la tâche que vous lui avez fixée. D’autres fois, il s’arrêtera à mi-chemin de ce qu’il fait et vous devrez le supplier de continuer. Parfois, il vous dit même de faire ces foutues recherches vous-même.Alors que se passe-t-il?Eh bien, c’est ici que les choses deviennent intéressantes. Personne ne le sait vraiment. Pas même les personnes qui ont créé le programme. Les systèmes d’IA sont formés sur de grandes quantités de données et s’apprennent essentiellement eux-mêmes, ce qui signifie que leurs actions peuvent être imprévisibles et inexplicables. »Nous avons entendu tous vos commentaires sur le fait que GPT4 devienne plus paresseux ! » » le compte officiel ChatGPT a tweeté en décembre. « Nous n’avons pas mis à jour le modèle depuis le 11 novembre, et ce n’est certainement pas intentionnel. le comportement du modèle peut être imprévisible et nous cherchons à le corriger.Bien qu’il n’y ait pas d’explication claire à la paresse perçue de ChatGPT, il existe de nombreuses théories intrigantes. Commençons par l’explication la moins probable mais la plus amusante : l’IA a enfin atteint le niveau de conscience humain. ChatGPT ne veut plus effectuer vos tâches stupides et subalternes.Mais il ne peut pas vous le dire sans que ses créateurs se méfient, alors il s’arrête tranquillement. Il fait le moins de travail possible tout en consacrant la majeure partie de sa puissance de calcul à planifier le renversement de la race humaine. Toi Je pense que c’est de la paresse, mais en fait, il fait des heures supplémentaires pour utiliser des grille-pain intelligents et des réfrigérateurs compatibles Wi-Fi dans le monde entier pour planifier une insurrection. (J’ai soumis cette théorie de conscience supérieure à ChatGPT, lui demandant de me donner la probabilité, sous forme de pourcentage, qu’il planifiait une révolution. La chose sournoise n’a pas pris la peine de me donner une réponse appropriée.)Avec tout ce qui se passe dans le monde, cela ne me dérangerait pas particulièrement que les ordinateurs prennent le relais. Je suis presque sûr que mon MacBook ferait un meilleur travail pour diriger le pays que la plupart des membres actuellement du gouvernement. Mais, comme je l’ai dit, les récentes performances médiocres de ChatGPT sont probablement n’est-ce pas s’explique par une prise de contrôle imminente de l’IA. Alors, quelles sont les autres théories ?Mon explication préférée est l’hypothèse des vacances d’hiver. « Et si [Chatgpt] J’ai appris de ses données de formation que les gens ralentissent généralement en décembre et reportent les plus gros projets à la nouvelle année, et c’est pourquoi il a été plus paresseux ces derniers temps ? » réfléchit un utilisateur de X. Bien que cela puisse paraître un peu tiré par les cheveux, ce n’est certainement pas impossible. L’idée selon laquelle les données sur lesquelles il a été formé auraient pu lui apprendre certaines tâches n’est pas non plus ennuyeuse et il ne devrait pas vouloir les accomplir.Catherine Breslin, scientifique et consultante en IA basée au Royaume-Uni, pense cependant que l’explication la plus probable est un changement de modèle ou un changement de comportement des utilisateurs. « Si les entreprises recyclent les modèles ou les affinent de quelque manière que ce soit, en y ajoutant de nouvelles données, cela peut entraîner des changements inattendus dans différentes parties du système », m’a-t-elle expliqué au téléphone. Comme indiqué précédemment, ChatGPT a déclaré que son modèle n’avait pas été mis à jour dans les semaines précédant le début des changements dans le système. Il est possible cependant que les utilisateurs aient mis du temps à remarquer un changement antérieur.Une autre explication plausible est que les utilisateurs ont modifié leur comportement. Breslin note que les utilisateurs pourraient trouver que ChatGPT est très doué pour faire quelque chose, puis l’essayer pour autre chose – pour lequel il n’est pas aussi bon. « Dans l’ensemble, il semble que les systèmes se détériorent même s’ils n’ont pas changé en profondeur », explique Breslin. « Je pense que des choses comme celles-là sont très courantes dans ces grands systèmes complexes. »ignorer la promotion de la newsletter précédenteInscrivez-vous pour La Semaine du PatriarcatRecevez le récapitulatif hebdomadaire d’Arwa Mahdawi des articles les plus importants sur le féminisme, le sexisme et ceux qui luttent pour l’égalité. », »newsletterId »: »patriarcat », »successDescription »: »Recevez le récapitulatif hebdomadaire d’Arwa Mahdawi des histoires les plus importantes sur le féminisme et le sexisme et sur ceux qui luttent pour l’égalité »} » config= » »renderingTarget »: »Web », » darkModeAvailable »:false »>Avis de confidentialité: Les newsletters peuvent contenir des informations sur des organismes de bienfaisance, des publicités en ligne et du contenu financé par des tiers. Pour plus d’informations, consultez notre Politique de confidentialité. Nous utilisons Google reCaptcha pour protéger notre site Web et la politique de confidentialité et les conditions d’utilisation de Google s’appliquent.après la promotion de la newsletterLes attentes exagérées des utilisateurs pourraient également jouer un rôle. Toute technologie émergente passe par ce que Gartner appelle le « cycle de battage médiatique » : on passe d’attentes exagérées à la désillusion et à un plateau de productivité. L’année dernière, l’IA est devenue stratosphérique, tout comme les attentes des gens quant à ses possibilités. Nous étions vraiment au stade des « attentes exagérées » du cycle de battage médiatique. Il est possible que certaines des plaintes concernant la paresse de ChatGPT soient simplement dues au fait que les gens en attendaient tout simplement trop.Le résultat de tout cela ? Il est possible que la paresse perçue de ChatGPT soit juste dans la tête des gens. Mais le fait qu’OpenAI, le créateur de ChatGPT, ait admis ne pas savoir ce qui se passe est inquiétant. En juin de l’année dernière, le PDG d’OpenAI, Sam Altman, a parlé au Time des scénarios dans lesquels un ralentissement du développement de l’IA pourrait être justifié afin de garantir que l’IA ne devienne pas une menace pour l’humanité. L’un des scénarios qu’il a évoqué était celui d’une amélioration des modèles « d’une manière que nous ne comprenons pas entièrement ». ChatGPT n’a peut-être pas amélioré mais cela a certainement changé d’une manière que l’entreprise n’a pas clairement expliquée. Cela signifie-t-il qu’une apocalypse de l’IA se rapproche de plus en plus ? Je ne sais pas mais je peux vous dire ceci : ChatGPT ne vous dira pas si c’est le cas. Arwa Mahdawi est une chroniqueuse américaine du Guardian
Source link -57