Customize this title in frenchChatGPT agit bizarrement – ​​et c’est probablement de notre faute

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

  • ChatGPT se comporte de manière étrange, les utilisateurs se plaignant de la « paresse » du chatbot.
  • OpenAI a déployé un correctif, mais le comportement étrange de ChatGPT montre à quel point nous en savons peu sur les modèles d’IA.
  • Un chercheur en IA a déclaré à BI qu’un afflux de données provenant des interactions des utilisateurs pourrait entraîner des modifications étranges de ChatGPT.

ChatGPT s’est comporté de manière étrange ces derniers mois.

Les utilisateurs se sont plaints du fait que le chatbot est devenu de plus en plus paresseux et même un peu impertinentavec OpenAI reconnaissant le problème et déployer un correctif pour cela en janvier.

La nature opaque du modèle d’IA qui sous-tend ChatGPT rend difficile de dire ce qui se passe avec le chatbot – mais un chercheur pense que c’est l’énorme quantité de données extraites des interactions des utilisateurs avec le chatbot qui le fait changer de manière imprévisible.

« Un modèle comme GPT4 n’est pas un modèle unique. C’est un système d’apprentissage qui évolue en fait très rapidement au fil du temps », a déclaré James Zou, professeur et chercheur en IA à l’Université de Stanford, à Business Insider.

« L’une des principales raisons pour lesquelles les systèmes évoluent au fil du temps est qu’ils reçoivent continuellement des données de retour de millions d’utilisateurs. Je pense que c’est une source importante de changements potentiels dans le modèle », a-t-il ajouté.

Les modèles d’IA comme GPT-4 sont continuellement peaufinés et mis à jour, OpenAI s’appuyant sur interactions avec les utilisateurs pour former ChatGPT pour devenir plus conversationnel et utile.

Cela fonctionne grâce à un processus appelé apprentissage par renforcement à partir de la rétroaction humaineoù le modèle d’IA apprend quelles réponses sont les plus favorables aux utilisateurs et s’ajuste en conséquence.

Les utilisateurs de ChatGPT ont déclaré que le bot devenait paresseux

Ces derniers mois, les utilisateurs du chatbot, qui compterait aujourd’hui environ 1,7 milliard d’utilisateurs, se sont plaints de ses agissements.

Certains ont posté sur X que ChatGPT refusait d’accomplir certaines tâches et fournissait des réponses plus courtes que prévu, un développeur suggérant même que le modèle d’IA prenait une pause hivernale bien méritée.

OpenAI a reconnu le problème et a déployé un correctif, selon le PDG Sam Altman. ChatGPT devrait désormais être « beaucoup moins paresseux ».

Les experts en IA disent souvent que les modèles comme GPT-4 sont essentiellement des boîtes noiresmême leurs développeurs sont incapables d’expliquer pleinement pourquoi ils prennent certaines décisions ou réagissent de certaines manières.

En conséquence, ils ont tendance à afficher un comportement inattendu et souvent carrément étrange – comme certains utilisateurs l’ont découvert récemment lorsqu’ils ont réalisé que ChatGPT fournirait des réponses plus longues. s’ils promettaient de lui donner un pourboire de 200 $.

Selon Zou, certaines de ces bizarreries sont probablement dues à des préjugés humains hérités des vastes quantités de données en ligne sur lesquelles le chatbot est formé.

« Ces grands modèles sont souvent formés sur des données à l’échelle d’Internet, un énorme corpus de textes composé de millions de sites Web et de discussions en ligne », a-t-il déclaré.

« Il y a donc de nombreux comportements humains et préjugés humains différents dans l’ensemble de données de formation qui se reflètent également dans les modèles de langage », a-t-il ajouté.

Zou a déclaré qu’une autre raison des changements dans le comportement de GPT-4 pourrait être Les tentatives d’OpenAI pour ajouter des garde-fous supplémentaires au modèle pour éviter toute utilisation abusive, qui, selon lui, pourrait nuire par inadvertance aux performances de ChatGPT.

Il a souligné les expériences menées par son équipe à Stanford sur des modèles d’IA open source qui ont montré que le réglage fin de ces modèles pour les rendre plus sûrs les rendait également moins disposés à répondre à certaines questions.

« OpenAI a décidé que ses valeurs sont liées à l’innocuité, à la serviabilité et à l’honnêteté, et ce sont les domaines sur lesquels elle donne la priorité », a déclaré Zou.

« Cela peut conduire à des objectifs concurrents. Si vous rendez le modèle très inoffensif, cela le rendra peut-être également moins créatif ou moins utile pour certains utilisateurs », a-t-il ajouté.

« Je pense que cela pourrait également expliquer en partie pourquoi nous constatons potentiellement des dérives ou des changements dans le comportement du modèle. »

OpenAI n’a pas immédiatement répondu à une demande de commentaire de Business Insider, formulée en dehors des heures normales de travail.

Source link -57