Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words
- Le modèle haut de gamme d’OpenAI a un problème : il semble continuer à devenir paresseux.
- Les utilisateurs de GPT-4 se sont adressés au forum des développeurs d’OpenAI pour se plaindre.
- Certains sont tellement frustrés qu’ils cherchent à rivaliser avec les modèles d’IA jusqu’à ce qu’il y ait une solution.
Le GPT-4 d’OpenAI semble être devenu paresseux – encore une fois.
Cette fois, cependant, les utilisateurs frustrés du modèle qui alimente le service payant de ChatGPT ne cherchent pas tous une solution rapide.
Ils se tournent plutôt vers d’autres modèles, un en particulier retenant leur attention : Claude d’Anthropic.
Le top model d’OpenAI semble toujours paresseux
Ces derniers jours, certains utilisateurs de GPT-4, qui a été publié pour la première fois en mars 2023, se sont rendus sur le forum des développeurs et sur les réseaux sociaux d’OpenAI pour s’exprimer sur le modèle qui semblait beaucoup moins performant qu’il ne l’était autrefois.
Certains se plaignent du fait qu’il ne suit pas les « instructions explicites » en fournissant du code tronqué lorsqu’on leur demande le code complet. D’autres citent des problèmes pour que le modèle réponde complètement à leurs requêtes.
« La réalité est qu’il est devenu inutilisable », a écrit la semaine dernière un utilisateur sur le forum en ligne d’OpenAI.
Ce n’est pas la première fois que les performances du modèle sont à la traîne. GPT-4 est censé être le meilleur produit d’OpenAI : une personne paie 20 $ par mois pour l’utiliser.
Comme mon collègue Alistair Barr l’a signalé pour la première fois, des signes indiquant que GPT-4 devenait plus paresseux sont apparus au cours de l’été de l’année dernière : le modèle semblait présenter une « logique affaiblie » et renvoyer de mauvaises réponses aux utilisateurs.
De nouvelles preuves de paresse sont apparues plus tôt cette année, le PDG d’OpenAI, Sam Altman, reconnaissant même que GPT-4 avait été relâché. Il a publié sur X en février qu’un correctif avait été publié pour répondre aux plaintes.
Cependant, à l’époque où les premiers signes de faiblesse sont apparus, aucune autre entreprise n’avait publié un modèle qui, du moins sur le papier, offrait des performances comparables à celles du GPT-4 d’OpenAI. Cela a maintenu les utilisateurs attachés à l’entreprise, ce qui a sans doute déclenché l’engouement pour l’IA générative de l’année dernière.
Ce n’est pas le cas actuellement.
Des alternatives GPT-4 émergent
Face à une nouvelle série de problèmes avec GPT-4, les utilisateurs peuvent expérimenter de nombreux autres modèles qui ont depuis émergé. Certains d’entre eux semblent non seulement correspondre à l’offre phare d’OpenAI, mais ils pourraient également la surpasser.
Prenez Claude d’Anthropic. Le rival d’OpenAI, soutenu par Google et Amazon, a publié plus tôt ce mois-ci une version premium de son modèle Claude appelée Claude 3 Opus. Considérez-le comme un équivalent de GPT-4.
Lors de sa sortie, Anthropic a partagé des données comparant les performances de Claude 3 Opus à celles de ses pairs sur plusieurs critères tels que « connaissances de premier cycle », « résolution de problèmes mathématiques », « code » et « évaluations mixtes ». Dans presque tous les cas, Claude est arrivé en tête.
Ce ne sont pas seulement les données d’Anthropic qui indiquent que son modèle est meilleur. Cette semaine, Claude 3 Opus a dépassé GPT-4 au classement de LMSYS Chatbot Arena, une plateforme ouverte d’évaluation des modèles d’IA.
Bien sûr, il y a une différence entre quelque chose qui semble bon sur papier et qui peut être mis en œuvre dans la pratique. Mais à la suite des problèmes de GPT-4, même les fidèles d’OpenAI ont été fortement incités à essayer des alternatives comme Claude.
Il est clair que beaucoup sont plus qu’impressionnés.
Après une séance de codage avec Claude 3 Opus la semaine dernière, un ingénieur logiciel a posté sur X qu’il pensait que cela écrasait GPT-4. « Je ne pense pas que les critères standards rendent justice à ce modèle », a-t-il écrit.
Allie K. Miller, un investisseur providentiel en IA, a déclaré que GPT-4 semble être pire maintenant qu’il y a quelques mois. « La plupart des gens que je connais utilisent Claude 3 », a-t-elle écrit sur X, ainsi que sur le modèle Mixtral 8x7B de Mistral AI.
Ethan Mollick, un professeur de Wharton, a même trouvé que Claude 3 connaissait mieux les langues elfiques construites par JRR Tolkien, le sindarin et le quenya. « Lorsqu’on lui demande de traduire ‘Mon aéroglisseur est plein d’anguilles’, Claude 3 fait une traduction originale, GPT-4 effectue une recherche sur le Web », a-t-il écrit sur X.
Sur le forum des développeurs d’OpenAI, certains utilisateurs ont déclaré que Claude Opus 3 est beaucoup plus fiable en matière de codage et qu’il est similaire en termes de performances à GPT-4 lors de sa première sortie.
OpenAI n’a pas répondu à une demande de commentaires de Business Insider concernant les problèmes de performances de GPT-4.
Certains, comme Miller, ne pensent pas que ces problèmes suffisent à abandonner complètement OpenAI. La baisse des performances, a-t-elle déclaré, pourrait être due au fait que « OpenAI se concentre sur le prochain modèle » et pourrait y consacrer des ressources.
Cela pourrait être le cas. Comme mes collègues Kali Hays et Darius Rafieyan l’ont rapporté ce mois-ci, OpenAI est sur le point de publier GPT-5 d’ici le milieu de l’année.
Le moins qu’on puisse faire, c’est de ne pas être paresseux.