Pourquoi ChatGPT ne remplacera pas la recherche Google de si tôt, indice, capacités et coûts limités, pour commencer

[ad_1]

  • Le ChatGPT d’OpenAI produit souvent des réponses extrêmement inexactes et les présente comme si elles étaient correctes.
  • Les quelques centimes qu’il en coûte par requête de chat seraient exorbitants s’ils étaient adaptés au milliard de recherches que Google gère quotidiennement.
  • La technologie peut apparaître comme les résultats d’une recherche, plutôt que le remplacement en gros de la recherche.

Le battage médiatique autour de ChatGPT, le chatbot sophistiqué d’OpenAI, a inondé tous les coins du monde de la technologie depuis sa sortie publique le mois dernier. Le PDG d’OpenAI, Sam Altman a tweeté que il a déjà dépassé le million d’utilisateurs actifs quotidiens, des dizaines de personnes tweetent des captures d’écran de ses réponses longues et humaines aux questions, et la valorisation de l’entreprise pourrait même atteindre des milliards malgré les rapports de revenus relativement maigres.

La plus haute ambition de ce battage médiatique a été que ChatGPT puisse remplacer Google. « Effrayant » a lu un titre dans le New York Post, citant des experts qui ont déclaré que ChatGPT pourrait « éliminer Google d’ici deux ans ». Un compte Twitter de premier plan Doomberg a déclaré Google « obsolète » après avoir utilisé la technologie pendant cinq minutes.

« Il me semble clair laquelle de ces deux approches ressemble le plus à l’avenir de la recherche. Et ce n’est pas celle de Google », a déclaré le journaliste Casey Newton dans sa newsletter louant la technologie.

L’hystérie autour de la menace contre Google a même fait son chemin dans Google. Lors d’une récente réunion à main levée, le responsable de l’IA de Google, Jeff Dean, s’est demandé si Google avait raté le moment sur ChatGPT et sa technologie sous-jacente de grands modèles de langage. « Non », a essentiellement été sa réponse, selon un rapport de CNBC.

Un responsable de la recherche Google qui a parlé à Insider en arrière-plan a déclaré qu’il n’était certainement pas inquiet de la menace de ChatGPT.

Selon plusieurs experts en IA, experts en recherche, et les employés actuels et anciens de Google.

À savoir : les LLM donnent souvent des réponses incorrectes aux questions, le coût de son fonctionnement est exorbitant par rapport à la recherche Google et il ne fait pas grand-chose de ce que les gens attendent de la recherche.

« Il est facile de se laisser séduire en pensant que les grands modèles de langage sont l’ordinateur de Star Trek, mais ce n’est pas le cas », a déclaré Gary Marcus, entrepreneur et professeur à l’école d’ingénierie de l’Université de New York.

Marcus, qui a critiqué Google dans le passé, a décrit ChatGPT et LLM comme un tour de magie. La technologie fonctionne en ingérant des milliards de mots sur Internet pour générer une chaîne de mots qui aurait apparemment un sens en réponse à une question. Il l’appelle « la saisie semi-automatique sous stéroïdes ».

La technologie ne peut pas vérifier l’exactitude de ce qu’elle dit et ne peut pas faire la différence entre un fait vérifié et la désinformation qu’elle a ingérée, a déclaré Marcus. Pire encore, il a tendance à inventer une réponse par lui-même – un phénomène que les chercheurs en IA appellent « hallucinations ».

Par exemple, quelqu’un peut demander plusieurs fois à un LLM qui était l’auteur d’un livre. Parfois, il donne la bonne réponse, parfois il dit « je ne sais pas » et parfois il dit la mauvaise personne.

Cette dernière option pourrait être la plus nocive.

« Ce qui est énervant, c’est qu’il a l’air aussi bon et confiant quand c’est faux et quand c’est vrai », a déclaré Daniel Tunkelang, consultant en recherche et ancien employé de l’équipe de recherche de Google.

Un porte-parole de Google a refusé de commenter. Un porte-parole d’OpenAI a déclaré à Insider que ChatGPT est encore en train d’apprendre.

« La motivation pour rendre ChatGPT disponible en tant qu’aperçu de la recherche est d’apprendre de l’utilisation dans le monde réel – qui, selon nous, est un élément essentiel du développement et du déploiement de systèmes d’IA capables et sûrs – nous incorporons donc de manière itérative les leçons et rendons le système plus sûr et plus fiable . »

Les experts en recherche craignent que des technologies telles que ChatGPT et d’autres LLM n’inondent bientôt le Web d’informations médiocres et inexactes. Cette préoccupation a déjà amené Google à renforcer son algorithme pour éliminer les pages de mauvaise qualité qui, selon lui, ont été écrites par une IA. Il a le potentiel de déclencher une guerre IA contre IA sur le Web alors que la technologie IA interne de Google tente d’identifier et de déclasser les pages qui, selon elle, ont été générées par l’IA.

La recherche Google n’est bien sûr pas à l’abri de la désinformation et fait régulièrement apparaître des liens vers des pages contenant des inexactitudes. Mais contrairement à la recherche Google, qui renvoie à des sources d’informations lorsqu’elle répond à une question, un LLM se heurte à des problèmes majeurs.

« Il vous donnera des références, mais il les invente. Il ne sait pas d’où il tire ses informations », a déclaré Marcus.

Altman a été franc sur les limites de ChatGPT, tweeter ça il s’agit toujours d’un « aperçu en cours » et il reste encore beaucoup de travail à faire en termes d’exactitude et de véracité.

Les arguments selon lesquels ChatGPT ou d’autres LLM pourraient remplacer Google passent souvent à côté d’un cas d’utilisation majeur de la recherche, non pas pour trouver une réponse à une question mais pour naviguer vers une page Web, a noté un ancien cadre de Google. C’est la raison pour laquelle les éditeurs investissent massivement dans l’optimisation de leurs pages Web pour qu’elles apparaissent en tête des recherches Google.

Même si ChatGPT était une menace directe pour Google, son coût est prohibitif. Altman a tweeté que chaque chat coûte « des centimes à un chiffre » en termes de puissance de calcul. Cela peut ne pas sembler cher, et OpenAI aurait conclu un accord avec le principal investisseur Microsoft pour compenser les coûts informatiques via des crédits pour son service de cloud computing Azure.

Mais si les requêtes ChatGPT atteignaient un montant comparable aux milliards de recherches qu’un porte-parole de Google a déclaré que le site gère quotidiennement, les coûts grimperaient jusqu’à cent millions par jour. C’est une façon extrêmement inefficace de gérer les requêtes, selon un ancien cadre de Google.

Le potentiel des LLM en tant qu’outil de recherche continue de susciter le scepticisme et l’intrigue. Une possibilité serait d’intégrer les LLM comme l’une des nombreuses réponses à une requête de recherche. Par exemple, You.com, un moteur de recherche de démarrage dirigé par l’ancien scientifique en chef de Salesforce, a intégré un outil qui utilise l’IA pour générer des réponses textuelles à une question, en plus d’une liste de liens vers des pages Web externes.

Même dans cette situation, les résultats de recherche de Google seraient bien positionnés. L’entreprise a passé des années à investir dans de grands modèles de langage et les a testés en interne. Il intègre déjà des éléments de LLM dans sa technologie de recherche.

Le jury peut se demander pendant un certain temps si les LLM sont l’avenir de la recherche. Mais c’est un avenir pour lequel Google devrait être prêt.



[ad_2]

Source link -3