Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les prédictions de Gartner selon lesquelles les chatbots IA sont l’avenir et représenteront une baisse de 25 % de la part de marché de la recherche ont retenu beaucoup d’attention. Ce qui n’a pas retenu l’attention, c’est le fait que cette affirmation ne tient pas compte de sept faits qui remettent en question l’exactitude de la prédiction et démontre qu’elle ne résiste tout simplement pas à un examen minutieux.
1. Les moteurs de recherche IA n’existent pas réellement
Le problème avec la technologie de l’IA est qu’il est actuellement impossible d’utiliser l’infrastructure de l’IA pour créer un index de recherche de contenu Web constamment mis à jour en plus des milliards de pages d’actualités et de médias sociaux constamment générées en temps réel. Les tentatives visant à créer un index de recherche IA en temps réel échouent car la nature de la technologie nécessite de recycler l’intégralité du modèle linguistique pour le mettre à jour avec de nouvelles informations. C’est pourquoi les modèles linguistiques comme GPT-4 n’ont pas accès aux informations actuelles.
Les moteurs de recherche dits IA ne sont pas vraiment des moteurs de recherche IA. En pratique, ce sont des chatbots qui s’intercalent entre le chercheur et un moteur de recherche traditionnel. Lorsqu’un utilisateur pose une question, un moteur de recherche traditionnel trouve les réponses et le chatbot IA choisit la meilleure réponse et la résume dans une réponse en langage naturel.
Ainsi, lorsque vous utilisez un moteur de recherche chatbot AI, ce qui se passe essentiellement, c’est que vous demandez à un chatbot de le rechercher sur Google/Bing pour vous. Cela est vrai pour Bing Copilot, Google SGE et Perplexity. C’est une façon intéressante de rechercher mais ce n’est pas un véritable moteur de recherche basé sur l’IA, il y a toujours un moteur de recherche traditionnel derrière le chatbot.
Le moment de paniquer est lorsque la technologie du transformateur subit un changement important afin de pouvoir gérer un index de recherche mis à jour en temps réel (ou qu’une autre technologie le remplace). Mais ce moment n’est pas encore arrivé, ce qui rend la prévision d’une baisse de 25 % de la demande de recherche d’ici 2026 semble un peu prématurée.
2. L’IA générative n’est pas prête pour une utilisation à grande échelle
Le récent fiasco de la recherche d’images de Gemini souligne le fait que l’IA générative en tant que technologie en est encore à ses balbutiements. Microsoft Copilot a complètement déraillé en mars 2024 en assumant un personnage divin, se faisant appeler « SupremacyAGI » et exigeant d’être vénéré sous la menace d’emprisonner les utilisateurs du service.
Est-ce la technologie qui, selon Gartner, lui fera perdre 25 % de part de marché ? Vraiment?
L’IA générative n’est pas sûre et malgré les tentatives d’ajout de garde-fous, la technologie parvient toujours à sauter du haut des falaises avec des réponses nuisibles. La technologie en est littéralement à ses balbutiements. Affirmer qu’elle sera prête à être utilisée à grande échelle dans deux ans est excessivement optimiste quant aux progrès de la technologie.
3. Les véritables moteurs de recherche IA ne sont pas économiquement viables
Les moteurs de recherche IA sont exponentiellement plus chers que les moteurs de recherche traditionnels. Il en coûte actuellement 20 $/mois pour s’abonner à un chatbot IA générative et cela est limité à 40 requêtes toutes les 3 heures. La raison en est que générer des réponses IA est beaucoup plus coûteux que générer des réponses de moteurs de recherche traditionnels.
Google a admis l’année dernière qu’un chat AI coûte dix fois plus cher qu’une requête classique sur un moteur de recherche. Le GitHub Copilot de Microsoft perdrait en moyenne 20 $ par utilisateur chaque mois. Les réalités économiques de la technologie de l’IA à l’heure actuelle excluent fondamentalement l’utilisation d’un moteur de recherche IA en remplacement des moteurs de recherche traditionnels.
4. La prévision de Gartner d’une baisse de 25 % suppose que les moteurs de recherche resteront inchangés
Gartner prédit une diminution de 25 % du volume des requêtes de recherche traditionnelles d’ici 2026, mais cette prévision suppose que les moteurs de recherche traditionnels resteront les mêmes. L’analyse de Gartner ne tient pas compte du fait que les moteurs de recherche évoluent non seulement sur une base annuelle mais sur une base mensuelle.
Les moteurs de recherche intègrent actuellement des technologies d’IA qui augmentent la pertinence de la recherche de manière à innover dans l’ensemble du paradigme des moteurs de recherche. Par exemple, Google rend les images exploitables afin que les utilisateurs puissent lancer une recherche basée sur l’image pour obtenir des réponses sur le sujet représenté dans l’image.
C’est ce qu’on appelle la recherche multimodale, une manière de rechercher en utilisant le son et la vision en plus de la recherche textuelle traditionnelle. Il n’y a absolument aucune mention de multimodalité dans la recherche traditionnelle, une technologie qui montre comment les moteurs de recherche traditionnels évoluent pour répondre aux besoins des utilisateurs.
Les moteurs de recherche dits chatbots IA en sont à leurs balbutiements et n’offrent aucune multimodalité. Comment une technologie aussi primitive peut-elle être considérée comme compétitive par rapport à la recherche traditionnelle ?
5. Pourquoi prétendre que les chatbots IA voleront des parts de marché est irréaliste
Le rapport Gartner suppose que les chatbots IA et les agents virtuels deviendront plus populaires, mais il ne tient pas compte du fait que les propres recherches de Gartner de juin 2023 montrent que les utilisateurs se méfient des chatbots IA.
Le propre rapport de Gartner déclare :
«Seuls 8 % des clients ont utilisé un chatbot lors de leur dernière expérience de service client, selon une enquête réalisée par Gartner, Inc. Parmi eux, seulement 25 % ont déclaré qu’ils utiliseraient à nouveau ce chatbot à l’avenir. »
Le manque de confiance du client est particulièrement visible dans les tâches de votre argent ou de votre vie (YMYL) qui impliquent de l’argent.
Gartner a rapporté :
« Seulement 17 % des litiges de facturation sont résolus par des clients qui ont utilisé un chatbot à un moment donné de leur parcours… »
L’hypothèse enthousiaste de Gartner selon laquelle les utilisateurs feront confiance aux chatbots IA peut être infondée car il n’a peut-être pas considéré que les utilisateurs ne font pas confiance aux chatbots pour les requêtes de recherche YMYL importantes, selon les propres données de recherche de Gartner.
6. Le conseil de Gartner est de repenser quoi ?
Le conseil de Gartner aux spécialistes du marketing de recherche est d’incorporer plus d’expérience, d’expertise, d’autorité et de fiabilité dans leur contenu, ce qui trahit une mauvaise compréhension de ce qu’est réellement EEAT. Par exemple, la fiabilité n’est pas quelque chose qui est ajouté au contenu comme une fonctionnalité, la fiabilité est la somme de l’expérience, de l’expertise et de l’autorité que l’auteur du contenu apporte à un article.
Deuxièmement, EEAT est un concept de ce que Google aspire à classer dans les moteurs de recherche, mais ce ne sont pas de véritables facteurs de classement, ce ne sont que des concepts.
Troisièmement, les spécialistes du marketing intègrent déjà avec fureur le concept d’EEAT dans leur stratégie de marketing de recherche. Ainsi, le conseil d’intégrer EEAT dans le cadre de la future stratégie marketing est lui-même trop tardif et manque un peu d’informations uniques.
Le conseil ne reconnaît pas non plus que les interactions et l’engagement des utilisateurs jouent non seulement un rôle dans le succès actuel des moteurs de recherche, mais qu’ils vont probablement gagner en importance à mesure que les moteurs de recherche intègrent l’IA pour améliorer leur pertinence et leur signification pour les utilisateurs.
Cela signifie que le marketing de recherche traditionnel restera efficace et recherché pour créer une notoriété et une demande.
7. Pourquoi le filigrane peut ne pas avoir d’impact
Gartner suggère que le filigrane et l’authentification deviendront de plus en plus courants en raison de la réglementation gouvernementale. Mais cette prédiction ne parvient pas à comprendre le rôle de soutien que l’IA peut jouer dans la création de contenu.
Par exemple, il existe des flux de travail dans lesquels un humain évalue un produit, le note, fournit un score de sentiment et des informations sur les utilisateurs susceptibles d’apprécier le produit, puis soumet les données d’évaluation à une IA pour rédiger l’article sur la base des informations humaines. Est-ce que cela devrait être filigrané ?
Une autre façon pour les créateurs de contenu d’utiliser l’IA est de dicter leurs pensées dans un enregistrement, puis de le remettre à l’IA avec l’instruction de le peaufiner et de le transformer en un article professionnel. Cela devrait-il être filigrané comme étant généré par l’IA ?
La capacité de l’IA à analyser de grandes quantités de données complète le flux de production de contenu et peut identifier les qualités clés des données, telles que les concepts et les conclusions clés, qui peuvent à leur tour être utilisées par les humains pour créer un document rempli de leurs idées, apportant de mettre à profit leur expertise humaine dans l’interprétation des données. Et si cet humain utilisait ensuite une IA pour peaufiner le document et le rendre professionnel ? Est-ce que cela devrait être filigrané ?
Les prédictions du Gartner concernant le filigranage du contenu de l’IA ne prennent pas en compte la manière dont l’IA est réellement utilisée par de nombreux éditeurs pour créer du contenu bien écrit avec des informations centrées sur l’humain, ce qui complique absolument l’utilisation du filigrane et remet en question son adoption à long terme. , sans parler de son adoption d’ici 2026.
Les prédictions de Gartner ne résistent pas à un examen minutieux
Les prédictions du Gartner citent des faits réels du monde réel. Mais il ne prend pas en compte les facteurs du monde réel qui font de la technologie de l’IA une menace impuissante pour les moteurs de recherche traditionnels. Par exemple, il n’est pas tenu compte de l’incapacité de l’IA à créer un nouvel index de recherche ou du fait que les moteurs de recherche AI Chatbot ne sont même pas de véritables moteurs de recherche IA.
Il est incroyable que l’analyse n’ait pas mentionné le fait que Bing Chat n’a connu aucune augmentation significative du nombre d’utilisateurs et n’a pas réussi à réduire le volume de recherche de Google. Ces échecs jettent de sérieux doutes sur l’exactitude des prévisions selon lesquelles le volume de recherche diminuerait de 25 %.
Lisez le communiqué de presse de Gartner ici :
Gartner prédit que le volume des moteurs de recherche chutera de 25 % d’ici 2026, en raison des chatbots IA et d’autres agents virtuels
Image en vedette par Shutterstock/Renovacio