L’IA de Google transforme la recherche : pourquoi cela devrait vous préoccuper aussi.

Google intègre davantage d’intelligence artificielle dans son moteur de recherche avec un nouveau mode IA, offrant une expérience de recherche interactive. Accessible à tous, ce mode permet aux utilisateurs de poser des questions en langage naturel et d’obtenir des réponses synthétiques. Cependant, cette technologie présente des risques, notamment des erreurs d’IA et des informations inexactes. Bien que prometteuse, elle soulève des préoccupations, surtout concernant la désinformation, en particulier dans des domaines sensibles comme la santé.

Google fait un pas en avant en intégrant davantage d’intelligence artificielle (IA) dans son moteur de recherche. Vous souvenez-vous des résumés d’IA, qui extraient et synthétisent le contenu des sites Web pour l’afficher en haut des résultats de recherche Google ?

Cette fonctionnalité, bien que perfectible, est désormais disponible sur le marché américain, propulsée par les nouveaux modèles d’IA Gemini 2.0. Elle ne nécessite plus de connexion à un compte Google et est accessible à tous les utilisateurs, peu importe leur âge. Bien que cela représente un risque considérable, Google applique une approche similaire à l’ensemble de la page de recherche avec un nouveau mode IA.

Actuellement en phase de test, ce mode IA modifie l’expérience de recherche traditionnelle en remplaçant les simples liens par un dialogue interactif, semblable à ce que proposent les chatbots. Bien que cette fonctionnalité soit séduisante, elle pourrait également être sujette à des erreurs considérables, comme l’historique des résumés d’IA l’a montré.

Qu’est-ce que le mode IA pour la recherche Google ?

L’objectif principal est d’offrir aux utilisateurs toutes les informations nécessaires — tirées des sites Web indexés — tout en évitant les désagréments de cliquer sur plusieurs sources et de lire de longues pages. Les utilisateurs peuvent poser des questions en langage naturel, facilitant ainsi les demandes de suivi, sans avoir à recourir à une recherche remplie de mots-clés.

« Il utilise une méthode de « répartition des requêtes », lançant plusieurs recherches connexes simultanément sur différents sous-thèmes et sources de données, puis combinant ces résultats pour fournir une réponse claire », explique la société.

Cependant, Google prévient que ce mode IA peut parfois se tromper, même si ses tests internes ont apporté des résultats prometteurs. Dans les cas où l’IA doute de la véracité de sa réponse, elle affichera simplement une liste de résultats de recherche Web, semblable à l’expérience traditionnelle de recherche Google.

Dans sa version actuelle, il peut proposer des réponses sous forme de longs paragraphes ou de tableaux bien structurés, mais des éléments graphiques et des vidéos seront intégrés à l’avenir. Pour l’instant, ce mode IA est exclusivement réservé aux abonnés de Google One AI Premium et sera déployé comme une expérience optionnelle.

Cela pourrait poser un problème pour ceux qui comptent sur la recherche Google, surtout en matière de précision. Par exemple, j’ai vérifié si nous étions en 2025. Le résumé d’IA de Google a affirmé que c’était l’année 2024, citant Wikipedia, qui précise pourtant que l’année actuelle est 2025.

Une histoire pleine de risques

La conception du mode IA pour la recherche Google repose sur le principe de la commodité pour les utilisateurs. Cependant, la technologie qui le soutient rencontre encore des défis que l’ensemble du domaine de l’IA n’a pas encore résolus. L’un des problèmes majeurs est celui des hallucinations d’IA, où un outil d’IA génère des informations fictives et les présente comme des faits.

Les résumés d’IA de Google illustrent parfaitement ce phénomène, et des erreurs continuent d’apparaître. Récemment, un résumé d’IA a affirmé à tort une règle de circulation à droite en Inde, sans jamais indiquer qu’il fallait vérifier cette information. « C’est tellement inexact que je suis surpris qu’il existe même », a commenté un utilisateur.

Ces résumés d’IA apparaissent comme une simple information condensée en haut des résultats de recherche Google. Imaginez alors une page entière présentée comme une longue réponse, avec quelques sources éparpillées dans le texte.

Google déclare que ces résumés d’IA excelleront dans des domaines tels que « le codage, les mathématiques avancées et les requêtes multimodales ». Pourtant, il y a peu de temps, il a mélangé des faits et déformé des histoires, notamment avec des requêtes formulées en langage naturel mises en avant pour ce mode IA.

Lorsqu’il a été interrogé sur des astronautes ayant rencontré des chats sur la lune, il a répondu avec assurance que c’était vrai, ajoutant que les astronautes prenaient soin de ces chats lunaires. Julia Feerrar, experte en littératie numérique à Virginia Tech, a souligné que l’IA ne connaît pas réellement les réponses à nos questions, citant un exemple où le résumé d’IA a mentionné avec certitude Barack Obama comme le premier président musulman.

Les conséquences de la désinformation générée par l’IA peuvent être graves, en particulier pour les requêtes concernant la santé et le bien-être. Une analyse de plus de 30 millions de pages de résultats de recherche a révélé que les recherches liées à la santé sont les plus susceptibles d’inclure ces résumés d’IA.

C’est le même outil qui a suggéré qu’une personne devrait consommer une pierre par jour, ajouter un huitième de tasse de colle à sa pizza, ou même boire de l’urine pour soulager des calculs rénaux.

Ce n’est pas l’évolution de la recherche que je cherche

Malgré les promesses de Google concernant l’évolution de ses modèles d’IA, la situation n’a pas connu d’amélioration significative. Récemment, des résumés d’IA ont affirmé avec certitude que MJ Lenderman avait remporté 14 Grammy Awards.

Il a même donné la mauvaise année lorsque j’ai posé une question simple comme « est-ce que nous sommes en 2025 » dans la barre de recherche de Google. « Non, ce n’est pas actuellement l’année 2025. L’année actuelle est 2024 », a-t-il répondu.