Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words
Les relations de recherche de Google ont répondu à plusieurs questions concernant l’indexation des pages Web dans le dernier épisode du podcast « Search Off The Record ».
Les sujets abordés étaient de savoir comment empêcher Googlebot d’explorer des sections spécifiques d’une page et comment empêcher Googlebot d’accéder à un site.
John Mueller et Gary Illyes de Google ont répondu aux questions examinées dans cet article.
Bloquer Googlebot à partir de sections de page Web spécifiques
Mueller dit que c’est impossible lorsqu’on lui a demandé comment empêcher Googlebot d’explorer des sections de pages Web spécifiques, telles que les zones « également achetés » sur les pages de produits.
« La version courte est que vous ne pouvez pas bloquer l’exploration d’une section spécifique sur une page HTML », a déclaré Mueller.
Il a poursuivi en proposant deux stratégies potentielles pour résoudre le problème, dont aucune, a-t-il souligné, n’est la solution idéale.
Mueller a suggéré d’utiliser l’attribut HTML data-nosnippet pour empêcher le texte d’apparaître dans un extrait de recherche.
Alternativement, vous pouvez utiliser un iframe ou JavaScript avec la source bloquée par robots.txt, bien qu’il ait averti que ce n’est pas une bonne idée.
« L’utilisation d’un iframe robotisé ou d’un fichier JavaScript peut entraîner des problèmes d’exploration et d’indexation difficiles à diagnostiquer et à résoudre », a déclaré Mueller.
Il a rassuré tous ceux qui écoutaient que si le contenu en question est réutilisé sur plusieurs pages, ce n’est pas un problème qui doit être résolu.
« Il n’est pas nécessaire d’empêcher Googlebot de voir ce genre de duplication », a-t-il ajouté.
Empêcher Googlebot d’accéder à un site Web
En réponse à une question concernant l’interdiction d’accès à Googlebot n’importe quel partie d’un site, Illyes a fourni une solution facile à suivre.
« Le moyen le plus simple est robots.txt : si vous ajoutez un refus : / pour l’agent utilisateur de Googlebot, Googlebot laissera votre site seul aussi longtemps que vous conserverez cette règle », a expliqué Illyes.
Pour ceux qui recherchent une solution plus robuste, Illyes propose une autre méthode :
« Si vous voulez bloquer même l’accès au réseau, vous devez créer des règles de pare-feu qui chargent nos plages d’adresses IP dans une règle de refus », a-t-il déclaré.
Consultez la documentation officielle de Google pour obtenir une liste des adresses IP de Googlebot.
En résumé
Bien qu’il soit impossible d’empêcher Googlebot d’accéder à des sections spécifiques d’une page HTML, des méthodes telles que l’utilisation de l’attribut data-nosnippet peuvent offrir un contrôle.
Lorsque vous envisagez de bloquer complètement Googlebot de votre site, une simple règle d’interdiction dans votre fichier robots.txt fera l’affaire. Cependant, des mesures plus extrêmes telles que la création de règles de pare-feu spécifiques sont également disponibles.
Image sélectionnée générée par l’auteur à l’aide de Midjourney.
Source: Recherche Google en mode privé