Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsJohn Mueller de Google a répondu si la suppression de pages d’un grand site aidait à résoudre le problème des pages découvertes par Google mais non explorées. John a offert des idées générales sur la façon de résoudre ce problème. Découvert – Actuellement non indexé Search Console est un service fourni par Google qui communique les problèmes et les commentaires liés à la recherche. Le statut d’indexation est une partie importante de la console de recherche, car il indique à un éditeur quelle partie d’un site est indexée et éligible au classement. L’état d’indexation des pages Web se trouve dans le rapport d’indexation des pages de la console de recherche. Un rapport indiquant qu’une page a été découverte par Google mais non indexée est souvent le signe qu’un problème doit être résolu. Il existe plusieurs raisons pour lesquelles Google peut découvrir une page mais refuser de l’indexer, bien que la documentation officielle de Google n’énumère qu’une seule raison. « Découvert – actuellement non indexéLa page a été trouvée par Google, mais pas encore explorée. En règle générale, Google souhaitait explorer l’URL, mais cela devait surcharger le site ; Google a donc reprogrammé l’exploration. C’est pourquoi la date du dernier crawl est vide sur le rapport. John Mueller de Google propose plus de raisons pour lesquelles une page serait découverte mais pas indexée. Désindexer les pages non indexées pour améliorer l’indexation sur l’ensemble du site ? Il existe une idée selon laquelle la suppression de certaines pages aidera Google à explorer le reste du site en lui donnant moins de pages à explorer. Il y a une perception que Google a une capacité de crawl limitée (budget de crawl) allouée à chaque site. Les Googleurs ont répété à plusieurs reprises qu’il n’existe pas de budget de crawl tel que le perçoivent les référenceurs. Google a un certain nombre de considérations sur le nombre de pages à explorer, y compris la capacité du serveur de site Web à gérer une exploration intensive. L’une des raisons sous-jacentes pour lesquelles Google est sélectif quant à la quantité d’exploration est que Google n’a pas suffisamment de capacité pour stocker chaque page Web sur Internet. C’est pourquoi Google a tendance à indexer les pages qui ont une certaine valeur (si le serveur peut la gérer) et à ne pas indexer les autres pages. Pour plus d’informations sur le budget de crawl, lisez : Google partage ses informations sur le budget de crawl C’est la question qui a été posée : « La désindexation et l’agrégation de 8 millions de produits d’occasion en 2 millions de pages de produits indexables uniques contribueraient-elles à améliorer l’exploration et l’indexabilité (découvert – problème actuellement non indexé) ? » John Mueller de Google a d’abord reconnu qu’il n’était pas possible de résoudre le problème spécifique de la personne, puis a proposé des recommandations générales. Il a répondu: « C’est impossible à dire. Je vous recommande de consulter le guide du grand site sur le budget d’exploration dans notre documentation. Pour les grands sites, l’exploration plus importante est parfois limitée par la façon dont votre site Web peut gérer plus d’exploration. Dans la plupart des cas, cependant, il s’agit davantage de la qualité globale du site Web. Améliorez-vous significativement la qualité globale de votre site Web en passant de 8 millions de pages à 2 millions de pages ? À moins que vous ne vous concentriez sur l’amélioration de la qualité réelle, il est facile de passer beaucoup de temps à réduire le nombre de pages indexables, sans réellement améliorer le site Web, et cela n’améliorerait pas les choses pour la recherche. Mueller propose deux raisons pour un problème découvert non indexé John Mueller de Google a proposé deux raisons pour lesquelles Google pourrait découvrir une page mais refuser de l’indexer. Capacité du serveur Qualité globale du site Web 1. Capacité du serveur Mueller a déclaré que la capacité de Google à explorer et à indexer les pages Web peut être « limitée par la façon dont votre site Web peut gérer davantage d’exploration ». Plus un site Web est grand, plus il faut de bots pour explorer un site Web. Le problème est aggravé par le fait que Google n’est pas le seul bot à explorer un grand site. Il existe d’autres robots légitimes, par exemple de Microsoft et Apple, qui tentent également d’explorer le site. De plus, il existe de nombreux autres robots, certains légitimes et d’autres liés au piratage et au grattage de données. Cela signifie que pour un grand site, en particulier le soir, des milliers de bots peuvent utiliser les ressources du serveur de site Web pour explorer un grand site Web. C’est pourquoi l’une des premières questions que je pose à un éditeur ayant un problème d’indexation est l’état de son serveur. En général, un site Web avec des millions de pages, voire des centaines de milliers de pages, aura besoin d’un serveur dédié ou d’un hébergeur cloud (car les serveurs cloud offrent des ressources évolutives telles que la bande passante, le GPU et la RAM). Parfois, un environnement d’hébergement peut avoir besoin de plus de mémoire affectée à un processus, comme la limite de mémoire PHP, afin d’aider le serveur à faire face à un trafic élevé et d’éviter 500 messages de réponse d’erreur. Le dépannage des serveurs implique l’analyse d’un journal des erreurs du serveur. 2. Qualité globale du site Web C’est une raison intéressante pour ne pas indexer suffisamment de pages. La qualité globale du site est comme un score ou une détermination que Google attribue à un site Web. Certaines parties d’un site Web peuvent affecter la qualité globale du site John Mueller a déclaré qu’une section d’un site Web peut affecter la détermination de la qualité globale du site. Muller a dit : « … pour certaines choses, nous regardons la qualité du site dans son ensemble. Et quand nous regardons la qualité du site dans son ensemble, si vous avez des parties importantes qui sont de qualité inférieure, cela n’a pas d’importance pour nous comme pourquoi elles seraient de qualité inférieure. … si nous voyons qu’il y a des parties importantes qui sont de qualité inférieure, nous pourrions penser que dans l’ensemble, ce site Web n’est pas aussi fantastique que nous le pensions. Définition de la qualité du site John Mueller de Google a proposé une définition de la qualité du site dans une autre vidéo Office Hours : « Lorsqu’il s’agit de la qualité du contenu, nous ne parlons pas seulement du texte de vos articles. C’est vraiment la qualité de votre site Web global. Et cela inclut tout, de la mise en page à la conception. Comme, comment vous avez des choses présentées sur vos pages, comment vous intégrez des images, comment vous travaillez avec rapidité, tous ces facteurs qui entrent en jeu là-bas. Combien de temps faut-il pour déterminer la qualité globale du site Un autre fait sur la façon dont Google détermine la qualité du site est le temps qu’il faut à Google pour déterminer la qualité du site, cela peut prendre des mois. Muller a dit : « Il nous faut beaucoup de temps pour comprendre comment un site Web s’intègre par rapport au reste de l’Internet. … Et c’est quelque chose qui peut facilement prendre, je ne sais pas, quelques mois, six mois, parfois même plus de six mois… » Optimiser un site pour l’exploration et l’indexation L’optimisation d’un site entier ou d’une section d’un site est en quelque sorte une manière générale de haut niveau d’examiner le problème. Il s’agit souvent d’optimiser des pages individuelles à l’échelle. Particulièrement pour les sites de commerce électronique avec des milliers de millions de produits, l’optimisation peut prendre plusieurs formes. Choses à surveiller : Menu principalAssurez-vous que le menu principal est optimisé pour diriger les utilisateurs vers les sections importantes du site qui les intéressent le plus. Le menu principal peut également renvoyer aux pages les plus populaires. Lien vers les sections et pages populairesLes pages et sections les plus populaires peuvent également être liées à partir d’une section proéminente de la page d’accueil. Cela aide les utilisateurs à accéder aux pages et aux sections qui les intéressent le plus, mais signale également à Google qu’il s’agit de pages importantes qui doivent être indexées. Améliorer les pages de contenu légerLe contenu léger est essentiellement des pages avec peu de contenu utile…
Source link -57