Customize this title in frenchGoogle sur la protection du signal de texte d’ancrage contre l’influence du site de spam

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 wordsLors d’une session Google SEO pendant les heures de bureau, Duy Nguyen de l’équipe de qualité de la recherche de Google a répondu à une question sur les liens sur les sites de spam et sur la façon dont la confiance a quelque chose à voir avec cela. Il était intéressant de voir comment le Googler a déclaré qu’il protégeait le signal du texte d’ancrage. Ce n’est pas quelque chose dont on parle couramment. Construire la confiance avec Google est une considération importante pour de nombreux éditeurs et référenceurs. Il existe une idée selon laquelle la « confiance » aidera à obtenir un site indexé et correctement classé. Il est également connu qu’il n’y a pas de métrique de « confiance », ce qui confond parfois certains dans la communauté de recherche. Comment un algorithme peut-il faire confiance s’il ne mesure pas quelque chose ? Les Googleurs ne répondent pas vraiment à cette question, mais il existe des brevets et des documents de recherche qui donnent une idée. Google ne fait pas confiance aux liens des sites de spam La personne qui a soumis une question aux heures de bureau SEO a demandé : « Si un domaine est pénalisé, cela affecte-t-il les liens qui en sortent ? » Le Googleur, Duy Nguyen, a répondu : « Je suppose que par « pénaliser », vous voulez dire que le domaine a été rétrogradé par nos algorithmes de spam ou nos actions manuelles. En général, oui, nous ne faisons pas confiance aux liens provenant de sites dont nous savons qu’ils sont du spam. Cela nous aide à maintenir la qualité de nos signaux d’ancrage. Confiance et liens Les Googleurs parlent de confiance et il est clair qu’ils parlent de leurs algorithmes faisant confiance à quelque chose ou ne faisant pas confiance à quelque chose. Dans ce cas, il ne s’agit pas de ne pas compter les liens qui se trouvent sur des sites de spam, en particulier, il s’agit de ne pas compter le signal de texte d’ancrage. La communauté SEO parle de « renforcer la confiance », mais dans ce cas, il s’agit vraiment de ne pas créer de spam. Comment Google détermine-t-il qu’un site est un spam ? Tous les sites ne sont pas pénalisés ou ne reçoivent pas une action manuelle. Certains sites ne sont même pas indexés et c’est le travail de Spam Brain de Google, une plate-forme d’IA qui analyse les pages Web à différents moments, en commençant au moment de l’exploration. La plateforme spam brain fonctionne comme : Contrôleur d’indexationSpam Brain bloque les sites au moment de l’exploration, y compris le contenu découvert via la console de recherche et les sitemaps. Traque les spams indexésSpam Brain détecte également les spams qui ont été indexés au moment où les sites sont pris en compte pour le classement. Le fonctionnement de la plate-forme Spam Brain est qu’elle forme une IA sur les connaissances que Google possède sur le spam. Google a commenté le fonctionnement du spam brain : « En combinant notre connaissance approfondie du spam avec l’IA, l’année dernière, nous avons pu créer notre propre IA anti-spam qui est incroyablement efficace pour détecter les tendances connues et nouvelles en matière de spam. » On ne sait pas quoi « connaissance des spams » Google parle, mais il existe divers brevets et documents de recherche à ce sujet. Ceux qui veulent approfondir ce sujet peuvent envisager de lire un article que j’ai écrit sur le concept d’algorithmes de classement de distance de lien, une méthode de classement des liens. J’ai également publié un article complet sur plusieurs articles de recherche qui décrivent des algorithmes liés aux liens qui peuvent décrire ce qu’est l’algorithme Penguin. Bien que de nombreux brevets et documents de recherche datent d’une dizaine d’années, il n’y a pas vraiment eu d’autre publication par les moteurs de recherche et les chercheurs universitaires depuis. L’importance de ces brevets et documents de recherche est qu’il est possible qu’ils puissent être intégrés à l’algorithme de Google sous une forme différente, par exemple pour la formation et l’IA comme Spam Brain. Le brevet discuté dans l’article sur le classement de la distance des liens décrit comment la méthode attribue des scores de classement aux pages en fonction des distances entre un ensemble de « sites de référence » de confiance et les pages auxquelles ils sont liés. Les sites de départ sont comme des points de départ pour calculer quels sites sont normaux et quels sites ne le sont pas (c’est-à-dire spam). L’intuition est que plus un site est éloigné d’un site source, plus il est probable que le site puisse être considéré comme du spam. Cette partie, sur la détermination du spam par la distance du lien, est discutée dans des articles de recherche cités dans l’article Penguin auquel j’ai fait référence plus tôt. Le brevet, (Produire un classement pour les pages à l’aide des distances dans un graphique de liens Web), explique : « Le système attribue ensuite des longueurs aux liens en fonction des propriétés des liens et des propriétés des pages attachées aux liens. Le système calcule ensuite les distances les plus courtes entre l’ensemble de pages de départ et chaque page de l’ensemble de pages sur la base des longueurs des liens entre les pages. Ensuite, le système détermine un score de classement pour chaque page de l’ensemble de pages en fonction des distances les plus courtes calculées. » Graphique de lien réduit Le même brevet mentionne également ce qu’on appelle un graphe de liens réduit. Mais il n’y a pas qu’un seul brevet qui traite des graphes de liens réduits. Les graphiques de liens réduits ont également été étudiés en dehors de Google. Un graphe de liens est comme une carte d’Internet qui est créée en mappant avec des liens. Dans un graphique de liens réduit, les liens de faible qualité et les sites associés sont supprimés. Ce qui reste est ce qu’on appelle un graphe de liens réduit. Voici une citation du brevet Google cité ci-dessus : « Un graphe de liens réduit Notons que les liens participant aux k chemins les plus courts des graines aux pages constituent un sous-graphe qui inclut tous les liens qui sont « en flux » classés à partir des graines. Bien que ce sous-graphe comprenne beaucoup moins de liens que le graphe de liens d’origine, les k chemins les plus courts entre les graines et chaque page de ce sous-graphe ont les mêmes longueurs que les chemins du graphe d’origine. … De plus, le flux de classement vers chaque page peut être ramené aux k graines les plus proches à travers les chemins de ce sous-graphe. Google ne fait pas confiance aux liens des sites pénalisés C’est une sorte de chose évidente que Google ne fait pas confiance aux liens provenant de sites Web pénalisés. Mais parfois, on ne sait pas si un site est pénalisé ou signalé comme spam par Spam Brain. Faire des recherches pour voir si un site n’est pas digne de confiance est une bonne idée avant de faire l’effort d’essayer d’obtenir un lien à partir d’un site. À mon avis, les métriques tierces ne devraient pas être utilisées pour prendre des décisions commerciales comme celle-ci, car les calculs utilisés pour produire un score sont cachés. Si un site est déjà lié à des sites potentiellement spammés qui ont eux-mêmes des liens entrants provenant de liens payants possibles comme les PBN (réseaux de blogs privés), il s’agit probablement d’un site de spam. Image sélectionnée par Shutterstock/Krakenimages.com Regardez les heures d’ouverture du bureau SEO : window.addEventListener( ‘load2’, function() console.log(‘load_fin’); if( sopp != ‘yes’ && !window.ss_u ) !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window,document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); if( typeof sopp !== « undefined » && sopp === ‘yes’ ) fbq(‘dataProcessingOptions’, [‘LDU’], 1, 1000); else fbq(‘dataProcessingOptions’, []); fbq(‘init’, ‘1321385257908563’); fbq(‘track’, ‘PageView’); fbq(‘trackSingle’, ‘1321385257908563’, ‘ViewContent’, content_name: ‘google-on-protecting-anchor-text-signal-from-spam-site-influence’, content_category: ‘news seo’ ); );

Source link -57