• Problèmes de crawling SEO

Google clarifie l'impact du blocage du crawling sur le pouvoir de liaison

  • Felix Rose-Collins
  • 3 min read
Google clarifie l'impact du blocage du crawling sur le pouvoir de liaison

Intro

Dans un récent podcast intitulé "SEO Office Hours", John Mueller, de Google, a répondu à une question concernant l'effet du blocage de l'exploration d'une page web par Google sur le "pouvoir de liaison" des liens internes et externes. Sa réponse a fourni des indications précieuses sur la manière dont Google perçoit et traite les liens, offrant ainsi une perspective centrée sur l'utilisateur concernant cet aspect technique de l'optimisation des moteurs de recherche.

Le rôle des liens dans le référencement

Les liens, qu'ils soient internes ou externes, sont fondamentaux pour le référencement, car ils soulignent l'importance et la pertinence des pages web. Les liens internes aident Google à comprendre la structure d'un site web et à hiérarchiser les pages, tandis que les liens externes (backlinks) sont traditionnellement considérés comme des appuis qui peuvent renforcer l'autorité d'un site et son potentiel de classement. Toutefois, les mécanismes exacts utilisés par Google pour évaluer ces liens, en particulier les liens externes, restent en partie spéculatifs et fondés sur des informations anciennes, voire obsolètes.

Impact du blocage du crawling sur les liens

La question posée à M. Mueller était de savoir si le fait d'empêcher Google d'explorer une page annulait le pouvoir de liaison des liens contenus dans cette page. La réponse de M. Mueller a été formulée du point de vue de l'utilisateur, suggérant que si une page n'est pas accessible, les utilisateurs - et, par extension, les moteurs de recherche - ne peuvent pas interagir avec les liens qu'elle contient ni les suivre. Par conséquent, le fait d'empêcher l'exploration d'une page annule effectivement l'influence de ses liens, puisqu'ils sont invisibles pour Google.

Une perspective sur les liens basée sur l'utilisateur

M. Mueller a mis l'accent sur une approche centrée sur l'utilisateur pour comprendre l'impact des liens. Cette perspective s'oppose à des points de vue plus anciens et plus mécaniques, comme la croyance erronée selon laquelle le simple fait de placer des mots-clés ou des liens dans des contextes spécifiques (comme l'ancienne pratique consistant à créer un lien d'une page sur "l'encre de pieuvre" vers un site sur l'encre d'imprimante) influencerait les classements. M. Mueller suggère plutôt d'examiner si les liens apportent de la valeur ou de la pertinence du point de vue de l'utilisateur.

Ce passage à une perspective basée sur l'utilisateur s'aligne sur les tendances plus générales du référencement qui donnent la priorité à l'expérience utilisateur et à la pertinence plutôt qu'aux manipulations purement techniques.

Veiller à ce que les liens soient repérables

Pour s'assurer que les pages importantes sont accessibles, M. Mueller conseille de veiller à ce qu'elles soient liées à des pages indexables et pertinentes du site web. Le fait de bloquer l'exploration ou l'indexation de pages importantes peut empêcher les moteurs de recherche de les découvrir et de les classer, ce qui risque de nuire aux efforts de référencement.

Idées fausses sur les métabalises des robots

M. Mueller a également mis l'accent sur une idée fausse très répandue concernant l'utilisation de la balise méta "robots". Certains propriétaires de sites web utilisent à tort la directive noindex, follow, pensant qu'elle empêchera l'indexation d'une page tout en permettant aux moteurs de recherche de suivre les liens qu'elle contient. Cependant, si une page n'est pas indexée, les moteurs de recherche ne peuvent pas accéder à ses liens ni les suivre, ce qui rend cette directive inefficace. En outre, si la directive nofollow peut empêcher les robots de suivre les liens, il n'existe pas de directive "follow" équivalente pour forcer les moteurs de recherche à suivre les liens.

Conclusion

Les observations de M. Mueller soulignent l'importance d'une approche centrée sur l'utilisateur en matière de référencement, en particulier dans le contexte du traitement des liens et de la gestion du crawl. Veiller à ce que les pages essentielles soient accessibles et liées à un contenu pertinent et indexable est crucial pour maintenir le pouvoir de liaison et la découvrabilité globale d'un site. À mesure que le référencement évolue, il est essentiel de se concentrer sur la valeur et l'expérience réelles de l'utilisateur pour s'aligner sur les algorithmes des moteurs de recherche et obtenir des résultats durables.

Felix Rose-Collins

Felix Rose-Collins

Ranktracker's CEO/CMO & Co-founder

Felix Rose-Collins is the Co-founder and CEO/CMO of Ranktracker. With over 15 years of SEO experience, he has single-handedly scaled the Ranktracker site to over 500,000 monthly visits, with 390,000 of these stemming from organic searches each month.

Commencez à utiliser Ranktracker... gratuitement !

Découvrez ce qui empêche votre site Web de se classer.

Créer un compte gratuit

Ou connectez-vous en utilisant vos informations d'identification

Different views of Ranktracker app