介绍
在最近的一次搜索引擎优化办公时间播客中,谷歌的约翰-穆勒回答了一个关于阻止谷歌抓取网页对内部和外部链接的 "链接能力 "的影响的问题。他的回答对谷歌如何看待和处理链接提供了宝贵的见解,为搜索引擎优化的这一技术层面提供了以用户为中心的视角。
链接在搜索引擎优化中的作用
链接(包括内部链接和外部链接)是搜索引擎优化中传达网页重要性和相关性的基本要素。内部链接有助于谷歌了解网站的结构并对网页进行优先排序,而外部链接(反向链接)传统上被视为一种认可,可以提高网站的权威性和排名潜力。然而,谷歌用来评估这些链接(尤其是外部链接)的确切机制仍有部分是推测性的,而且是基于较早的、可能已经过时的信息。
阻止抓取对链接的影响
向穆勒提出的问题是,阻止谷歌抓取一个页面是否会否定该页面上链接的链接能力。穆勒的回答是从用户的角度出发的,他认为如果一个页面无法访问,用户--进而包括搜索引擎--就无法与页面上的链接进行交互或跟踪。因此,阻止一个页面被抓取,实际上就取消了其链接的影响力,因为谷歌看不到这些链接。
基于用户的链接视角
穆勒强调以用户为中心来理解链接的影响。这种观点与旧式的、更机械的观点形成了鲜明对比,例如,有人误认为只需在特定上下文中放置关键词或链接(如从 "章鱼墨水 "页面链接到打印机墨水网站的旧式做法)就能影响排名。相反,穆勒建议从用户的角度考虑链接是否提供了价值或相关性。
这种从用户角度出发的转变符合搜索引擎优化的大趋势,即优先考虑用户体验和相关性,而不是纯粹的技术操作。
确保链接可抓取
为了确保重要页面能够被发现,Mueller 建议确保这些页面是从网站内可索引的相关页面链接过来的。阻止重要页面被抓取或索引会使搜索引擎难以发现并对其进行 排名,从而有可能破坏搜索引擎优化工作。
关于 Robots Meta 标签的误解
穆勒还强调了一个关于使用 robots 元标签的常见误解。一些网站所有者错误地使用了noindex, follow
指令,认为这样可以阻止页面被索引,同时还能让搜索引擎跟踪页面上的链接。然而,如果页面未被索引,搜索引擎就无法访问或跟踪其链接,从而使该指令失效。此外,虽然nofollow
指令可以阻止爬虫跟踪链接,但却没有相应的 "follow
"指令来强制搜索引擎跟踪链接。
结论
穆勒的见解强调了搜索引擎优化中以用户为中心的重要性,尤其是在链接处理和抓取管理方面。确保关键页面可以访问并链接到相关的、可索引的内容,对于保持网站的链接能力和整体可发现性至关重要。随着搜索引擎优化的发展,关注真正的用户价值和体验仍然是与搜索引擎算法保持一致并实现可持续结果的关键。