谷歌SEO – 2019年需要注意些什么?

2019年快过去四分之三。谷歌在今年进行了多次重要更新,对于SEO来说有哪些注意点?极诣本文将略作总结。
抓取和索引
谷歌抓取渲染和索引的能力随着其WRS版本与Chomium同步有了质的飞跃。其方式也从两波索引(Two-wave Index)变为了更高效的近乎同步的方式。

在这个Processing的过程中,HTML与渲染后的页面进行比较。请注意这虽然极大地增强了谷歌爬虫获取由JavaScript生成的内容的能力,爬虫依旧无法进行人类的一些行为,比如点击、翻页、滚动。因此依赖这些行为载入的内容依旧对搜索引擎不可见。
GSC(Google Search Console)更新
9月9日,谷歌正式告别旧的Google Search Console。大部分的新功能都被整合到了新版本中。对于那些还未完全整合的部分功能,你可以在左侧的“旧版工具和报告”菜单中找到。
这里值得注意的是现在验证新的站点可以更加方便。

不管是HTTP还是HTTPS,不管是哪个子域名你都可以通过验证DNS来一揽子验证。这为一些使用子域名部署多网站的网站管理员提供了许多便利。这一功能经过一段时间的测试已经向所有站长开放。
robots.txt更新
谷歌在7月,与robots.txt之父Martijn Koster一道重写编写了robots.txt规范,把许多之前模棱两可的规则确定了下来。新标准见:(https://www.ietf.org/standards/)。其中包括了一些重要更新:
- 作用不仅限于http,也作用于ftp协议等其他协议。
- robots.txt单一文件大小上限为500KB。
- 爬虫要最多给服务器24小时的缓存时间避免过多请求robots.txt。
- 如果robots.txt由于一些原因访问不到,之前版本规定的不可爬行的地址将在很长一段时间依旧禁止爬取。

笔者在TechnicalSEO.com的一篇新文章中也指出了robots.txt中一些陷阱,连谷歌也没有说清楚。比如:disallow: /folder/ 和disallow: /folder/* 有什么区别,为什么不一样?再如对/page.html来说,allow: /page*和disallow: /*html会不会把它禁封?如果你是高级SEO,感兴趣的话推荐阅读。
rel = “ugc”和rel = “sponsored”
上周谷歌又官方宣布了引入两个新的链接属性来补充诞生15年之久的rel = “nofollow”。

此举是为了谷歌更好地理解哪些链接被nofollow是因为是用户产生的链接(有操纵外链嫌疑),哪些是赞助或广告产生的链接。
谷歌并不建议站长更新自己的nofollow链接。说不定就像分页指引那样,一旦谷歌机器学习到一定程度就不再使用。
最后要注意的是,nofollow指引并不能阻止页面被发现或者被索引,甚至它还有可能被用作排名的“提示”。
Lazy Load,E-A-T,总结
极诣在之前的文章介绍了图片原生懒加载在Chrome 76中实装,现在Chrome已经到了77。谷歌也为WordPress做了一个Native Lazyload的插件,可惜该插件用了一个占位图片。对像百度那样的其他搜索引擎没用,不推荐安装。
谷歌官方对网页内容质量的评分维度是EAT,即Expertise,Authoritativeness和Trustworthiness。在文章的最后,请关注谷歌9月5日更新的《搜索质量评分指南》,SERoundtable可以下载完整的pdf版本。