根据定义重新定位和调整内容的大小,但是某些实现可能会减少内容组件以使查看上下文正常工作。 如果网站通过更改显示的内容来响应屏幕分辨率,并且显示的内容超出了 Googlebot 呈现的分辨率,那么他们如何将其与伪装区分开来? 类似地,304 响应代码是向客户端指示自上次访问后内容没有被修改的方式;因此,没有理由再次下载它。 Googlebot 遵守此响应代码以防止占用带宽。那么,如何阻止网站管理员获取某个版本的页面索引、更改它,然后返回 304 呢? 我不知道目前这些问题是否有明确的答案。但是,根据我在野外看到的情况,这些已被证明是仍然致力于测试和学习的技术 SEO 的机会。 爬行 内容的可访问性作为 SEO 必须检查的基本组成部分并没有改变。改变的是需要投入其中的分析工作类型。
这些图表告诉我什么,究竟是什么?太好了,感谢 Google,您在 2 月的某个时候抓取了很多页面。凉爽的! 有许多日志文件分析工具,从 ELK 堆栈中的 Kibana 到其他工具,例如 Logz.io。然而,随着最近发布的Log File Analyzer,Screaming Frog 团队在 客户名单 这个领域取得了长足的进步。 这个工具值得注意的是它处理数百万条记录是多么容易,我希望这也是他们的 Spider 工具附带的东西的一个迹象。不管是谁制作了这个工具,它帮助你解锁的洞察力对于实际发生的事情来说都是非常有价值的。 去年我们有一个客户坚持认为他们在有机方面的损失不是企鹅更新的结果。
他们认为这可能是由于关闭了其他可能导致搜索量增加的传统和数字活动,或者可能是季节性或其他一些因素。提取日志文件,我能够将他们所有活动运行时的所有数据分层,并表明它不是这些东西;相反,Googlebot 的活动在 Penguin 更新后立即大幅下降,同时其自然搜索流量也随之下降。日志文件使它非常明显。 它遵循传统上持有的 SEO 智慧,即 Googlebot 基于具有最高质量和/或指向它们的链接数量的页面进行爬网。