的第一件事,也是我收集的其他数据集中显而易见的事情(您可能已经知道),在 4 个月的时间里,在双倍下降实验中,以及在 7 月份重复整个测试时,当网站的页面加载速度较快(平均)时,Google 会更深入、更彻底地抓取更多网页。这 4 个月内 Googlebot 的访问量几乎与我的 google 网站管理员网站性能页面中显示的图表同步,当平均页面加载时间较短时,Googlebot 访问的频率更高,抓取的深度也更深。 在 5 月初,当网站平均加载页面时间为 15 秒时,它出现的时间不到 10%,而 4 月和 6 月的页面加载时间平均不到 2 秒。
5 月有咖啡因等,但 4 个月内,经过双重检查和 律师电话号码数据 重复测试,结果始终相同。Googlebot 确实对网站性能做出了反应(稍后将对此进行更多介绍)。 理论上,从我收集的数据中,我开始知道谷歌算法在什么速度下开始惩罚我的网站,以及在什么速度下算法开始因为这个排名因素而奖励它。惩罚和奖励的意思是爬行更多、索引速度更快、索引更多页面等,或者相反。这只是 200 个排名因素中的一个,我意识到拥有域名权限和优质内容等也会影响谷歌机器人的访问率和页面索引……但在 4 个月的测试中唯一改变的变量是设计内容,即删除了 KB 大小非常高的图像并用中等或低 KB 大小的相同图像替换 - 大多数页面都这样做了(每次花费数小时)。
定期添加新页面,包含我编写的同样优秀的原创内容 - 目标受众、网站原理等从未改变。在这方面,我使用了 Pingdom 工具来帮助我度过 4 个月,因为它还保存了我使用它们运行的每个测试的历史记录,并且 Pingdom 的结果始终告诉我与 Google 相同的页面加载时间(正负 10%)和页面上每个组件的大小,这有助于删除和添加组件。 注意: 我在下面的评论中使用了“可能”这个词,因为我不想让它们看起来不值得思考。由于世界各地的基础设施和发展水平各不相同,因此很难正确掌握全球(平均)网站速度和性能的问题和问题;但是,我读过的一份早期报告(我同意)说:“网站性能确实有一个显著的优势:全球数据。