百度蜘蛛会给不同网站不同的抓取配额吗?

2020-10-11

一月份时,Google新的SEO代言人Gary Illyes在Google官方博客上发了一篇帖子:What Crawl Budget Means for Googlebot,评论了查找引擎蜘蛛抓取份额相关问题。对大中型网站来说,这是个较为重要的SEO问题,有时分会成为网站天然流量的瓶颈。

今天的帖子总结一下Gary Illyes帖子里的以及后续跟进的很多博客、论坛帖子的主要内容,以及我自己的一些案例和了解。

强调一下,以下这些概念对百度相同适用。

什么是查找引擎蜘蛛抓取份额?

望文生义,抓取份额是查找引擎蜘蛛花在一个网站上的抓取页面的总的时间上限。关于特定网站,查找引擎蜘蛛花在这个网站上的总时间是相对固定的,不会无限制地抓取网站所有页面。

抓取份额的英文Google用的是crawl budget,直译是爬行预算,我觉得不太能说明是什么意思,所以用抓取份额表达这个概念。

抓取份额是由什么抉择的呢?这牵扯到抓取需求和抓取速度限制。

抓取需求,crawl demand,指的是查找引擎“想”抓取特定网站多少页面。

抉择抓取需求的主要有两个因素。一是页面权重,网站上有多少页面达到了根本页面权重,查找引擎就想抓取多少页面。二是索引库里页面是否太久没更新了。说究竟仍是页面权重,权重高的页面就不会太久不更新。

页面权重和网站权重又是互相关注的,提高网站权重,就能使查找引擎情愿多抓取页面。

抓取速度限制

查找引擎蜘蛛不会为了抓取更多页面,把人家网站效劳器拖垮,所以对某个网站都会设定一个抓取速度的上限,crawl rate limit,也就是效劳器能接受的上限,在这个速度限制内,蜘蛛抓取不会拖慢效劳器、影响用户拜访。

效劳器反响速度够快,这个速度限制就上调一点,抓取加速,效劳器反响速度下降,速度限制跟着下降,抓取减慢,甚至停止抓取。

所以,抓取速度限制是查找引擎“能”抓取的页面数。

抓取份额是由什么抉择的?

抓取份额是考虑抓取需求和抓取速度限制两者之后的成果,也就是查找引擎“想”抓,同时又“能”抓的页面数。

网站权重高,页面内容质量高,页面够多,效劳器速度够快,抓取份额就大。

小网站没必要忧虑抓取份额

小网站页面数少,即使网站权重再低,效劳器再慢,每天查找引擎蜘蛛抓取的再少,通常至少也能抓个几百页,十几天怎么也全站抓取一遍了,所以几千个页面的网站底子不用忧虑抓取份额的事。数万个页面的网站一般也不是什么大事。每天几百个拜访要是能拖慢效劳器,SEO就不是主要需要考虑的事了。

大中型网站可能需要考虑抓取份额

几十万页以上的大中型网站,可能要考虑抓取份额够不行的问题。

抓取份额不行,比如网站有1千万页面,查找引擎每天只能抓几万个页面,那么把网站抓一遍可能需要几个月,甚至一年,也可能意味着一些重要页面没方法被抓取,所以也就没排名,或者重要页面不能及时被更新。

要想网站页面被及时、充沛抓取,首要要保证效劳器够快,页面够小。假如网站有海量高质量数据,抓取份额将受限于抓取速度,提高页面速度直接提高抓取速度限制,因而提高抓取份额。

百度站长平台和Google Search Console都有抓取数据。如下图某网站百度抓取频次:

上图是SEO每天一贴这种级其他小网站,页面抓取频次和抓取时间(取决于效劳器速度和页面巨细)没有什么大关系,说明没有用完抓取份额,不用忧虑。

有的时分,抓取频次和抓取时间是有某种对应关系的,如下图另一个大些的网站:

可以看到,抓取时间改善(减小页面尺寸、提高效劳器速度、优化数据库),显着导致抓取频次上升,使更多页面被抓取收录,遍历一遍网站更快速。

Google Search Console里更大点站的例子:

大型网站抓取份额

最上面的是抓取页面数,中心的是抓取数据量,除非效劳器犯错,这两个应该是对应的。最下面的是页面抓取时间。可以看到,页面下载速度够快,每天抓取上百万页是没有问题的。

当然,像前面说的,能抓上百万页是一方面,查找引擎想不想抓是另一方面。

大型网站另一个经常需要考虑抓取份额的原因是,不要把有限的抓取份额糟蹋在无意义的页面抓取上,导致应该被抓取的重要页面却没有时机被抓取。

糟蹋抓取份额的典型页面有:

很多过滤筛选页面。这一点,几年前关于无效URL爬行索引的帖子里有详细评论。
站内复制内容
低质、废物内容
日历之类的无限个页面
上面这些页面被很多抓取,可能用完抓取份额,该抓的页面却没抓。

怎样节省抓取份额?

当然首要是降低页面文件巨细,提高效劳器速度,优化数据库,降低抓取时间。

然后,尽量防止上面列出的糟蹋抓取份额的东西。有的是内容质量问题,有的是网站结构问题,假如是结构问题,最简略的方法是robots文件禁止抓取,但多少会糟蹋些页面权重,因为权重只进不出。

某些状况下使用链接nofollow属性可以节省抓取份额。小网站,因为抓取份额用不完,加nofollow是没有意义的。大网站,nofollow是可以在一定程度上控制权重流动和分配的,精心设计的nofollow会使无意义页面权重降低,提高重要页面权重。查找引擎抓取时会使用一个URL抓取列表,里边待抓URL是按页面权重排序的,重要页面权重提高,会先被抓取,无意义页面权重可能低到查找引擎不想抓取。

终究几个说明:

链接加不会糟蹋抓取份额。但在Google是会糟蹋权重的。
noindex标签不能节省抓取份额。查找引擎要知道页面上有noindex标签,就得先抓取这个页面,所以并不节省抓取份额。
canonical标签有时分能节省一点抓取份额。和noindex标签一样,查找引擎要知道页面上有,就得先抓取这个页面,所以并不直接节省抓取份额。但有canonical标签的页面被抓取频率经常会降低,所以会节省一点抓取份额。
抓取速度和抓取份额不是排名因素。但没被抓取的页面也谈不上排名。

原文:《》

来历:本文由原创撰写,欢迎分享本文,转载请保留出处和链接!
是一家从事SMT设备的代理,设计、出售及效劳的设备商,深圳三本建立的宗旨是为用户提供先进的设备和技能,既合乎用户现在出产需要且兼顾将来科技开展。此外,本司对用户提供的完善技能支撑,亦是本司成功的重点。


扫描二维码分享到微信

在线咨询
联系电话

400-888-8866