一站式电子商务网络营销机构!
NEWS
新闻观点
首页 > 新闻观点 > 观点/分享 > 网站优化中应对蜘蛛抓取基本策略

网站优化中应对蜘蛛抓取基本策略

标签: | 作者:众腾网络 | VISITORS:636 | 来源:www.zt-web.com
06
MAY
2022

  在网站优化中蜘蛛实际抓取网页的过程中,因为网页内容的复杂性(文本、Flash、 视频等)和技术实现的多样性(纯静态、动态加载等),为了更高效地利用蛛蛛资源,搜索引擎公司会置顶不同的抓取策略,作为SEO人员,可以参考搜素引擎公司对抓取策略的描述,采用最大化的SEO方法。

  作为国内最大的搜索引擎公司,百度在它的官方文档中是如下这样描述抓取策略的。

  互联网资源具有庞大的数量级,这就要求抓取系统尽可能高效地利用带宽,在有限的硬件和带宽资源下尽可能多地抓取到有价值的资源。这就造成了另一个问题,耗费被抓取网站的带宽造成访问压力,如果程度过大,将直接影响被抓取网站的正常用户访问行为。因此,在抓取过程中要进行一定的抓取压力控制,实现既不影响网站的正常用户访问,又能尽量多地抓取到有价值资源的目标。

  通常情况下,采用的最基本的方法是基于IP的压力控制。这是因为如果基于城名,可能存在一个域名对多个IP (很多大网站)或多个城名对应同一个IP (小网站共享IP )的问题。实际工作中,往往根据IP及域名的多种条件进行压力控制。同时,站长平台也推出了压力反馈工具,站长可以人工调配对自己网站的抓取压力,这时Baiduspider将优先按照站长的要求进行抓取压力控制。

  对同一个站点的抓取速度控制一般分为两类:其一 ,一段时间内的抓取频率;其二,一段时间内的抓取流量。同一站点不同的时间抓取速度也会不同,例如,夜深人静的时候抓取的可能就会快一些。 也视具体站点类型而定,主要思想是错开正常用户访问高峰,不断地调整。对于不同站点,也需要不同的抓取速度。

  上面的描述很简洁,但是从这个描述里面,我们可以得到启发,蜘蛛抓取页面是有压力控制的,对于特别大型的网站来说,不可能指望蜘蛛爬行到一个网站后,会一次性抓取到所有的网站,因此,作为SEO人员来说,尽量减少蜘蛛的压力,对网站的网页收录是有好处的。一般来说,减轻蜘蛛压力有以下两种方法。

  方法一:采用Nofollow (反垃圾链接的标签)的策略,将蜘蛛引导到最有价值的页面。Nofollow标签用来告诉蜘蛛,如果遇到带着此标签的页面或者链接,就不要继续追踪了,这样蜘蛛就可以爬行到其他更加有用的页面。

  方法二:在Sitetap中定义不同页面的权重和更新频率,就是在网站的Sitemap文件中,定义好每个链接的权重和更新的频率,这样,蜘蛛在爬行到这些链接和页面的时候,会识别哪些页面比较重要, 可以重点抓取,哪些页面更新比较频繁,需要蜘蛛分配更多的注意力。

  




转载声明:本文由桂林众腾网络原创文章
转载请注明来源: http://zt-web.com/shows.php?id=1089
相关新闻
首页 | 关于我们 |公司服务 | 经典案例 |新闻观点 | 服务客户 | 联系我们