加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > C语言 > 正文

通过robots.txt限制搜索引擎抓取压力和速度

发布时间:2020-12-15 03:08:06 所属栏目:C语言 来源:网络整理
导读:大家都知道谷歌站长管理员工具提供了搜索引擎抓取压力管理工具,站长可以在后台自行调整抓取速度,现在百度站长平台也提供了这款工具,但是有的同学还是想通过robots.txt来控制,那么如何实现?请看权威人士的写法: User-agent:Baiduspider Visit-time:0855

大家都知道谷歌站长管理员工具提供了搜索引擎抓取压力管理工具,站长可以在后台自行调整抓取速度,现在百度站长平台也提供了这款工具,但是有的同学还是想通过robots.txt来控制,那么如何实现?请看权威人士的写法:

User-agent:Baiduspider
  Visit-time:0855-1700
说明:指定每天允许百度蜘蛛采集的时间段,格式为mmss-mmss,例如0855-1700

User-agent:Baiduspider
  Request-rate:1/5 0900-1045
说明:限制百度蜘蛛在允许的时间段内(0900-1045)隔多少秒采集一次网页,例如1/5 0900-1045。

User-agent:Baiduspider
  Crawl-delay:3600
说明:限制百度蜘蛛两次抓取的间隔时间,单位为秒。建议在蜘蛛的抓取频率过高时,可以制定蜘蛛抓取时间间隔,来降低服务器的负担,减少流量的不必要流失。

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读