好的网络爬虫, 首先需要遵守Robots协议, Robots协议:也称为爬虫协议,机器人协议, 全称是”网络爬虫排除标准”, 通过Robots协议高速搜索引擎哪些页面可以抓取,哪些页面不能抓取
在网站根目录下放一个robots.txt文本文件(如 https://www.taobao.com/robots.txt),里面可以指定不同的网络爬虫能访问的页面和禁止访问的页面,指定的页面由正则表达式表示。网络爬虫在采集这个网站之前,首先获取到这个robots.txt文本文件,然后解析到其中的规则,然后根据规则来采集网站的数据。
1. Robots协议规则
注意: 一个英文要大写,冒号是英文状态下,冒号后面有一个空格,”/”代表整个网站
2. Robots协议举例
禁止所有机器人访问
User-agent: *
Disallow: /
允许所有机器人访问
User-agent: *
Disallow:
禁止特定机器人访问
User-agent: BadBot
Disallow: /
允许特定机器人访问
User-agent: GoodBot
Disallow:
禁止访问特定目录
User-agent: *
Disallow: /images/
仅允许访问特定目录
User-agent: *
Allow: /images/
Disallow: /
禁止访问特定文件
User-agent: *
Disallow: /*.html$
仅允许访问特定文件
User-agent: *
Allow: /*.html$
Disallow: /
转自: https://www.jianshu.com/p/2a1458eb3c23
最新评论