2.1 网络爬虫引发的问题
图 网络爬虫的尺寸
网络爬虫的限制
来源审查:判断User-Agent进行限制
- 检查来访HTTP协议头的User-Agent域,只响应浏览器或者友好爬虫的访问。
发布公告:Robots协议
- 告知所有爬虫网站的爬取策略,要求爬虫遵守
2.2 Robots协议
Robots Exclusion Standard 网络爬虫排除标准
作用:网站告知网络爬虫哪些页面可以抓取,哪些不行。
形式:在网站根目录下的robots.txt文件。
例子:京东的Robots协议
User-agent: * Disallow: /?* Disallow: /pop/*.html Disallow: /pinpai/*.html?* User-agent: EtaoSpider Disallow: / User-agent: HuihuiSpider Disallow: / User-agent: GwdangSpider Disallow: / User-agent: WochachaSpider Disallow: /
http://www.baidu.com/robots.txt
http://www.sina.com.cn/robots.txt
http://news.sina.com.cn/robots.txt
http://www.sdju.edu.cn/robots.txt(无robots协议)
Robots协议的使用
网络爬虫:自动或人工识别robots.txt,再进行内容爬取。
约束性:Robots协议是建议但非约束性,网络爬虫可以不遵守,但存在法律风险。
原文地址:https://www.cnblogs.com/cripplepx/p/12181414.html
时间: 2024-10-09 04:13:21