小白学爬虫:分布式爬虫(六)

手把手教你写网络爬虫

摘要:从零开始写爬虫,初学者的速成指南!

下面是一个超级计算机的排行榜,如果我们能拥有其中任意一个,那么我们就不需要搞什么分布式系统。可是我们买不起,即使买得起,也交不起电费,所以我们只好费脑子搞分布式。

RankSystemCoresRmaxRpeakPower (kW)

1Tianhe-2China3,120,00033,862.754,902.417,808

2TitanUS560,64017,590.027,112.58,209

3SequoiaUS1,572,86417,173.220,132.77,890

4KJapan705,02410,510.011,280.412,660

5MiraUS786,4328,586.610,066.33,945

分布式的本质就如上期提到的一个概念:分布式系统是若干独立计算机的集合,这些计算机对于用户来说就像是单个相关系统。这就是在说,把廉价的计算机堆到一起,通过程序控制,使其整体用起来像个高性能计算机,目的就是节约成本。

对于分布式爬虫系统来说,假设1台机器能10天爬完一个任务,如果部署10台机器,那么1天就会完成这个任务。这样就用可以接受的成本,让系统的效率提高了十倍。之前介绍的单机架构是达不到这种效果的,是时候介绍新的架构了!

架构概述

与第二期介绍的通用爬虫架构不同,下面是一个聚焦爬虫的架构图,与前者相比,它不仅要保存网页,还要提取出网页中的指定内容。

号:923414804群里有志同道合的小伙伴,互帮互助,群里有视频学习教程和PDF!

Crawler_core  从任务队列获取爬虫任务,请求网页并将其存储到Mongodb,同时解析出网页中的URLs并缓存到Redis。最后通知Common-clean-platform抽取网页的指定字段。

Common-clean-platform 收到Crawler_core的通知后,从Mongodb中取出网页,根据配置进行数据抽取,形成结构化的数据,保存到Mongodb。

Scheduler_manager负责任务调度(如启停),状态控制(如爬取数量),redis资源清理等。

Resource_manager封装Mysql、Mongodb、Redis接口。Mysql存储任务基本信息、配置文件、任务实时状态等。Mongodb存储网页、结构化数据。Redis缓存队列、集合等数据结构。

Proxy代理服务器。建立网络爬虫的第一原则是:所有信息都可以伪造。你可以用非本人的邮箱发送邮件,或者通过命令行自动化鼠标的行为。但是有一件事情是不能作假的,那就是你的IP地址。如果你在爬取的过程中不想被人发现,或者不想IP被封杀,那么就需要使用代理。

笔者以前看过一个电影叫《Who Am I - No System Is Safe》,剧中的黑客老大“Who Am I”就用代理来隐藏自己,躲避FBI和其他黑客组织的追踪。

不过最终他还是被抓了,看来即使用了炫酷的技术,也不是绝对安全的。

如果你也想体验一下匿名访问网络,可以试试Tor代理服务器。洋葱路由(The Onion Router)网络,常用缩写为Tor,是一种IP 地址匿名手段。由网络志愿者服务器构建的洋葱路由器网络,通过不同服务器构成多个层(就像洋葱)把客户端包在最里面。数据进入网络之前会被加密,因此任何服务器都不能偷取通信数据。另外,虽然每一个服务器的入站和出站通信都可以被查到,但是要想查出通信的真正起点和终点,必须知道整个通信链路上所有服务器的入站和出站通信细节,而这基本是不可能实现的。

Tor 是人权工作者和政治避难人员与记者通信的常用手段,得到了美国政府的大力支持。当然,它经常也被用于非法活动,所以也是政府盯防的目标(虽然目前盯防得并不是很成功)。

流程控制 – 任务

Scheduler_manager定时读取Mysql中的任务信息,根据任务的周期等配置进行调度,下面是一个最基本的任务启停流程。

当一个任务可以开始时,Scheduler_manager会将其基本信息(包括task_id,种子url,启动时间等)插入Reids的任务队列中。如果任务结束,就从队列中删除。

每个Crawler_core实例定时读取Redis任务队列中的任务,插入到本地的内存任务队列中。

相同的任务可以存在于不同的Crawler_core实例中,一个Crawler_core实例中也可以有相同的任务。

Crawler_core的抓取线程从内存队列中获得可执行的任务,依次抓取和解析。

流程控制 – 数据

现在每个Crawler_core实例都有了待处理的任务,接下来就要对每个任务的url进行处理了。继续使用Redis作为公共缓存来存放URLs,多个Crawler_core实例并行存取todo集合。

Todo集合Crawler_core从集合中取出url进行处理,并将解析得到的url添加到todo集合中。

Doing集合Crawler_core从todo中取出url,都同时保存到doing中,url处理完成时被从doing中删除。主要用于恢复数据。

Parser todo队列Crawler_core将已经保存到mongodb的页面的url发送到parser todo队列,Parser读取数据后进行解析。

Filter todo队列Parser将已经保存到mongodb的解析结果的url发送到filter todo队列,Filter读取数据后进行清洗。

流程控制 – 状态

蓝色箭头业务模块实时更新任务状态到Redis,StateObserver读取到Redis状态后,更新到mysql。

红色箭头ClearObserver定时读取Mysql状态,若任务完成或中止,则清除任务所有的Redis key。

Redis中的任务信息如下表所示:

taskId:flag:crawler:info

Filedvalue说明

totalCnt10000抓取的url总数:抓取完成,不管成功失败,都加1

failCnt0抓取的url失败数:抓取失败,加1

switch1任务状态:0:停止,1:启动,2:暂停,3:暂停启动

priority1任务优先级

retryCnt0重试次数

status0任务执行状态:1:进行中,2:完成

Ref0url引用数:每消费一个url,减1;生成一个url,加1。等于0则任务完成

maxThreadCnt100任务的最大线程数

remainThreadCnt10剩余可用线程数

lastFetchTime1496404451532上一次抓取时间

taskId:flag:parser:info

Filedvalue说明

totalCnt10000解析总数:解析完成,不管成功失败,都加1

failCnt0解析失败数:解析失败,加1

crawlerStatus0爬取状态:0:进行中,2:完成

ref10url引用数:crawler每保存一个网页,加1;parser每解析完成一个网页,减1。等于0不说明任务完成。若crawlerStatus等于2,ref等于0,则任务完成。

taskId:flag:filter:info

Filedvalue说明

totalCnt10000清洗总数:清洗完成,不管成功失败,都加1

failCnt0清洗失败数:清洗失败,加1

crawlerStatus0解析状态:0:进行中,2:完成

ref10url引用数:parser每保存一条数据,加1;filter每清洗完成一条数据,减1。等于0不说明任务完成。若parserStatus等于2,ref等于0,则任务完成。

流程控制 – failover

如果一个Crawler_core的机器挂掉了,就会开始数据恢复程序,把这台机器所有未完成的任务恢复到公共缓存中。

监控到192.168.0.1心跳停止。

Master遍历正在运行的任务: task_jdjr:1489050240345等。

得到doing和todo集合:

task_jdjr:1489050240345:crawler:doing: 192.168.0.1

task_jdjr:1489050240345:crawler:todo

将doing中的数据全部移动到todo中。

下一步

今天对架构和流程进行了一个概要的介绍,细节问题以后会慢慢说。下期我们就先聊聊URL去重那些事儿。

原文地址:https://www.cnblogs.com/paisenpython/p/10308391.html

时间: 2024-10-29 19:04:40

小白学爬虫:分布式爬虫(六)的相关文章

python网络爬虫——分布式爬虫

redis分布式部署 - 概念:可以将一组程序执行在多台机器上(分布式机群),使其进行数据的分布爬取. 1.scrapy框架是否可以自己实现分布式? 其一:因为多台机器上部署的scrapy会各自拥有各自的调度器,这样就使得多台机器无法分配start_urls列表中的url.(多台机器无法共享同一个调度器) 其二:多台机器爬取到的数据无法通过同一个管道对数据进行统一的数据持久出存储.(多台机器无法共享同一个管道) 2.基于scrapy-redis组件的分布式爬虫 - scrapy-redis组件中

爬虫--Scrapy-CrawlSpider&分布式爬虫

CrawlSpider CrawlSpider: 问题:如果我们想要对某一个网站的全站数据进行爬取? 解决方案: 1. 手动请求的发送 2. CrawlSpider(推荐) 之前的事基于Spider类 CrawlSpider概念:CrawlSpider其实就是Spider的一个子类.CrawlSpider功能更加强大(链接提取器,规则解析器). 代码: 1. 创建一个基于CrawlSpider的爬虫文件 a) scrapy genspider –t crawl 爬虫名称 起始url ------

运维学python之爬虫高级篇(六)scrapy模拟登陆

上一篇介绍了如何爬取豆瓣TOP250的相关内容,今天我们来模拟登陆GitHub. 1 环境配置 语言:Python 3.6.1 IDE: Pycharm 浏览器:firefox 抓包工具:fiddler 爬虫框架:Scrapy 1.5.0 操作系统:Windows 10 家庭中文版 2 爬取前分析 分析登陆提交信息分析登陆信息我使用的是fiddler,fiddler的使用方法就不作介绍了,大家可以自行搜索,首先我们打开github的登陆页面,输入用户名密码,提交查看fiddler获取的信息,我这

小白学 Python 爬虫(42):春节去哪里玩(系列终篇)

人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Linux基础入门 小白学 Python 爬虫(4):前置准备(三)Docker基础入门 小白学 Python 爬虫(5):前置准备(四)数据库基础 小白学 Python 爬虫(6):前置准备(五)爬虫框架的安装 小白学 Python 爬虫(7):HTTP 基础 小白学 Python 爬虫(8):网页基

第三百六十四节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的mapping映射管理

第三百六十四节,Python分布式爬虫打造搜索引擎Scrapy精讲-elasticsearch(搜索引擎)的mapping映射管理 1.映射(mapping)介绍 映射:创建索引的时候,可以预先定义字段的类型以及相关属性elasticsearch会根据json源数据的基础类型猜测你想要的字段映射,将输入的数据转换成可搜索的索引项,mapping就是我们自己定义的字段数据类型,同时告诉elasticsearch如何索引数据以及是否可以被搜索 作用:会让索引建立的更加细致和完善 类型:静态映射和动态

第三百六十八节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)用Django实现搜索的自动补全功能

第三百六十八节,Python分布式爬虫打造搜索引擎Scrapy精讲-用Django实现搜索的自动补全功能 elasticsearch(搜索引擎)提供了自动补全接口 官方说明:https://www.elastic.co/guide/en/elasticsearch/reference/current/search-suggesters-completion.html 创建自动补全字段 自动补全需要用到一个字段名称为suggest类型为Completion类型的一个字段 所以我们需要用

第三百六十五节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的查询

第三百六十五节,Python分布式爬虫打造搜索引擎Scrapy精讲-elasticsearch(搜索引擎)的查询 elasticsearch(搜索引擎)的查询 elasticsearch是功能非常强大的搜索引擎,使用它的目的就是为了快速的查询到需要的数据 查询分类: 基本查询:使用elasticsearch内置的查询条件进行查询 组合查询:把多个查询条件组合在一起进行复合查询 过滤:查询同时,通过filter条件在不影响打分的情况下筛选数据

第三百六十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)基本的索引和文档CRUD操作

第三百六十二节,Python分布式爬虫打造搜索引擎Scrapy精讲-elasticsearch(搜索引擎)基本的索引和文档CRUD操作 elasticsearch(搜索引擎)基本的索引和文档CRUD操作 也就是基本的索引和文档.增.删.改.查.操作 注意:以下操作都是在kibana里操作的

第三百五十六节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapy分布式爬虫要点

第三百五十六节,Python分布式爬虫打造搜索引擎Scrapy精讲-scrapy分布式爬虫要点 1.分布式爬虫原理 2.分布式爬虫优点 3.分布式爬虫需要解决的问题