小白学爬虫:Scrapy入门(四)

摘要:从零开始写爬虫,初学者的速成指南!

上期我们理性的分析了为什么要学习Scrapy,理由只有一个,那就是免费,一分钱都不用花!

号:923414804群里有志同道合的小伙伴,互帮互助,群里有不错的视频学习教程和PDF!

咦?怎么有人扔西红柿?好吧,我承认电视看多了。不过今天是没得看了,为了赶稿,又是一个不眠夜。。。言归正传,我们将在这一期介绍完Scrapy的基础知识, 如果想深入研究,大家可以参考官方文档,那可是出了名的全面,我就不占用公众号的篇幅了。

架构简介

下面是Scrapy的架构,包括组件以及在系统中发生的数据流的概览(红色箭头所示)。 之后会对每个组件做简单介绍,数据流也会做一个简要描述。

组件

Engine: 引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。

Scheduler: 调度器从引擎接受Request并将他们入队,以便之后引擎请求他们时提供给引擎。

Downloader: 下载器负责获取页面数据并提供给引擎,而后提供给Spider。

Spiders: Spider是Scrapy用户编写的用于分析Response并提取Item或提取更多需要下载的URL的类。 每个Spider负责处理特定网站。

Item Pipeline: 负责处理被Spider提取出来的Item。典型的功能有清洗、 验证及持久化操作。

Downloader middlewares: 下载器中间件是在Engine及Downloader之间的特定钩子(specific hooks),处理Downloader传递给Engine的Response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

Spider middlewares: 是在Engine及Spider之间的特定钩子(specific hook),处理Spider的输入(Response)和输出(Items及Requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

数据流

Scrapy中的数据流由执行引擎控制,其过程如下:

Engine从Spider获取第一个需要爬取URL(s)。

Engine用Scheduler调度Requests,并向Scheduler请求下一个要爬取的URL。

Scheduler返回下一个要爬取的URL给Engine。

Engine将URL通过Downloader middlewares转发给Downloader。

一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过Downloader middlewares发送给Engine。

引擎从Downloader中接收到Response并通过Spider middlewares发送给Spider处理。

Spider处理Response并返回爬取到的Item及新的Request给Engine。

Engine将爬取到的Item给Item Pipeline,然后将Request给Scheduler。

从第一步开始重复这个流程,直到Scheduler中没有更多的URLs。

架构就是这样,流程和我第二篇里介绍的迷你架构差不多,但扩展性非常强大。

One more thing

Scrapy基于事件驱动网络框架 Twisted 编写,Twisted是一个异步非阻塞框架。一说到网络通信框架就会提什么同步、异步、阻塞和非阻塞,到底是些啥玩意啊?为啥老是有人暗示或者明示异步=非阻塞?比如Scrapy文档里:Scrapy is written with Twisted, a popular event-driven networking framework for Python. Thus, it’s implemented using a non-blocking (aka asynchronous) code for concurrency. 这种说法对吗?举个栗子:

出场人物:老张,水壶两把(普通水壶,简称水壶;会响的水壶,简称响水壶)

1. 老张把水壶放到火上,立等水开。(同步阻塞)

  老张觉得自己有点傻。

2. 老张把水壶放到火上,去客厅看电视,时不时去厨房看看水开没有。(同步非阻塞)

  老张还是觉得自己有点傻,于是变高端了,买了把会响笛的那种水壶。水开之后,能大声发出嘀~~~~的噪音。

3. 老张把响水壶放到火上,立等水开。(异步阻塞)

  老张觉得这样傻等意义不大。

4. 老张把响水壶放到火上,去客厅看电视,水壶响之前不再去看它了,响了再去拿壶。(异步非阻塞)

  老张觉得自己聪明了。

所谓同步异步,只是对于水壶而言。普通水壶,同步;响水壶,异步。虽然都能干活,但响水壶可以在自己完工之后,提示老张水开了。这是普通水壶所不能及的。同步只能让调用者去轮询自己(情况2中),造成老张效率的低下。

所谓阻塞非阻塞,仅仅对于老张而言。立等的老张,阻塞;看电视的老张,非阻塞。情况1和情况3中老张就是阻塞的,媳妇喊他都不知道。虽然3中响水壶是异步的,可对于立等的老张没有太大的意义。所以一般异步是配合非阻塞使用的,这样才能发挥异步的效用。

入门教程

创建项目

在开始爬取之前,您必须创建一个新的Scrapy项目。 进入您打算存储代码的目录中,运行下列命令:

scrapy startproject tutorial

该命令将会创建包含下列内容的 tutorial 目录:

tutorial/    scrapy.cfg            # 项目的配置文件

tutorial/            # 该项目的python模块。之后您将在此加入代码

__init__.py

items.py          # 项目中的item文件

pipelines.py      # 项目中的pipelines文件

settings.py      # 项目的设置文件

spiders/          # 放置spider代码的目录

__init__.py

编写第一个爬虫

Spider是用户编写用于从单个网站(或者一些网站)爬取数据的类。其包含了一个用于下载的初始URL,以及如何跟进网页中的链接以及如何分析页面中的内容的方法。

以下为我们的第一个Spider代码,保存在 tutorial/spiders 目录下的 quotes_spider.py文件中:

import scrapyclass QuotesSpider(scrapy.Spider):

name ="quotes"def start_requests(self):

urls = [

‘http://quotes.toscrape.com/page/1/‘,

‘http://quotes.toscrape.com/page/2/‘,

]

forurlin urls:

yieldscrapy.Request(url=url, callback=self.parse)

def parse(self, response):

page = response.url.split("/")[-2]

filename =‘quotes-%s.html‘% page

with open(filename, ‘wb‘) as f:

f.write(response.body)

self.log(‘Saved file %s‘% filename)

为了创建一个Spider,你必须继承 scrapy.Spider 类, 且定义以下三个属性:

name: 用于区别Spider。 该名字必须是唯一的,您不可以为不同的Spider设定相同的名字。

start_urls: 包含了Spider在启动时进行爬取的url列表。 因此,第一个被获取到的页面将是其中之一。 后续的URL则从初始的URL获取到的数据中提取。

parse() 是spider的一个方法。 被调用时,每个初始URL完成下载后生成的Response 对象将会作为唯一的参数传递给该函数。 该方法负责解析返回的数据(response data),提取数据以及生成需要进一步处理的URL的 Request 对象。

运行我们的爬虫

进入项目的根目录,执行下列命令启动spider:

scrapy crawl quotes

这个命令启动用于爬取 quotes.toscrape.com 的spider,你将得到类似的输出:

2017-05-1020:36:17 [scrapy.core.engine] INFO: Spider opened2017-05-1020:36:17[scrapy.extensions.logstats] INFO: Crawled0pages (at0pages/min), scraped0items (at0items/min)2017-05-1020:36:17[scrapy.extensions.telnet] DEBUG: Telnet console listening on127.0.0.1:60232017-05-1020:36:17[scrapy.core.engine] DEBUG: Crawled (404)

提取数据

我们之前只是保存了HTML页面,并没有提取数据。现在升级一下代码,把提取功能加进去。至于如何使用浏览器的开发者模式分析网页,之前已经介绍过了。

import scrapyclass QuotesSpider(scrapy.Spider):

name ="quotes"    start_urls = [

‘http://quotes.toscrape.com/page/1/‘,

‘http://quotes.toscrape.com/page/2/‘,

]

def parse(self, response):

forquoteinresponse.css(‘div.quote‘):

yield {

‘text‘: quote.css(‘span.text::text‘).extract_first(),

‘author‘: quote.css(‘small.author::text‘).extract_first(),

‘tags‘: quote.css(‘div.tags a.tag::text‘).extract(),

}

再次运行这个爬虫,你将在日志里看到被提取出的数据:

2017-05-1020:38:33[scrapy.core.scraper] DEBUG: Scraped from <200http://quotes.toscrape.com/page/1/>{‘tags‘: [‘life‘,‘love‘],‘author‘:‘André Gide‘,‘text‘:‘“It is better to be hated for what you are than to be loved for what you are not.”‘}2017-05-1020:38:33[scrapy.core.scraper] DEBUG: Scraped from <200http://quotes.toscrape.com/page/1/>{‘tags‘: [‘edison‘,‘failure‘,‘inspirational‘,‘paraphrased‘],‘author‘:‘Thomas A. Edison‘,‘text‘:"“I have not failed. I‘ve just found 10,000 ways that won‘t work.”"}

保存爬取的数据

最简单存储爬取的数据的方式是使用 Feed exports:

scrapy crawl quotes -o quotes.json

该命令将采用 JSON 格式对爬取的数据进行序列化,生成quotes.json文件。

在类似本篇教程里这样小规模的项目中,这种存储方式已经足够。如果需要对爬取到的item做更多更为复杂的操作,你可以编写 Item Pipeline,tutorial/pipelines.py在最开始的时候已经自动创建了。

下一步

系列写到这里,组里对下一步的计划产生了分歧,本人的意思是系列已经接近尾声了,可领导的意思是,连载可以正式开始了! What? 这不能忍啊!所以我立即做了一个艰难的决定,连载正式开始!详情下回分解,再见!

原文地址:https://www.cnblogs.com/paisenpython/p/10308379.html

时间: 2024-08-04 12:59:49

小白学爬虫:Scrapy入门(四)的相关文章

网页爬虫--scrapy入门

本篇从实际出发,展示如何用网页爬虫.并介绍一个流行的爬虫框架~ 1. 网页爬虫的过程 所谓网页爬虫,就是模拟浏览器的行为访问网站,从而获得网页信息的程序.正因为是程序,所以获得网页的速度可以轻易超过单身多年的手速:).通常适用于需要大量网页信息的场合. 爬取网页的流程为:访问初始url -> 获得返回的网页,从这个网页中得到新的url并放入待爬队列 -> 访问新的url-> ...依次循环.整体上来看就是一个广度优先的过程,当然,新的url也不一定非要从返回的网页中获得. 一个简单的网页

python之路 -- 爬虫 -- Scrapy入门

Scrapy Scrapy 是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. 下面是Scrapy的架构,包括组件以及在系统中发生的数据流的概览(绿色箭头所示).  数据流 Scra

爬虫——scrapy入门

scrapy 安装scrapy pip install scrapy windows可能安装失败,需要先安装c++库或twisted,pip install twisted 创建项目 scrapy startproject tutorial 该命令将会创建包含下列内容的 tutorial 目录: tutorial/ scrapy.cfg tutorial/ __init__.py items.py pipelines.py settings.py spiders/ __init__.py ...

小白学爬虫:迷你爬虫架构(二)

摘要:从零开始写爬虫,初学者的速成指南! 介绍 大家好!回顾上一期,我们在介绍了爬虫的基本概念之后,就利用各种工具横冲直撞的完成了一个小爬虫,目的就是猛.糙.快,方便初学者上手,建立信心.对于有一定基础的读者,请不要着急,以后我们会学习主流的开源框架,打造出一个强大专业的爬虫系统!不过在此之前,要继续打好基础,本期我们先介绍爬虫的种类,然后选取最典型的通用网络爬虫,为其设计一个迷你框架.有了自己对框架的思考后,再学习复杂的开源框架就有头绪了. 今天我们会把更多的时间用在思考上,而不是一根筋的co

小白学爬虫:开源爬虫框架对比(三)

摘要:从零开始写爬虫,初学者的速成指南! 介绍 大家好!我们从今天开始学习开源爬虫框架Scrapy,如果你看过<手把手>系列的前两篇,那么今天的内容就非常容易理解了.细心的读者也许会有疑问,为什么不学出身名门的Apache顶级项目Nutch,或者人气飙升的国内大神开发的Pyspider等框架呢?原因很简单,我们来看一下主流爬虫框架在GitHub上的活跃度: ProjectLanguageStarWatchFork NutchJava1111195808 webmagicJava42166182

小白学爬虫:网易云音乐歌单(一)

从零开始写爬虫,初学者的速成指南! 介绍 什么是爬虫? 先看看百度百科的定义: 号:923414804群里有志同道合的小伙伴,互帮互助,群里有不错的视频学习教程和PDF! 简单的说网络爬虫(Web crawler)也叫做网络铲(Web scraper).网络蜘蛛(Web spider),其行为一般是先"爬"到对应的网页上,再把需要的信息"铲"下来. 为什么学习爬虫? 看到这里,有人就要问了:google.百度等搜索引擎已经帮我们抓取了互联网上的大部分信息了,为什么还

小白学爬虫:PhantomJS实战(五)

摘要:从零开始写爬虫,初学者的速成指南! 大家好!从今天开始,我要与大家一起打造一个属于我们自己的分布式爬虫平台,同时也会对涉及到的技术进行详细介绍.大家如果有什么好的想法请多留言,多提意见,一起来完善我们的爬虫平台.在正式介绍平台之前,先用一些篇幅对基础篇做一点补充. 模拟滚动 这次的目标是爬一个众筹网站的所有项目,项目列表页如下:https://www.kaistart.com/project/more.html.打开后进行分析,页面显示出10个项目: 号:923414804群里有志同道合的

小白学爬虫:分布式爬虫(六)

手把手教你写网络爬虫 摘要:从零开始写爬虫,初学者的速成指南! 下面是一个超级计算机的排行榜,如果我们能拥有其中任意一个,那么我们就不需要搞什么分布式系统.可是我们买不起,即使买得起,也交不起电费,所以我们只好费脑子搞分布式. RankSystemCoresRmaxRpeakPower (kW) 1Tianhe-2China3,120,00033,862.754,902.417,808 2TitanUS560,64017,590.027,112.58,209 3SequoiaUS1,572,86

小白学爬虫——第一部分:简单学习Python

学习目录定义新函数文件读写数组字符串字典定义新函数创一个小群,供大家学习交流聊天如果有对学python方面有什么疑惑问题的,或者有什么想说的想聊的大家可以一起交流学习一起进步呀.也希望大家对学python能够持之以恒python爱好群,如果你想要学好python最好加入一个组织,这样大家学习的话就比较方便,还能够共同交流和分享资料,给你推荐一个学习的组织:快乐学习python组织 可以点击组织二字,可以直达通过定义函数名和一组语句序列来定义一个新函数,然后在执行时调用这个函数.一旦定义了一个函数