scrapy的 安装 及 流程 转

安装

linux 和 mac 直接  pip install scrapy 就行

windows 安装步骤

        a. pip3 install wheel

      b. 下载twisted http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

      c. 进入下载目录,执行 pip3 install Twisted?17.1.0?cp35?cp35m?win_amd64.whl

      d. pip3 install scrapy

      e. 下载并安装pywin32:https://sourceforge.net/projects/pywin32/files/

Scrapy

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中。
其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。

Scrapy 使用了 Twisted异步网络库来处理网络通讯。整体架构大致如下

Scrapy主要包括了以下组件:

  • 引擎(Scrapy)
    用来处理整个系统的数据流处理, 触发事务(框架核心)
  • 调度器(Scheduler)
    用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
  • 下载器(Downloader)
    用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)
  • 爬虫(Spiders)
    爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面
  • 项目管道(Pipeline)
    负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
  • 下载器中间件(Downloader Middlewares)
    位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。
  • 爬虫中间件(Spider Middlewares)
    介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。
  • 调度中间件(Scheduler Middewares)
    介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。

Scrapy运行流程大概如下:

  1. 引擎从调度器中取出一个链接(URL)用于接下来的抓取
  2. 引擎把URL封装成一个请求(Request)传给下载器
  3. 下载器把资源下载下来,并封装成应答包(Response)
  4. 爬虫解析Response
  5. 解析出实体(Item),则交给实体管道进行进一步的处理
  6. 解析出的是链接(URL),则把URL交给调度器等待抓取

1. 基本命令


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

1. scrapy startproject 项目名称

   - 在当前目录中创建中创建一个项目文件(类似于Django)

2. scrapy genspider [-t template] <name> <domain>

   - 创建爬虫应用

   如:

      scrapy gensipider -t basic oldboy oldboy.com

      scrapy gensipider -t xmlfeed autohome autohome.com.cn

   PS:

      查看所有命令:scrapy gensipider -l

      查看模板命令:scrapy gensipider -d 模板名称

3. scrapy list

   - 展示爬虫应用列表

4. scrapy crawl 爬虫应用名称

   - 运行单独爬虫应用

原文地址:https://www.cnblogs.com/wzbk/p/9775422.html

时间: 2024-08-30 09:04:54

scrapy的 安装 及 流程 转的相关文章

Scrapy框架安装与使用(基于windows系统)

“人生苦短,我用python”.最近了解到一个很好的Spider框架——Scrapy,自己就按着官方文档装了一下,出了些问题,在这里记录一下,免得忘记. Scrapy的安装是基于Twisted进行安装的,在Python3.8的环境中,并不像是网上许多教程所说的那样需要安装许多的插件,只需要安装好Twisted就够了.所以,为了确保一次安装成功,我们首先要安装Twisted. 下载Twisted网址:https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下拉找到如

python爬虫入门-Scrapy的安装

下载集成包 链接:http://pan.baidu.com/s/1pKD2zBP 密码:f75b 因为没有支持python3的Scrapy,所以这里采用python2.7.9 安装步骤:1.安装python2.7(默认安装即可) 2.打开"运行",输入cmd.执行以下命令设置环境变量 C:\Python27\python.exe C:\Python27\tools\Scripts\win_add2path.py 3.检查是否安装成功,cmd下执行 python --version 4.

Python爬虫进阶三之Scrapy框架安装配置

初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1.安装Python 安装过程我就不多说啦,我的电

scrapy 的基本运行流程 加上我的理解

第一点前提,要看了解这张图首先要知道每个不见的含义 第二就是他们之间有什么工作关系 ------引擎-------ScrapyEngine -------Scrapy引擎是用来控制整个系统的数据处理流程,并进行事务处理的触发. --------------------我的理解就是整个scrapy的 发动机,核心,心脏,大脑,CPU,中转站.......起到连接整个流程的作用,跟代码无关.其实我们主要工作的地方是spider文件夹里面的蜘蛛文件.果然写一写有助于记忆,是不是牛B了就不写了....期

在Centos上安装RabbitMQ流程(转)

在Centos上安装RabbitMQ流程------------------------ 1. 需求 由于项目中要用到消息队列,经过ActiveMQ与RabbitMQ的比较,最终选择了RabbbitMQ做为我们的消息系统,但是ActiveMQ在效率和可扩展性上都不错,只是网上很多人反应它会时常崩溃,而且随着消息并发数的增加,时常会出现连接很慢的情况.   目前我测试的服务器系统信息如下: LSB Version:    :core-3.1-amd64:core-3.1-ia32:core-3.1

Python爬虫进阶之Scrapy框架安装配置

Python爬虫进阶之Scrapy框架安装配置 初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1

Vivado2014.3安装破解流程

Vivado安装破解流程 安装 Xilinx Vivado Design Suite 安装文件,解压后得到安装目录: 运行 xsetup.exe 文件,进入安装程序.如果提示要更新就直接点 continue 关掉. 然后点击next. 对使用许可声明等选择 I Agree. 选择vivado system Edition,支持编译.综合.布局布线等操作,而且能支持软件开发. 默认选择所有器件,点击next. 左边红色方框为选择安装路径,确定好安装路径后,点击next,稍等片刻就能安装完成. 点击

Python 爬虫6——Scrapy的安装和使用

前面我们简述了使用Python自带的urllib和urllib2库完成的一下爬取网页数据的操作,但其实能完成的功能都很简单,假如要进行复制的数据匹配和高效的操作,可以引入第三方的框架,例如Scrapy便是比较常用的爬虫框架. 一.Scrapy的安装: 1.最简单的安装方式:         根据官方主页的指导:http://www.scrapy.org/ 使用pip来安装python相关插件其实都很简单,当然用这个办法安装Scrapy也是最为简单的安装方式,仅需在命令行窗口输入: pip ins

网络爬虫(蜘蛛)Scrapy,Python安装!

Scrapy,Python安装,使用! 1.下载安装Python2.7.6,因为Scrapy还不支持3.x版本.Latest Python 2 Release - Python 2.7.6,安装时选择当前用户. 2.到http://sourceforge.net/projects/pywin32/files/pywin32/Build%20219/下载安装pywin32-219.win-amd64-py2.7.exe 3.将C:\python27\Scripts;C:\python27;添加到环