一个令人着迷的爬虫框架——Scrapy框架!

在平常的知识传播中,我经常遇到许多的小伙伴说,Python爬虫还厉害喔,我想学,或者是我已经初学了Python,但是爬虫还是没有接触,能教教我吗?看到小伙伴有如此热情,我决定来带大家探讨探讨Python爬虫!

在探讨爬虫之前,我们首先来带大家了解下 Scrapy 框架,我们先来解答三个问题:什么是 Scrapy 框架呢?它有什么作用呢?为什么需要使用它?(这个有基础的想必解答不难)

如果大家在学习Python的路上,或者打算学习Python需要学习资料,可以私信小编发送1314,小编将免费赠送大家学习资料喔!

Scrapy 是 Python 开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取 web 站点并从页面中提取结构化的数据。

Scrapy 用途广泛,可以用于数据挖掘、监测和自动化测试。

为什么需要使用它?Scrapy 是一个写好的框架,不用重复造轮子,scapy 底层是异步框架 twisted ,吞吐量高,并发是最大优势。

Scrapy 安装

我电脑上同时装了 py2 和 py3,在 py3 环境里安装 Scrapy,使用以下命令。

如果你的电脑只安装了一个 python 版本,直接使用 pip install xxx 即可。

如果上面方法安装失败的话就分下面两步骤安装:

1 首先安装 Twisted ,使用以下命令

命令安装报错的话就去对应网站选择对应版本下载 whl,我的 python3.6,系统是 64 位,所以我下载的是 Twisted?18.7.0?cp36?cp36m?win_amd64.whl。下载后使用 pip 命令安装 whl 文件。

2 安装 scrapy 框架

创建爬虫项目

创建储存 scrapy 文件夹 scrapypy3,cmd 进入到路径,用 scrapy startproject 命令新建项目。(温馨提示:代码显示不全的话向右轻轻滑动即可查看全部代码)

Scrapy 项目目录结构

新建的爬虫项目文件有以下部分组成,将整个文件在编辑器 Pycharm 中打开看得很明显,文件后面我做了中文解释。

创建项目参数

刚才用 scrapy startproject 创建了爬虫项目,创建的时候我们也可以加入一些参数,具体有哪些参数呢?我们可以在命令行通过 scrapy startproject -h查看,以下常见的命令给出了相应的中文注释。(温馨提示:代码显示不全的话向右轻轻滑动即可查看全部代码)

常用工具命令

Scrapy 中,工具命令分为两种,一种为全局命令,一种为项目命令。

全局命令

在不进入Scrapy 爬虫项目所在目录的情况下,运行 scrapy -h,在commands下会出现所有的全局命令。

项目命令

首先进入一个已经创建的 Scrapy 爬虫项目,运行 scrapy -h 显示项目中可用命令。在展示出来的命令中,包括了上面讲到的全局命令。全局命令既可以在非 Scrapy 爬虫项目文件夹中使用,同时也可以在 Scrapy 爬虫项目文件夹中使用,而 Scrapy 项目命令一般只能在 Scrapy 爬虫项目文件夹中使用。去掉全局命令,剩下的就是Scrapy项目命令。

所以,Scrapy 的项目命令主要有:bench、check、crawl、edit、genspider、list、parse。

这篇文章给大家讲了下 Scrapy 框架的安装和常用的命令,这只是初步了解,之后会在实战中使用,项目实战才是我们的最终目的。未完待续。。。

写在最后:

如果大家在学习Python的路上,或者打算学习Python需要学习资料,可以加群571799375,群里学习资料免费赠送大家学习资料喔!

本文来自网络,如有侵权,请联系小编删除!

原文地址:https://www.cnblogs.com/jiajia101/p/10238216.html

时间: 2024-10-15 00:45:42

一个令人着迷的爬虫框架——Scrapy框架!的相关文章

Python爬虫进阶(Scrapy框架爬虫)

准备工作:           配置环境问题什么的我昨天已经写了,那么今天直接安装三个库                        首先第一步:                            (我们要用到scrapy框架,在python里调用windows 命令,使用mongodb存储爬到的数据 )                                  进入DOS python/Script>路径下  输入命令: python/Script> pip install p

Python网络爬虫之Scrapy框架(CrawlSpider)

目录 Python网络爬虫之Scrapy框架(CrawlSpider) CrawlSpider使用 爬取糗事百科糗图板块的所有页码数据 Python网络爬虫之Scrapy框架(CrawlSpider) 提问:如果想要通过爬虫程序去爬取"糗百"全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法). 方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效). CrawlSpider使

网络爬虫之scrapy框架详解,scrapy框架设置代理

twisted介绍 Twisted是用Python实现的基于事件驱动的网络引擎框架,scrapy正是依赖于twisted, 它是基于事件循环的异步非阻塞网络框架,可以实现爬虫的并发. twisted是什么以及和requests的区别: request是一个python实现的可以伪造浏览器发送Http请求的模块,它封装了socket发送请求 twisted是基于时间循环的异步非阻塞的网络框架,它也封装了socket发送请求,但是他可以单线程的完成并发请求. twisted的特点是: 非阻塞:不等待

爬虫学习 16.Python网络爬虫之Scrapy框架(CrawlSpider)

爬虫学习 16.Python网络爬虫之Scrapy框架(CrawlSpider) 引入 提问:如果想要通过爬虫程序去爬取"糗百"全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法). 方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效). 今日概要 CrawlSpider简介 CrawlSpider使用 基于CrawlSpider爬虫文件的创建 链接提取器 规则解析器 今日详

python爬虫随笔-scrapy框架(1)——scrapy框架的安装和结构介绍

scrapy框架简介 Scrapy,Python开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试.(引用自:百度百科) scrapy官方网站:https://scrapy.org/ scrapy官方文档:https://doc.scrapy.org/en/latest/ scrapy框架安装 首先我们安装scrapy,使用如下命令 pip install scrapy 此时很多人应该都会遇到如

python爬虫之scrapy框架

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. Scrapy 使用了 Twisted异步网络库来处理网络通讯.整体架构大致如下 Scrapy主要包括了以下组件: 引擎

Requests爬虫和scrapy框架多线程爬虫

1.基于Requests和BeautifulSoup的单线程爬虫 1.1 BeautifulSoup用法总结 1. find,获取匹配的第一个标签 tag = soup.find('a') print(tag) tag = soup.find(name='a', attrs={'class': 'sister'}, recursive=True, text='Lacie') tag = soup.find(name='a', class_='sister', recursive=True, te

爬虫之scrapy框架

1.scrapy框架介绍 Scrapy是用纯Python实现的一个为了爬取网站数据.提取结构性数据而编写的应用框架 Scrapy 特色是使用了 Twisted异步网络框架来处理网络通讯,加快了下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活的完成各种需求 1.1 scrapy框架架构图 Scrapy Engine(引擎): 负责Spider.ItemPipeline.Downloader.Scheduler中间的通讯,信号.数据传递等. Scheduler(调度器): 它负责

18、python网路爬虫之Scrapy框架中的CrawlSpider详解

CrawlSpider的引入: 提问:如果想要通过爬虫程序去爬取"糗百"全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法). 方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效) CrawlSpider的简介: CrawlSpider其实是Spider的一个子类,除了继承到Spider的特性和功能外,还派生除了其自己独有的更加强大的特性和功能.其中最显著的功能就是"