Python爬虫Scrapy框架入门(0)

想学习爬虫,又想了解python语言,有个python高手推荐我看看scrapy。

scrapy是一个python爬虫框架,据说很灵活,网上介绍该框架的信息很多,此处不再赘述。专心记录我自己遇到的问题以及解决方案吧。

给几个链接吧,我是根据这几个东西来尝试学习的:

scrapy中文文档(0.24版,我学习的时候scrapy已经1.1了,也许有些过时):

  http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/overview.html

大神的博客介绍:

  入门实例:http://www.cnblogs.com/txw1958/archive/2012/07/16/scrapy-tutorial.html

  安装:http://www.cnblogs.com/txw1958/archive/2012/07/12/scrapy_installation_introduce.html

scrapy官网(甭指望在这上面下载,反正我没在这上面下载scrapy):

  http://scrapy.org/

不建议在官方网站上下载!!!

为什么不建议在官网上下载(我也确实没找到官网上下载当前版本scrapy的whl地址,可能可以下载之前版本),因为scrapy需要依赖很多东西。根据大神的博客,如果你手动下载,至少要安装这几个依赖包:

  1. python——基本语言平台
  2. Twisted——事件驱动的网络引擎
  3. w3lib、libxml2——某个库文件
  4. pyOpenSSL——SSL协议,用于远程控制之类,我猜可能和分布式爬虫有关吧

然后才是安装scrapy。很麻烦啊。所以推荐直接用pip安装(scrapy官方也是推荐pip安装)。本机pip完成安装后,只需要在命令行输入:

    pip install scrapy

一条命令就OK了。简单方便。但是pip安装本身还会遇到很多问题,另开文章阐述

至此scrapy安装完成。反正身为python和scrapy双重小白的我,在搭建环境的时候就遇到了许多麻烦。本着学习和记录的态度,我会把遇到的困难、解决方案一一记录下来。文章以后也会慢慢更改。如果真的有人看这篇博文,请轻点喷,谢谢~╮(╯▽╰)╭

时间: 2024-10-18 21:03:31

Python爬虫Scrapy框架入门(0)的相关文章

Python爬虫Scrapy框架入门(2)

本文是跟着大神博客,尝试从网站上爬一堆东西,一堆你懂得的东西 附上原创链接: http://www.cnblogs.com/qiyeboy/p/5428240.html 基本思路是,查看网页元素,填写xpath表达式,获取信息.自动爬取策略是,找到翻页网页元素,获取新链接地址,执行翻页.网页分析部分不再赘述,原博讲的很好很清楚,很涨姿势 基于拿来主义,我们只需要知道怎么更改Scrapy框架就行了~ items.py: import scrapy class TestprojItem(scrapy

Python爬虫Scrapy框架入门(3)

往往需要爬取的网页是呈一个树状结构.比如,需要先爬取一个目录,然后再在目录中选择具体的爬取目标.而目录和具体目标之间,网页结构不同,使得我们不能使用相同的爬取策略. 从之前的经验来看,我们对scrapy进行操作是从Spider的Parse()函数作为入口.不如在parse()函数中对对目录进行操作,获取相应目标的url,再进一步爬取具体内容. 代码如下: 1 class ZhangzishiSpider(scrapy.Spider): 2 name = 'zhangzishi' 3 allowe

python爬虫scrapy框架——人工识别登录知乎倒立文字验证码和数字英文验证码(2)

操作环境:python3 在上一文中python爬虫scrapy框架--人工识别登录知乎倒立文字验证码和数字英文验证码(1)我们已经介绍了用Requests库来登录知乎,本文如果看不懂可以先看之前的文章便于理解 本文将介绍如何用scrapy来登录知乎. 不多说,直接上代码: import scrapy import re import json class ZhihuSpider(scrapy.Spider): name = 'zhihu' allowed_domains = ['www.zhi

数据之路 - Python爬虫 - Scrapy框架

一.Scrapy框架入门 1.Scrapy框架介绍 Scrapy是一个基于Twisted的异步处理框架,是纯Python实现的爬虫框架,其架构清晰,榄块之间的榈合程度低,可扩展性极强,可以灵活完成各种需求. Engine:引擎,处理整个系统的数据流处理.触发事务,是整个框架的核心. Item:项目,它定义了爬取结果的数据结构,爬取的数据会被赋值成该Item对象. Scheduler:调度器,接受引擎发过来的请求并将其加入队列中, 在引擎再次请求的时候将请求提供给引擎. Downloader:下载

Python爬虫——Scrapy框架安装

在编写python爬虫时,我们用requests和Selenium等库便可完成大多数的需求,但当数据量过大或者对爬取速度有一定要求时,使用框架来编写的优势也就得以体现.在框架帮助下,不仅程序架构会清晰许多,而且爬取效率也会增加,所以爬虫框架是编写爬虫的一种不错的选择. 对于python爬虫框架,目前较为热的是Scrapy,其是一个专门爬取web结构性数据的应用框架.Scrapy是一个强大的框架,所依赖的库也较多,比如有lxml,pyOpenSSL和Twisted等,这些库在不同的平台下要求也不一

python爬虫Scrapy框架之中间件

Downloader Middleware处理的过程主要在调度器发送requests请求的时候以及网页将response结果返回给spider的时候, 所以说下载中间件是结余Scrapy的request/response处理的钩子, 用于修改Scrapy request和response. 编写自己的下载器中间件 : 编写下载器中间件, 需要定义下一或者多个方法的python类 新建一个关于爬取httpbin.org网站的项目 scrapy startproject httpbintest cd

python爬虫--scrapy框架

Scrapy 一 介绍 Scrapy简介 1.Scrapy是用纯Python实现一个为了爬取网站数据.提取结构性数据而编写的应用框架,用途非常广泛 2.框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便 Scrapy架构图 Scrapy主要包括了以下组件: 1.引擎(Scrapy) 用来处理整个系统的数据流处理, 触发事务(框架核心) 2.调度器(Scheduler) 用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可

Python 爬虫-Scrapy框架基本使用

2017-08-01  22:39:50 一.Scrapy爬虫的基本命令 Scrapy是为持续运行设计的专业爬虫框架,提供操作的Scrapy命令行. Scrapy命令行格式 Scrapy常用命令 采用命令行的原因 命令行(不是图形界面)更容易自动化,适合脚本控制本质上,Scrapy是给程序员用的,功能(而不是界面)更重要. 二.Scrapy爬虫的一个基本例子 演示HTML页面地址:http://python123.io/ws/demo.html 步骤一:建立一个Scrapy爬虫 选取一个文件夹,

python爬虫---scrapy框架爬取图片,scrapy手动发送请求,发送post请求,提升爬取效率,请求传参(meta),五大核心组件,中间件

# settings 配置 UA USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' 一丶scrapy的图片数据爬取(流数据的爬取) ? scrapy中封装好了一个管道类(ImagesPipeline),基于该管道类可以实现图片资源的请求和持久化存储 编码流程: 爬虫文件中解析出图片的地址 将