【Scrapy】Scrapy爬虫框架的基本用法

Scrapy爬虫框架的基本用法

Scrapy爬虫框架是一个好东西,可以十分简单快速爬取网站,特别适合那些不分离前后端的,数据直接生成在html文件内的网站。本文以爬取 杭电OJ http://acm.hdu.edu.cn 的题目ID和标题为例,做一个基本用法的记录

可参考 https://www.jianshu.com/p/7dee0837b3d2

安装Scrapy

  • 使用pip安装

    pip install scrapy

代码编写

  • 建立项目 myspider

    scrapy startproject myspider
  • 创建爬虫 hdu,网站是 acm.hdu.edu.cn
    scrapy genspider hdu acm.hdu.edu.cn
  • 执行上面的命令后,会在spiders文件夹下建立一个 hdu.py,修改代码为:
    class HduSpider(scrapy.Spider):
    # 爬虫名
    name = 'hdu'
    # 爬取的目标地址
    allowed_domains = ['acm.hdu.edu.cn']
    # 爬虫开始的页面
    start_urls = ['http://acm.hdu.edu.cn/listproblem.php?vol=1']
    
    # 爬取逻辑
    def parse(self, response):
        # 题目列表是写在页面的第二个script下的,先全部取出script到problem_list列表中
        problem_list = response.xpath('//script/text()').extract()
        # 取题目列表,为第二个,index为1,并使用分号分割
        problems = str.split(problem_list[1], ";")
        # 循环在控制台输出。这里没有交给管道进行操作
        for item in problems:
            print(item)
  • 在 items.py 里新建题目的对应类
    class ProblemItem(scrapy.Item):
        id = scrapy.Field()
        title = scrapy.Field()
  • 在 pipelines.py 里建立一个数据管道来保存数据到 hdu.json文件内
    # -*- coding: utf-8 -*-
    
    # Define your item pipelines here
    #
    # Don't forget to add your pipeline to the ITEM_PIPELINES setting
    # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
    import json
    
    class ItcastPipeline(object):
        def __init__(self):
            self.filename = open("teacher.json", "wb+")
    
        def process_item(self, item, spider):
            jsontext = json.dumps(dict(item), ensure_ascii=False) + "\n"
            self.filename.write(jsontext.encode("utf-8"))
            return item
    
        def close_spider(self, spider):
            self.filename.close()
    
    class HduPipeline(object):
        full_json = ''
    
        def __init__(self):
            self.filename = open("hdu.json", "wb+")
            self.filename.write("[".encode("utf-8"))
    
        def process_item(self, item, spider):
            json_text = json.dumps(dict(item), ensure_ascii=False) + ",\n"
            self.full_json += json_text
            return item
    
        def close_spider(self, spider):
            self.filename.write(self.full_json.encode("utf-8"))
            self.filename.write("]".encode("utf-8"))
            self.filename.close()
    
  • setting.py 中给管道进行配置
    ITEM_PIPELINES = {
       'myspider.pipelines.HduPipeline': 300
    }
    # 不遵循网站的爬虫君子约定
    ROBOTSTXT_OBEY = False
  • 修改 hdu.py 让其交由管道处理
    # -*- coding: utf-8 -*-
    import scrapy
    import re
    from myspider.items import ProblemItem
    
    class HduSpider(scrapy.Spider):
        name = 'hdu'
        allowed_domains = ['acm.hdu.edu.cn']
        start_urls = ['http://acm.hdu.edu.cn/listproblem.php?vol=1']
    
        def parse(self, response):
            hdu = ProblemItem()
            problem_list = response.xpath('//script/text()').extract()
            problems = str.split(problem_list[1], ";")
            for item in problems:
                # print(item)
                p = re.compile(r'[(](.*)[)]', re.S)
                str1 = re.findall(p, item)[0]
                # print(str1)
                detail = str.split(str1, ",")
                hdu['id'] = detail[1]
                hdu['title'] = detail[3]
                yield hdu
    
  • 运行命令,这里把日志输出到 all.log 中
    scrapy crawl hdu -s LOG_FILE=all.log
  • 在hdu.json文件中看到了爬取的第一页题目标题
    ```
    {"id": "1000", "title": ""A + B Problem""}
    {"id": "1001", "title": ""Sum Problem""}
    {"id": "1002", "title": ""A + B Problem II""}
    {"id": "1003", "title": ""Max Sum""}
    {"id": "1004", "title": ""Let the Balloon Rise""}
    {"id": "1005", "title": ""Number Sequence""}

    ...

    {"id": "1099", "title": ""Lottery ""}

    ```

  • 再次修改 hdu.py 让其能够爬取全部有效页码的内容

    # -*- coding: utf-8 -*-
    import scrapy
    import re
    from myspider.items import ProblemItem
    
    class HduSpider(scrapy.Spider):
        name = 'hdu'
        allowed_domains = ['acm.hdu.edu.cn']
        # download_delay = 1
        base_url = 'http://acm.hdu.edu.cn/listproblem.php?vol=%s'
        start_urls = ['http://acm.hdu.edu.cn/listproblem.php']
    
        # 爬虫入口
        def parse(self, response):
            # 首先拿到全部有效页码
            real_pages = response.xpath('//p[@class="footer_link"]/font/a/text()').extract()
            for page in real_pages:
                url = self.base_url % page
                yield scrapy.Request(url, callback=self.parse_problem)
    
        def parse_problem(self, response):
            # 从字符串中抽取有用内容
            hdu = ProblemItem()
            problem_list = response.xpath('//script/text()').extract()
            problems = str.split(problem_list[1], ";")
            for item in problems:
                # hdu有无效空题,进行剔除
                if str.isspace(item) or len(item) == 0:
                    return
                p = re.compile(r'[(](.*)[)]', re.S)
                str1 = re.findall(p, item)
                detail = str.split(str1[0], ",")
                hdu['id'] = detail[1]
                hdu['title'] = detail[3]
                yield hdu
    
  • 再次运行命令,这里把日志输出到 all.log 中
    scrapy crawl hdu -s LOG_FILE=all.log
  • 现在能爬到全部页码的全部题目标题信息了。但是特别注意的是,爬取到的内容并不是按顺序排列的,有多种原因决定了顺序
    [{"id": "4400", "title": "\"Mines\""},
    {"id": "4401", "title": "\"Battery\""},
    {"id": "4402", "title": "\"Magic Board\""},
    {"id": "4403", "title": "\"A very hard Aoshu problem\""},
    {"id": "4404", "title": "\"Worms\""},
    {"id": "4405", "title": "\"Aeroplane chess\""},
    {"id": "4406", "title": "\"GPA\""},
    {"id": "4407", "title": "\"Sum\""},
    
    ...
    
    {"id": "1099", "title": "\"Lottery \""},
    ]
    
  • 以上只是爬取到文本文件中,后续将放置到数据库中,本教程暂时略过

原文地址:https://www.cnblogs.com/axiangcoding/p/12096894.html

时间: 2024-11-18 14:01:41

【Scrapy】Scrapy爬虫框架的基本用法的相关文章

一篇文章教会你理解Scrapy网络爬虫框架的工作原理和数据采集过程

今天小编给大家详细的讲解一下Scrapy爬虫框架,希望对大家的学习有帮助. 1.Scrapy爬虫框架 Scrapy是一个使用Python编程语言编写的爬虫框架,任何人都可以根据自己的需求进行修改,并且使用起来非常的方便.它可以应用在数据采集.数据挖掘.网络异常用户检测.存储数据等方面. Scrapy使用了Twisted异步网络库来处理网络通讯.整体架构大致如下图所示. Scrapy爬虫框架 2.由上图可知Scrapy爬虫框架主要由5个部分组成,分别是:Scrapy Engine(Scrapy引擎

Scrapy网络爬虫框架的开发使用

1.安装 2.使用scrapy startproject  project_name 命令创建scrapy项目 如图: 3.根据提示使用scrapy genspider spider_name domain_url 创建一个spider程序 如图: 注意spider_name 不能和project_name 同名:可以采用关键字加_spider的方式命名spider_name 4. 使用scrapy list命令查看所有的spider程序名称,及使用scrapy --help查看命令列表 5.

爬虫框架——Scrapy

一.Scrapy介绍 1.Scrapy是什么 Scrapy 是一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前Scrapy的用途十分广泛,可用于如数据挖掘.监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫. 2.何谓框架 所谓框架其实就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析

Python3网络爬虫实战-10、爬虫框架的安装:PySpider、Scrapy

我们直接用 Requests.Selenium 等库写爬虫,如果爬取量不是太大,速度要求不高,是完全可以满足需求的.但是写多了会发现其内部许多代码和组件是可以复用的,如果我们把这些组件抽离出来,将各个功能模块化,就慢慢会形成一个框架雏形,久而久之,爬虫框架就诞生了. 利用框架我们可以不用再去关心某些功能的具体实现,只需要去关心爬取逻辑即可.有了它们,可以大大简化代码量,而且架构也会变得清晰,爬取效率也会高许多.所以如果对爬虫有一定基础,上手框架是一种好的选择. 本书主要介绍的爬虫框架有PySpi

教你分分钟学会用python爬虫框架Scrapy爬取心目中的女神

欢迎加入Python学习交流群:535993938  禁止闲聊 ! 名额有限 ! 非喜勿进 ! 本博文将带领你从入门到精通爬虫框架Scrapy,最终具备爬取任何网页的数据的能力.本文以校花网为例进行爬取,校花网:http://www.xiaohuar.com/,让你体验爬取校花的成就感. Scrapy,Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. Scrapy吸引人的地方在于

Python 爬虫-Scrapy爬虫框架

2017-07-29 17:50:29 Scrapy是一个快速功能强大的网络爬虫框架. Scrapy不是一个函数功能库,而是一个爬虫框架.爬虫框架是实现爬虫功能的一个软件结构和功能组件集合.爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫.  一.Scrapy框架介绍 5+2结构,5个主要模块加2个中间件. (1)Engine:控制所有模块之间的数据流:根据条件触发事件.不需要用户修改 (2)Downloader:根据请求下载网页.不需要用户修改 (3)Scheduler:对所有爬取请求进行调

[转载]网络爬虫(12):爬虫框架Scrapy的第一个爬虫示例入门教程

我们使用dmoz.org这个网站来作为小抓抓一展身手的对象. 首先先要回答一个问题. 问:把网站装进爬虫里,总共分几步? 答案很简单,四步: 新建项目 (Project):新建一个新的爬虫项目 明确目标(Items):明确你想要抓取的目标 制作爬虫(Spider):制作爬虫开始爬取网页 存储内容(Pipeline):设计管道存储爬取内容 好的,基本流程既然确定了,那接下来就一步一步的完成就可以了. 1.新建项目(Project) 在空目录下按住Shift键右击,选择“在此处打开命令窗口”,输入一

爬虫框架--scrapy简介

简介 scrapy被认为是比较简单的爬虫框架,资料比较齐全,网上也有很多教程.官网上介绍了它的四种安装方法,PyPI.Conda.APT.Source,我们只介绍最简单的安装方法. Windows下的安装 pip install scrapy Linux下的安装 apt-get install python-scrapy APT 因为Linux的强大及辅助工具比较多,大家比较喜欢在Linux下使用scrapy爬虫框架,Linux下编写python代码最强大的工具可属eclipse,但最方便的要属

Python爬虫框架Scrapy安装使用步骤

一.爬虫框架Scarpy简介Scrapy 是一个快速的高层次的屏幕抓取和网页爬虫框架,爬取网站,从网站页面得到结构化的数据,它有着广泛的用途,从数据挖掘到监测和自动测试,Scrapy完全用Python实现,完全开源,代码托管在Github上,可运行在Linux,Windows,Mac和BSD平台上,基于Twisted的异步网络库来处理网络通讯,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片. 二.Scrapy安装指南 我们的安装步骤假设你已经安装一下内容:<1>