爬虫篇 ---增量式爬虫

What is 增量式爬虫?

  用来 监测 网站数据更新的情况,只会爬取网站中更新出来的新数据

增量式爬虫的核心

  去重,因为你爬取到的数据是不可以出现重复的

怎么进行增量式爬取呢?

  • 在发送请求之前判断这个URL是不是之前爬取过
  • 在解析内容后判断这部分内容是不是之前爬取过
  • 写入存储到 redis 时判断内容是不是已经在介质中存在

    #总结分析
        对比三种方式增量爬取的核心是去重, 至于去重的操作在哪个步骤起作用,只能说各有利弊。在我看来,前两种思路需要根据实际情况取一个(也可能都用)。
    
    #第一种思路适合不断有新页面出现的网站,比如说小说的新章节,每天的最新新闻等等;
    #第二种思路则适合页面内容会更新的网站。
    #第三个思路是相当于是最后的一道防线。这样做可以最大程度上达到去重的目的。

去重方法

1. 将爬取过程中产生的url进行存储,存储在redis的set中。当下次进行数据爬取时,首先对即将要发起的请求对应的url在存储的url的set中做判断,如果存在则不进行请求,否则才进行请求。

2. 对爬取到的网页内容进行唯一标识的制定,然后将该唯一表示存储至redis的set中。当下次爬取到网页数据的时候,在进行持久化存储之前,首先可以先判断该数据的唯一标识在redis的set中是否存在,在决定是否进行持久化存储。

项目实例

demo1 爬取4567tv网站中所有的电影详情数据

spider.py

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule

from redis import Redis
from incrementPro.items import IncrementproItem
class MovieSpider(CrawlSpider):
    name = ‘movie‘
    # allowed_domains = [‘www.xxx.com‘]
    start_urls = [‘http://www.4567tv.tv/frim/index7-11.html‘]

    rules = (
        Rule(LinkExtractor(allow=r‘/frim/index7-\d+\.html‘), callback=‘parse_item‘, follow=True),
    )
    #创建redis链接对象
    conn = Redis(host=‘127.0.0.1‘,port=6379)
    def parse_item(self, response):
        li_list = response.xpath(‘//li[@class="p1 m1"]‘)
        for li in li_list:
            #获取详情页的url
            detail_url = ‘http://www.4567tv.tv‘+li.xpath(‘./a/@href‘).extract_first()
            #将详情页的url存入redis的set中
            ex = self.conn.sadd(‘urls‘,detail_url)
            if ex == 1:
                print(‘该url没有被爬取过,可以进行数据的爬取‘)
                yield scrapy.Request(url=detail_url,callback=self.parst_detail)
            else:
                print(‘数据还没有更新,暂无新数据可爬取!‘)

    #解析详情页中的电影名称和类型,进行持久化存储
    def parst_detail(self,response):
        item = IncrementproItem()
        item[‘name‘] = response.xpath(‘//dt[@class="name"]/text()‘).extract_first()
        item[‘kind‘] = response.xpath(‘//div[@class="ct-c"]/dl/dt[4]//text()‘).extract()
        item[‘kind‘] = ‘‘.join(item[‘kind‘])
        yield item

pipeline.py

from redis import Redis
class IncrementproPipeline(object):
    conn = None
    def open_spider(self,spider):
        self.conn = Redis(host=‘127.0.0.1‘,port=6379)
    def process_item(self, item, spider):
        dic = {
            ‘name‘:item[‘name‘],
            ‘kind‘:item[‘kind‘]
        }
        print(dic)
        self.conn.lpush(‘movieData‘,dic)
        return item

demo2 爬取糗事百科中的段子和作者数据。

spider.py

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from incrementByDataPro.items import IncrementbydataproItem
from redis import Redis
import hashlib
class QiubaiSpider(CrawlSpider):
    name = ‘qiubai‘
    # allowed_domains = [‘www.xxx.com‘]
    start_urls = [‘https://www.qiushibaike.com/text/‘]

    rules = (
        Rule(LinkExtractor(allow=r‘/text/page/\d+/‘), callback=‘parse_item‘, follow=True),
        Rule(LinkExtractor(allow=r‘/text/$‘), callback=‘parse_item‘, follow=True),
    )
    #创建redis链接对象
    conn = Redis(host=‘127.0.0.1‘,port=6379)
    def parse_item(self, response):
        div_list = response.xpath(‘//div[@id="content-left"]/div‘)

        for div in div_list:
            item = IncrementbydataproItem()
            item[‘author‘] = div.xpath(‘./div[1]/a[2]/h2/text() | ./div[1]/span[2]/h2/text()‘).extract_first()
            item[‘content‘] = div.xpath(‘.//div[@class="content"]/span/text()‘).extract_first()

            #将解析到的数据值生成一个唯一的标识进行redis存储
            source = item[‘author‘]+item[‘content‘]
            source_id = hashlib.sha256(source.encode()).hexdigest()
            #将解析内容的唯一表示存储到redis的data_id中
            ex = self.conn.sadd(‘data_id‘,source_id)

            if ex == 1:
                print(‘该条数据没有爬取过,可以爬取......‘)
                yield item
            else:
                print(‘该条数据已经爬取过了,不需要再次爬取了!!!‘)

pipeline.py

from redis import Redis
class IncrementbydataproPipeline(object):
    conn = None

    def open_spider(self, spider):
        self.conn = Redis(host=‘127.0.0.1‘, port=6379)

    def process_item(self, item, spider):
        dic = {
            ‘author‘: item[‘author‘],
            ‘content‘: item[‘content‘]
        }
        # print(dic)
        self.conn.lpush(‘qiubaiData‘, dic)
        return item

原文地址:https://www.cnblogs.com/CrazySheldon1/p/10839537.html

时间: 2024-08-29 20:41:21

爬虫篇 ---增量式爬虫的相关文章

增量式爬虫

目录 增量式爬虫 增量式爬虫 案例: 爬取4567tv网站中所有的电影详情数据 需求:爬取糗事百科中的段子和作者数据. 增量式爬虫 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影.小说网站会根据作者创作的进度实时更新最新的章节数据等等.那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢? 增量式爬虫 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网

增量式爬虫案列

增量式爬虫 引言: 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影.小说网站会根据作者创作的进度实时更新最新的章节数据等等.那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢? 一.增量式爬虫 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据. 如何进行增量式的爬取工作: 在发送请求之前判断这个URL是不是之前爬取过 在解析内容后判

增量式 爬虫

# 增量式 爬虫 概念: 监测网站的数据更新的情况,只爬取网站更新的数据. 核心: 去重 实现 Redis  set集合也行 --  如何实现redis去重? -- # 爬取电影站的更新数据 url去重 https://www.4567tv.tv/frim/index1.html# 下面代码以 http://www.922dyy.com/dianying/dongzuopian/ 为例 作为起始页 # spider.py 爬虫文件 # -*- coding: utf-8 -*- import s

爬虫 + 数据分析 - 7 CrawlSpider(全站爬取), 分布式, 增量式爬虫

一.全站爬取(CrawlSpider) 1.基本概念 作用:就是用于进行全站数据的爬取 - CrawlSpider就是Spider的一个子类 - 如何新建一个基于CrawlSpider的爬虫文件 - scrapy genspider -t crawl xxx www.xxx.com - LinkExtractor连接提取器:根据指定规则(正则)进行连接的提取 - Rule规则解析器:将链接提取器提取到的链接进行请求发送,然后对获取的页面数据进行 指定规则(callback)的解析 - 一个链接提

爬虫学习18.增量式爬虫

爬虫学习18.增量式爬虫 增量式爬虫 引言: 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影.小说网站会根据作者创作的进度实时更新最新的章节数据等等.那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢? 一.增量式爬虫 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据. 如何进行增量式的爬取工作: 在发送请求之前判断这个URL是不是

scrapy增量式爬虫

命令: 1.创建scrapy工程:scrapy startproject projectName 2.创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com 指令多了 "-t crawl",表示创建的爬虫文件是基于CrawlSpider这个类的,而不再是Spider这个基类. 3.运行 scrapy crawl spider2 spider.py 用hashlib来制作哈希值来放在Redis中, 可以减少放在Redis中的为了校验

爬虫07 /scrapy图片爬取、中间件、selenium在scrapy中的应用、CrawlSpider、分布式、增量式

目录 爬虫07 /scrapy图片爬取.中间件.selenium在scrapy中的应用.CrawlSpider.分布式.增量式 1. scrapy图片的爬取/基于管道类实现 2. 中间件的使用 3. selenium在scrapy中的应用 4. CrawlSpider 5. 分布式 5. 增量式 爬虫07 /scrapy图片爬取.中间件.selenium在scrapy中的应用.CrawlSpider.分布式.增量式 1. scrapy图片的爬取/基于管道类实现 爬取流程: 爬虫类中将解析到的图片

我的第二十三篇博客---爬虫简介

网络爬虫(又被称为网页蜘蛛,网络机器人) 就是模拟客户端(主要指浏览器)发送网络请求,接收请求响应,按照一定的规则,自动地抓取互联网信息的程序.原则上,只要是客户端(主要指浏览器)能做的事情,爬虫都能够做. 爬虫分类:通用爬虫:通常指搜索引擎的爬虫(百度,谷歌) 聚焦爬虫:针对特定网站的爬虫 积累式爬虫:从开始运行到打到停止条件的过程中不断爬取目标数据,过程中会进行去重操作增量式爬虫:只爬取新产生的或者已经发生变化网页的爬虫深网爬虫:隐藏在搜索表单或登录表单之后的数据,只有用户提交一些关键词或登

Python网络爬虫2:迷你爬虫架构

摘要:从零开始写爬虫,初学者的速成指南! 封面: 关注+转发此文然后我评论留下"架构"即可领取框架的完整程序(随意写的,仅供参考哈),也欢迎大家和我一起交流学习Python,共同成长 介绍 大家好!回顾上一期,我们在介绍了爬虫的基本概念之后,就利用各种工具横冲直撞的完成了一个小爬虫,目的就是猛.糙.快,方便初学者上手,建立信心.对于有一定基础的读者,请不要着急,以后我们会学习主流的开源框架,打造出一个强大专业的爬虫系统!不过在此之前,要继续打好基础,本期我们先介绍爬虫的种类,然后选取最