增量式 爬虫

增量式 爬虫

概念: 监测网站的数据更新的情况,只爬取网站更新的数据.

核心: 去重

实现 Redis  set集合也行

--  如何实现redis去重? --

# 爬取电影站的更新数据   url去重  https://www.4567tv.tv/frim/index1.html# 下面代码以 http://www.922dyy.com/dianying/dongzuopian/ 为例 作为起始页
# spider.py 爬虫文件
# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from redis import Redis
from shipin.items import ShipinItem
class DianyingSpider(CrawlSpider):
    conn = Redis(host=‘127.0.0.1‘,port=6379) # 连接对象
    name = ‘dianying‘
    # allowed_domains = [‘www.xx.com‘]
    start_urls = [‘http://www.922dyy.com/dianying/dongzuopian/‘]

    rules = (
        Rule(LinkExtractor(allow=r‘/dongzuopian/index\d+\.html‘), callback=‘parse_item‘, follow=False), #这里需要所有页面时候改为True
    )  # 只提取页码url

    def parse_item(self, response):
        # 解析出当前页码对应页面中 电影详情页 的url
        li_list = response.xpath(‘/html/body/div[2]/div[2]/div[2]/ul/li‘)
        for li in li_list:
            # 解析详情页的url
            detail_url = ‘http://www.922dyy.com‘ + li.xpath(‘./div/a/@href‘).extract_first()
            #
            ex = self.conn.sadd(‘mp4_detail_url‘,detail_url) # 有返回值
            # ex == 1 该url没有被请求过     ex==0在集合中,该url已经被请求过了
            if ex==1:
                print(‘有新数据可爬.....‘)
                yield scrapy.Request(url=detail_url,callback=self.parse_detail)
            else:
                print(‘暂无新数据可以爬取‘)

    def parse_detail(self,response):
        name = response.xpath(‘//*[@id="film_name"]/text()‘).extract_first()
        m_type = response.xpath(‘//*[@id="left_info"]/p[1]/text()‘).extract_first()
        print(name,‘--‘,m_type)
        item = ShipinItem() #实例化
        item[‘name‘] = name
        item[‘m_type‘] = m_type

        yield item
# items.py
# -*- coding: utf-8 -*-

import scrapy

class ShipinItem(scrapy.Item):

    name = scrapy.Field()
    m_type = scrapy.Field()
# pipelines.py 管道
# -*- coding: utf-8 -*-

class ShipinPipeline(object):
    def process_item(self, item, spider):
        conn = spider.conn
        dic = {
            ‘name‘:item[‘name‘],
            ‘m_type‘:item[‘m_type‘]
        }
        conn.lpush(‘movie_data‘,str(dic)) #一般这里不str的话会报错,数据类型dict的错误
        return item
# settings.py  里面

ITEM_PIPELINES = {
   ‘shipin.pipelines.ShipinPipeline‘: 300,
}

BOT_NAME = ‘shipin‘

SPIDER_MODULES = [‘shipin.spiders‘]
NEWSPIDER_MODULE = ‘shipin.spiders‘

USER_AGENT = ‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36‘

ROBOTSTXT_OBEY = False

LOG_LEVEL = ‘ERROR‘

流程: scrapy startproject Name

    cd Name

    scrapy genspider -t crawl 爬虫文件名 www.example.com

注意点: 增量式爬虫,会判断url在不在集合里面,sadd (集合的方法) 返回值1就是没在里面,就是新数据.

    lpush lrange llen  --key  都是redis里面列表类型的方法

下面是糗事百科段子页面的数据 (作者/段子)   增量式爬取

# 爬虫.py
# -*- coding: utf-8 -*-
import scrapy,hashlib
from qbPro.items import QbproItem
from redis import Redis

# 只爬取当前页面
class QiubaiSpider(scrapy.Spider):
    name = ‘qiubai‘

    conn = Redis(host=‘127.0.0.1‘,port=6379)
    start_urls = [‘https://www.qiushibaike.com/text/‘]

    def parse(self, response):
        div_list = response.xpath(‘//*[@id="content-left"]/div‘)
        for div in div_list:
            # 数据指纹:爬取到一条数据的唯一标识
            author = div.xpath(‘./div/a[2]/h2/text() | ./div/span[2]/h2/text()‘).extract_first().strip()
            content = div.xpath(‘./a/div/span[1]//text()‘).extract()
            content = ‘‘.join(content).replace(‘\n‘,‘‘)
            item = QbproItem()  # 实例化
            item[‘author‘] = author
            item[‘content‘] = content

            # 给爬取到的数据生成一个数据指纹
            data = author+content
            hash_key = hashlib.sha256(data.encode()).hexdigest()
            ex = self.conn.sadd(‘hash_key‘,hash_key)  # 输指纹存进 集合里面
            if ex == 1:
                print(‘有数据更新‘)
                yield item
            else:
                print(‘无数据更新‘)
# items.py
# -*- coding: utf-8 -*-
import scrapy
class QbproItem(scrapy.Item):

    author = scrapy.Field()
    content = scrapy.Field()
# pipelines.py  管道
# -*- coding: utf-8 -*-
class QbproPipeline(object):
    def process_item(self, item, spider):
        conn = spider.conn
        dic = {
            ‘author‘: item[‘author‘],
            ‘content‘: item[‘content‘]
        }
        conn.lpush(‘qiubai‘, str(dic))
        return item
# settings.py  设置
ITEM_PIPELINES = {
   ‘qbPro.pipelines.QbproPipeline‘: 300,
}

USER_AGENT =  ‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36‘
ROBOTSTXT_OBEY = False
LOG_LEVEL = ‘ERROR‘

原文地址:https://www.cnblogs.com/zhangchen-sx/p/10849234.html

时间: 2024-10-04 12:17:29

增量式 爬虫的相关文章

增量式爬虫

目录 增量式爬虫 增量式爬虫 案例: 爬取4567tv网站中所有的电影详情数据 需求:爬取糗事百科中的段子和作者数据. 增量式爬虫 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影.小说网站会根据作者创作的进度实时更新最新的章节数据等等.那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢? 增量式爬虫 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网

增量式爬虫案列

增量式爬虫 引言: 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影.小说网站会根据作者创作的进度实时更新最新的章节数据等等.那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢? 一.增量式爬虫 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据. 如何进行增量式的爬取工作: 在发送请求之前判断这个URL是不是之前爬取过 在解析内容后判

爬虫篇 ---增量式爬虫

What is 增量式爬虫? 用来 监测 网站数据更新的情况,只会爬取网站中更新出来的新数据 增量式爬虫的核心 去重,因为你爬取到的数据是不可以出现重复的 怎么进行增量式爬取呢? 在发送请求之前判断这个URL是不是之前爬取过 在解析内容后判断这部分内容是不是之前爬取过 写入存储到 redis 时判断内容是不是已经在介质中存在 #总结分析 对比三种方式增量爬取的核心是去重, 至于去重的操作在哪个步骤起作用,只能说各有利弊.在我看来,前两种思路需要根据实际情况取一个(也可能都用). #第一种思路适合

爬虫 + 数据分析 - 7 CrawlSpider(全站爬取), 分布式, 增量式爬虫

一.全站爬取(CrawlSpider) 1.基本概念 作用:就是用于进行全站数据的爬取 - CrawlSpider就是Spider的一个子类 - 如何新建一个基于CrawlSpider的爬虫文件 - scrapy genspider -t crawl xxx www.xxx.com - LinkExtractor连接提取器:根据指定规则(正则)进行连接的提取 - Rule规则解析器:将链接提取器提取到的链接进行请求发送,然后对获取的页面数据进行 指定规则(callback)的解析 - 一个链接提

爬虫学习18.增量式爬虫

爬虫学习18.增量式爬虫 增量式爬虫 引言: 当我们在浏览相关网页的时候会发现,某些网站定时会在原有网页数据的基础上更新一批数据,例如某电影网站会实时更新一批最近热门的电影.小说网站会根据作者创作的进度实时更新最新的章节数据等等.那么,类似的情景,当我们在爬虫的过程中遇到时,我们是不是需要定时更新程序以便能爬取到网站中最近更新的数据呢? 一.增量式爬虫 概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据. 如何进行增量式的爬取工作: 在发送请求之前判断这个URL是不是

scrapy增量式爬虫

命令: 1.创建scrapy工程:scrapy startproject projectName 2.创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com 指令多了 "-t crawl",表示创建的爬虫文件是基于CrawlSpider这个类的,而不再是Spider这个基类. 3.运行 scrapy crawl spider2 spider.py 用hashlib来制作哈希值来放在Redis中, 可以减少放在Redis中的为了校验

爬虫07 /scrapy图片爬取、中间件、selenium在scrapy中的应用、CrawlSpider、分布式、增量式

目录 爬虫07 /scrapy图片爬取.中间件.selenium在scrapy中的应用.CrawlSpider.分布式.增量式 1. scrapy图片的爬取/基于管道类实现 2. 中间件的使用 3. selenium在scrapy中的应用 4. CrawlSpider 5. 分布式 5. 增量式 爬虫07 /scrapy图片爬取.中间件.selenium在scrapy中的应用.CrawlSpider.分布式.增量式 1. scrapy图片的爬取/基于管道类实现 爬取流程: 爬虫类中将解析到的图片

python爬虫---CrawlSpider实现的全站数据的爬取,分布式,增量式,所有的反爬机制

CrawlSpider实现的全站数据的爬取 新建一个工程 cd 工程 创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com 连接提取器LinkExtractor 可以根据指定的规则对指定的连接进行提取 提取的规则就是构造方法中的allow('正则表达式')参数决定 规则解析器Rule 可以将将连接提取器提取到的连接进行请求发送,可以根据指定的规则(callback)对请求到的数据进行解析 follow=True:将连接提取器 继续作用到

Vivado增量式编译

Vivado 中的增量设计会重新利用已有的布局布线数据来缩短运行时间,并生成可预测的结果.当设计有 95% 以上的相似度时,增量布局布线的运行时间会比一般布局布线平均缩短2倍.若相似度低于80%,则使用增量布局布线只有很小的优势或者基本没有优势. 当设计进行到后期,每次运行改动很小,在开始后端实现前读入的设计网表具有较高相似度的情况下,推荐使用 Vivado 的增量布局布线功能.运行增量流程的前提是有一个已经完成布局布线的参考设计检查点(Design Checkpoint, DCP)文件,并以此