Scrapy和MongoDB的应用---爬取

  Scrapy是Python开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取Web站点并从页面中提取结构化的数据.它最吸引人的地方在于任何人都可以根据需求方便的修改。
  MongoDB是现下非常流行的开源的非关系型数据库(NoSql),它是以“key-value”的形式存储数据的,在大数据量、高并发、弱事务方面都有很大的优势。
  当Scrapy与MongoDB两者相碰撞会产生怎样的火花呢?与MongoDB两者相碰撞会产生怎样的火花呢?现在让我们做一个简单的爬取小说的TEST

1.安装Scrapy
        pip install scrapy

2.下载安装MongoDB和MongoVUE可视化
        [MongoDB下载地址](https://www.mongodb.org/)
        下载安装的步骤略过,在bin目录下创建一个data文件夹用来存放数据的。

[MongoVUE下载地址](http://www.mongovue.com/)

   安装完成后我们需要创建一个数据库。

  

3.创建一个Scrapy项目
        scrapy startproject novelspider
    目录结构:其中的novspider.py是需要我们手动创建的(contrloDB不需要理会)

  

  4.编写代码

    目标网站:http://www.daomubiji.com/

    

  settings.py

BOT_NAME = ‘novelspider‘

SPIDER_MODULES = [‘novelspider.spiders‘]
NEWSPIDER_MODULE = ‘novelspider.spiders‘

ITEM_PIPELINES = [‘novelspider.pipelines.NovelspiderPipeline‘]  #导入pipelines.py中的方法

USER_AGENT = ‘Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0‘
COOKIES_ENABLED = True

MONGODB_HOST = ‘127.0.0.1‘
MONGODB_PORT = 27017
MONGODB_DBNAME = ‘zzl‘    #数据库名
MONGODB_DOCNAME = ‘Book‘   #表名

  pipelines.py

from scrapy.conf import settings
import pymongo

class NovelspiderPipeline(object):
    def __init__(self):
        host = settings[‘MONGODB_HOST‘]
        port = settings[‘MONGODB_PORT‘]
        dbName = settings[‘MONGODB_DBNAME‘]
        client = pymongo.MongoClient(host=host, port=port)
        tdb = client[dbName]
        self.post = tdb[settings[‘MONGODB_DOCNAME‘]]

    def process_item(self, item, spider):
        bookInfo = dict(item)
        self.post.insert(bookInfo)
        return item

  items.py

from scrapy import Item,Field

class NovelspiderItem(Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    bookName = Field()
    bookTitle = Field()
    chapterNum = Field()
    chapterName = Field()
    chapterURL = Field()

  在spiders目录下创建novspider.py

from scrapy.spiders import CrawlSpider
from scrapy.selector import Selector
from novelspider.items import NovelspiderItem

class novSpider(CrawlSpider):
    name = "novspider"
    redis_key = ‘novspider:start_urls‘
    start_urls = [‘http://www.daomubiji.com/‘]

    def parse(self,response):
        selector = Selector(response)
        table = selector.xpath(‘//table‘)
        for each in table:
            bookName = each.xpath(‘tr/td[@colspan="3"]/center/h2/text()‘).extract()[0]
            content = each.xpath(‘tr/td/a/text()‘).extract()
            url = each.xpath(‘tr/td/a/@href‘).extract()
            for i in range(len(url)):
                item = NovelspiderItem()
                item[‘bookName‘] = bookName
                item[‘chapterURL‘] = url[i]
                try:
                    item[‘bookTitle‘] = content[i].split(‘ ‘)[0]
                    item[‘chapterNum‘] = content[i].split(‘ ‘)[1]
                except Exception,e:
                    continue

                try:
                    item[‘chapterName‘] = content[i].split(‘ ‘)[2]
                except Exception,e:
                    item[‘chapterName‘] = content[i].split(‘ ‘)[1][-3:]
                yield item

  5.启动项目命令: scrapy crawl novspider.

     抓取结果

  

  

时间: 2024-10-11 22:14:54

Scrapy和MongoDB的应用---爬取的相关文章

Scrapy 通过登录的方式爬取豆瓣影评数据

Scrapy 通过登录的方式爬取豆瓣影评数据 爬虫 Scrapy 豆瓣 Fly 由于需要爬取影评数据在来做分析,就选择了豆瓣影评来抓取数据,工具使用的是Scrapy工具来实现.scrapy工具使用起来比较简单,主要分为以下几步: 1.创建一个项目 ==scrapy startproject Douban 得到一个项目目录如下: ├── Douban │   ├── init.py │   ├── items.py │   ├── pipelines.py │   ├── settings.py

爬虫(十七):Scrapy框架(四) 对接selenium爬取京东商品数据

1. Scrapy对接Selenium Scrapy抓取页面的方式和requests库类似,都是直接模拟HTTP请求,而Scrapy也不能抓取JavaScript动态谊染的页面.在前面的博客中抓取JavaScript渲染的页面有两种方式.一种是分析Ajax请求,找到其对应的接口抓取,Scrapy同样可以用此种方式抓取.另一种是直接用 Selenium模拟浏览器进行抓取,我们不需要关心页面后台发生的请求,也不需要分析渲染过程,只需要关心页面最终结果即可,可见即可爬.那么,如果Scrapy可以对接S

Win10环境下的Scrapy结合Tor进行匿名爬取

本文内容来源:http://blog.privatenode.in/torifying-scrapy-project-on-ubuntu/ 在使用Scrapy的时候,一旦进行高频率的爬取就容易被封IP,此时可以通过使用TOR来进行匿名爬取,同时要安装Polipo代理服务器   注意:要进行下面的操作的前提是,你能FQ   安装TOR 下载地址:https://www.torproject.org/download/download.html.en 下载Expert Bundle并解压到一个目录下

python框架Scrapy中crawlSpider的使用——爬取内容写进MySQL

一.先在MySQL中创建test数据库,和相应的site数据表 二.创建Scrapy工程 #scrapy startproject 工程名 scrapy startproject demo4 三.进入工程目录,根据爬虫模板生成爬虫文件 #scrapy genspider -l # 查看可用模板 #scrapy genspider -t 模板名 爬虫文件名 允许的域名 scrapy genspider -t crawl test sohu.com 四.设置IP池或用户代理(middlewares.

Scrapy爬虫(5)爬取当当网图书畅销榜

??本次将会使用Scrapy来爬取当当网的图书畅销榜,其网页截图如下: ??我们的爬虫将会把每本书的排名,书名,作者,出版社,价格以及评论数爬取出来,并保存为csv格式的文件.项目的具体创建就不再多讲,可以参考上一篇博客,我们只需要修改items.py文件,以及新建一个爬虫文件BookSpider.py. ??items.py文件的代码如下,用来储存每本书的排名,书名,作者,出版社,价格以及评论数. import scrapy class BookspiderItem(scrapy.Item):

【Scrapy框架之CrawlSpider全站爬取】--2019-08-06 15:17:42

原创链接: http://106.13.73.98/__/144/ 起 提问: 如果想要快速爬取网站的全站数据,有几种实现方法? 基于Scrapy框架中 Spider 的递归爬取来实现(Request模块递归回调parse方法) 基于 CrawlSpider 的自动爬取来实现(更加高效简洁) ???????CrawlSpider 是 Spider 的一个子类,除了继承了 Spider 的特性和功能外,还派生了其自己独有的更加强大的特性和功能.其中最为显著的功能就是 LinkExtractors:

【Scrapy框架之CrawlSpider全站爬取】 𓄛

原文: http://blog.gqylpy.com/gqy/369 起 提问: 如果想要快速爬取网站的全站数据,有几种实现方法? 基于Scrapy框架中 Spider 的递归爬取来实现(Request模块递归回调parse方法) 基于 CrawlSpider 的自动爬取来实现(更加高效简洁) ???????CrawlSpider 是 Spider 的一个子类,除了继承了 Spider 的特性和功能外,还派生了其自己独有的更加强大的特性和功能.其中最为显著的功能就是 LinkExtractors

scrapy学习笔记1---一个爬取的完整例子

一.创建工程 scrapy startproject dmoz 二.建立dmoz_spider.py from scrapy.spider import Spider from scrapy.selector import Selector   from dmoz.items import DmozItem     class DmozSpider(Spider):     name = "dmoz"     allowed_domains = ["dmoz.org"

scrapy中使用代理IP爬取数据时遇到IP失效时自动切换的方法

当使用临时的IP请求数据时,由于这些IP的过期时间极短,通常在1分钟~5分钟左右,这时scrapy就会报发以下错误 2020-01-17 17:00:48 [scrapy.downloadermiddlewares.retry] DEBUG: Retrying <GET https://xxxx/co s): Connection was refused by other side: 10061: 由于目标计算机积极拒绝,无法连接.. 这时如何自动切换IP,然后重新请求呢? 先看看scrapy的