03_使用scrapy框架爬取豆瓣电影TOP250

前言:



  本次项目是使用scrapy框架,爬取豆瓣电影TOP250的相关信息。其中涉及到代理IP,随机UA代理,最后将得到的数据保存到mongoDB中。本次爬取的内容实则不难。主要是熟悉scrapy相关命令以及理解框架各部分的作用。

1、本次目标

  爬取豆瓣电影TOP250的信息,将得到的数据保存到mongoDB中。

2、准备工作

  需要安装好scrapy以及mongoDB,安装步骤这里不做赘述。(这里最好是先了解scrapy框架各个部分的基本作用和基础知识,这样方便后面的内容的理解。scrapy文档链接:https://scrapy-chs.readthedocs.io/zh_CN/latest/)

3、创建scrapy项目和爬虫

  首先需要创建一个scrapy项目,命令如下:

scrapy startproject douban (douban为你的项目名称)

创建好之后会有系统提示如下:

You can start your first spider with:
    cd douban
    scrapy genspider example example.com

提示的意思是让你cd进入到刚刚创建好的douban项目下面,使用下面的命令创建你的爬虫,例如:

scrapy genspider DoubanSpider  movie.douban.com/top250

这样,在spiders目录下(如下图)就创建出了一个名为DoubanSpider的爬虫了。

打开爬虫文件,里面默认已经写好了一些代码。这里简单的简单的介绍一下。(详细请参考https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/spiders.html)

name 是你创建爬虫的名称,相当于一个标识符,这个名称是唯一的且也是必须的。

allowed_domains 是允许爬虫爬取的域名列表(可选)

start_urls 是你的爬虫起始访问的URL

 1 # -*- coding: utf-8 -*-
 2 import scrapy
 3
 4
 5 class DoubanspiderSpider(scrapy.Spider):
 6     name = ‘DoubanSpider‘
 7     allowed_domains = [‘movie.douban.com/top250‘]
 8     start_urls = [‘http://movie.douban.com/top250/‘]
 9
10     def parse(self, response):
11         pass

我们所要写的爬虫逻辑就是要在这一部分中来编写的,在开始动手写之前,还需要先在items文件下定义数据结构。

4、数据结构

  如下图可以看到电影的相关信息,例如:电影名称,演员,导演,排名,评分等等。

需要做的是,把这些信息先在items定义好。代码如下:

 1 # -*- coding: utf-8 -*-
 2
 3 # Define here the models for your scraped items
 4 #
 5 # See documentation in:
 6 # https://doc.scrapy.org/en/latest/topics/items.html
 7
 8 import scrapy
 9
10
11 class DoubanItem(scrapy.Item):
12     # define the fields for your item here like:
13     # name = scrapy.Field()
14     # 排名
15     rank = scrapy.Field()
16     # 标题
17     title = scrapy.Field()
18     # 链接
19     link = scrapy.Field()
20     # 导演&主演
21     director_actors = scrapy.Field()
22     # 时间
23     time = scrapy.Field()
24     # 类别
25     category = scrapy.Field()
26     # 评分
27     star = scrapy.Field()
28     # 评论数
29     comment = scrapy.Field()
30     # 引言
31     quote = scrapy.Field()

定义好这些之后,待会编写爬虫逻辑的时候,对于爬取到的相应数据只需要放进相应的变量里即可。

5、编写spider

  下面要做的就是把需要的电影信息解析出来,这里使用xpath来完成。先来分析网站,如下图。

可以发现,每一个电影信息都在class为“grid_view”的ol节点下的li节点里。展开li节点,如下图

我们需要的电影名称就包含在class为“hd”的div/a的span节点下,这是运用xpath选择器很容易就能得到电影名称。其他的信息获取也同理,由于这次重点在sracpy框架的使用,所以获取信息这部分比较简单的内容就不在赘述,直接上代码:

 1 # -*- coding: utf-8 -*-
 2 import scrapy
 3
 4 from douban.items import DoubanItem
 5
 6
 7 class MoviespiderSpider(scrapy.Spider):
 8     name = ‘movieSpider‘
 9     allowed_domains = [‘movie.douban.com‘]
10     start_urls = [‘http://movie.douban.com/top250‘]
11
12     def parse(self, response):
13         items = response.xpath(‘//ol[@class="grid_view"]//li‘)
14         item = DoubanItem()
15         for each in items:
16             # 排名
17             item[‘rank‘] = each.xpath(‘.//div[@class="pic"]/em//text()‘).extract_first()
18             # 标题
19             item[‘title‘] = each.xpath(‘.//div[@class="hd"]/a/span[@class="title"][1]//text()‘).extract_first()
20             # 链接
21             item[‘link‘] = each.xpath(‘.//div[@class="info"]/div/a/@href‘).extract_first()
22             # 导演&主演
23             item[‘director_actors‘] = each.xpath(‘.//div[@class="bd"]/p[1]/text()[1]‘).extract_first().strip().replace(‘\xa0‘, ‘‘)
24             # 时间和类别的集合
25             time_category = each.xpath(‘.//div[@class="bd"]/p[1]/text()[2]‘).extract_first()
26             # 时间
27             item[‘time‘] = time_category.split(‘/‘)[0].strip()
28             # 类别
29             item[‘category‘] = time_category.split(‘/‘)[-1].strip()
30             # 评分
31             item[‘star‘] = each.xpath(‘.//div[@class="star"]/span[@class="rating_num"]/text()‘).extract_first()
32             # 评论数
33             item[‘comment‘] = each.xpath(‘.//div[@class="star"]/span[last()]/text()‘).extract_first()[:-3]
34             # 引言
35             item[‘quote‘] = each.xpath(‘.//p[@class="quote"]/span/text()‘).extract_first()
36             yield item

以上代码实现的就是从网页中提取出所需要的信息,其中第4行和14行代码是把我们刚刚定义好的信息导入进来,并且将item实例化,最后将item返回。

写到这里其实就可以得到这个页面所有电影信息了。但是这样还不够,还需要实现访问剩下页面的电影,那么就需要在写一段代码来实现访问剩下的其他页面,将得到页面的response在传给parse函数进行解析即可,代码实现如下:

1         for i in range(1, 10):
2             page = i * 25
3             start = ‘?‘ + ‘start=‘ + str(page)
4             next_url = response.urljoin(start)
5             yield scrapy.Request(url=next_url, callback=self.parse)

下图是第二页的URL,易得出start和页数的关系,再通过urljoin构造出新的next_url,即下一页的URL,最后返回Request,其中url为下一页的URL,callback为回调函数,这里只需要再次回调parse函数进行页面解析即可。

这样一个简单爬虫就写好了。但是到这里还不行,因为我们还未修改请求的UA代理,网站接收到请求知道这是一个爬虫,会拒绝访问,下面需要添加一个随机UA。

6、RandomUA

  添加UA代理最简单的一种方式是在settings文件里面,在DEFAULT_REQUEST_HEADERS 这一项里,添加User-Agent即可。

1 DEFAULT_REQUEST_HEADERS = {
2     ‘Accept‘: ‘text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8‘,
3     ‘Accept-Language‘: ‘en‘,
4     ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 ‘
5                   ‘Safari/537.36 ‘
6 }

但是这不是我们想要的,这里需要构造一个UA代理列表,每一次发送请求都会提取出一个随机的UA值,达到每一次请求的UA都是随机的。那要怎么做呢?同样先是在settings文件中,先构造一个UA列表,代码如下:

 1 User_Agent = [
 2     ‘Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)‘,
 3     "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
 4     "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
 5     "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
 6     "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
 7     "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
 8     "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
 9     "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
10     "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
11     "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
12     "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
13     "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
14     "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
15     "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
16     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
17     "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
18 ]

然后在middleware文件下,创建一个名为RandomUAMiddleware的类,导入刚刚在settings中创建好的UA的列表,导入random库,然后创建一个名为process_request的方法,编写好实现代码即可,代码实现如下:

 1 # -*- coding: utf-8 -*-
 2
 3 # Define here the models for your spider middleware
 4 #
 5 # See documentation in:
 6 # https://doc.scrapy.org/en/latest/topics/spider-middleware.html
 7 import random
 8
 9 from douban.settings import User_Agent
10 from scrapy import signals
11 class RandomUAMiddleware(object):
12     def process_request(self,request,spider):
13         user_agent = random.choice(User_Agent)
14         request.headers[‘User-Agent‘] = user_agent

接下来只需要返回settings文件中,打开下载中间键,添加RandomUAMiddleware即可,代码实现如下:

1 DOWNLOADER_MIDDLEWARES = {‘douban.middlewares.RandomUAMiddleware‘: 100 }

这样就可以随机生成UA了。

7、PROXY

  实现了生成随机UA之后,我们还希望每一次的请求使用不同的IP地址,这样做就可以防止被网站的管理员ban掉。怎么实现代理ip呢?其实方法和UA大同小异。

首先也是要在settings中构造一个代理IP列表(当然,下面这个代理列表现在可能已经不能用了),代码如下:

 1 Proxy_list = [‘http://47.95.9.128:8118‘,
 2 ‘http://112.16.172.107:58337‘,
 3 ‘http://103.205.26.84:41805‘,
 4 ‘http://61.145.182.27:53281‘,
 5 ‘http://117.191.11.71:80‘,
 6 ‘http://47.92.98.68:3128‘,
 7 ‘http://120.206.182.11:80‘,
 8 ‘http://59.44.43.198:80‘,
 9 ‘http://114.236.138.171:80‘]

接着也是在middleware文件下,导入该列表,创建代理的类和方法。代码实现如下:

 1 # -*- coding: utf-8 -*-
 2
 3 # Define here the models for your spider middleware
 4 #
 5 # See documentation in:
 6 # https://doc.scrapy.org/en/latest/topics/spider-middleware.html
 7 import random
 8
 9 from scrapy import signals
10
11 from douban.settings import Proxy_list
12
13 class ProxyMiddleware(object):
14     def process_request(self, request, spider):
15         proxy = random.choice(Proxy_list)
16         request.meta[‘proxy‘] = proxy

最后也同样需要在settings中打开下载中间键,添加写好的ProxyMiddleware即可,代码实现如下:

DOWNLOADER_MIDDLEWARES = {‘douban.middlewares.ProxyMiddleware‘: 200}

这样随机代理IP的功能也实现了。

8、mongoDB

  要将爬取的数据,保存在mongoDB,首先在items里面定义collection表名,代码如下:

 # mongoDB表名
collection = ‘movies‘

然后在settings里面创建相关参数,代码如下:

MONGO_URI = ‘localhost‘
MONGO_DB = ‘doubanmovies‘

接下来需要在pipeline文件下创建一个MongopPipeline的类,定义好相关方法,代码实现如下:

 1 import pymongo
 2
 3
 4 class MongoPipeline(object):
 5     def __init__(self, mongo_uri, mongo_db):
 6         self.mongo_uri = mongo_uri
 7         self.mongo_db = mongo_db
 8
 9     @classmethod
10     def from_crawler(cls, crawler):
11         return cls(
12             mongo_uri=crawler.settings.get(‘MONGO_URI‘),
13             mongo_db=crawler.settings.get(‘MONGO_DB‘)
14         )
15
16     def open_spider(self, spider):
17         self.client = pymongo.MongoClient(self.mongo_uri)
18         self.db = self.client[self.mongo_db]
19
20     def process_item(self, item, spider):
21         self.db[item.collection].insert(dict(item))
22         return item
23
24     def close_spider(self, spider):
25         self.client.close()

最后在settings文件中,打开ITEM_PIPELINES,并添加写好的pipeline,代码如下:

ITEM_PIPELINES = { ‘douban.pipelines.MongoPipeline‘: 100}

8、运行爬虫

运行爬虫的命令为 scrapy crawl movieSpider(movieSpider为你的爬虫名)

最后查看结果,如下:

2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=125>
{‘category‘: ‘剧情‘,
 ‘comment‘: ‘238142‘,
 ‘director_actors‘: ‘导演: 巴瑞·莱文森 Barry Levinson主演: 达斯汀·霍夫曼 Dustin Hoffman ...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1291870/‘,
 ‘quote‘: ‘生活在自己的世界里,也可以让周围的人显得可笑和渺小。‘,
 ‘rank‘: ‘145‘,
 ‘star‘: ‘8.7‘,
 ‘time‘: ‘1988‘,
 ‘title‘: ‘雨人‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=125>
{‘category‘: ‘剧情 犯罪 悬疑‘,
 ‘comment‘: ‘228752‘,
 ‘director_actors‘: ‘导演: 忻钰坤 Yukun Xin主演: 霍卫民 Weimin Huo / 王笑天 Xiaotian Wang ‘
                    ‘...‘,
 ‘link‘: ‘https://movie.douban.com/subject/25917973/‘,
 ‘quote‘: ‘荒诞讽刺,千奇百巧,抽丝剥茧,百转千回。‘,
 ‘rank‘: ‘146‘,
 ‘star‘: ‘8.7‘,
 ‘time‘: ‘2014‘,
 ‘title‘: ‘心迷宫‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=125>
{‘category‘: ‘剧情 历史 战争‘,
 ‘comment‘: ‘143256‘,
 ‘director_actors‘: ‘导演: 特瑞·乔治 Terry George主演: 唐·钱德尔 Don Cheadle / 苏菲·奥...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1291822/‘,
 ‘quote‘: ‘当这个世界闭上双眼,他却敞开了怀抱。‘,
 ‘rank‘: ‘147‘,
 ‘star‘: ‘8.9‘,
 ‘time‘: ‘2004‘,
 ‘title‘: ‘卢旺达饭店‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=75>
{‘category‘: ‘喜剧 剧情 爱情‘,
 ‘comment‘: ‘118018‘,
 ‘director_actors‘: ‘导演: 查理·卓别林 Charles Chaplin主演: 查理·卓别林 Charles Chaplin ...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1294371/‘,
 ‘quote‘: ‘大时代中的人生,小人物的悲喜。‘,
 ‘rank‘: ‘97‘,
 ‘star‘: ‘9.2‘,
 ‘time‘: ‘1936‘,
 ‘title‘: ‘摩登时代‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=75>
{‘category‘: ‘剧情 家庭 奇幻 冒险‘,
 ‘comment‘: ‘303989‘,
 ‘director_actors‘: ‘导演: 蒂姆·波顿 Tim Burton主演: 伊万·麦克格雷格 Ewan McGregor / 阿...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1291545/‘,
 ‘quote‘: ‘抱着梦想而活着的人是幸福的,怀抱梦想而死去的人是不朽的。‘,
 ‘rank‘: ‘98‘,
 ‘star‘: ‘8.7‘,
 ‘time‘: ‘2003‘,
 ‘title‘: ‘大鱼‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=75>
{‘category‘: ‘剧情 惊悚‘,
 ‘comment‘: ‘411734‘,
 ‘director_actors‘: ‘导演: 中岛哲也 Tetsuya Nakashima主演: 松隆子 Takako Matsu / 冈田将生 ...‘,
 ‘link‘: ‘https://movie.douban.com/subject/4268598/‘,
 ‘quote‘: ‘没有一人完全善,也没有一人完全恶。‘,
 ‘rank‘: ‘99‘,
 ‘star‘: ‘8.7‘,
 ‘time‘: ‘2010‘,
 ‘title‘: ‘告白‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=75>
{‘category‘: ‘剧情 爱情 家庭‘,
 ‘comment‘: ‘185700‘,
 ‘director_actors‘: ‘导演: 杨德昌 Edward Yang主演: 吴念真 / 李凯莉 Kelly Lee / 金燕玲 Elai...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1292434/‘,
 ‘quote‘: ‘我们都曾经是一一。‘,
 ‘rank‘: ‘100‘,
 ‘star‘: ‘9.0‘,
 ‘time‘: ‘2000‘,
 ‘title‘: ‘一一‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=200>
{‘category‘: ‘剧情 爱情‘,
 ‘comment‘: ‘115940‘,
 ‘director_actors‘: ‘导演: Luc Besson主演: 让-马克·巴尔 Jean-Marc Barr / 让·雷诺 Jean ‘
                    ‘Re...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1300960/‘,
 ‘quote‘: ‘在那片深蓝中,感受来自大海的忧伤寂寞与美丽自由。‘,
 ‘rank‘: ‘224‘,
 ‘star‘: ‘8.7‘,
 ‘time‘: ‘1988‘,
 ‘title‘: ‘碧海蓝天‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=200>
{‘category‘: ‘科幻 悬疑 惊悚‘,
 ‘comment‘: ‘224481‘,
 ‘director_actors‘: ‘导演: 詹姆斯·沃德·布柯特 James Ward Byrkit主演: 艾米丽·芭尔多尼 Em...‘,
 ‘link‘: ‘https://movie.douban.com/subject/25807345/‘,
 ‘quote‘: ‘小成本大魅力。‘,
 ‘rank‘: ‘225‘,
 ‘star‘: ‘8.4‘,
 ‘time‘: ‘2013‘,
 ‘title‘: ‘彗星来的那一夜‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=125>
{‘category‘: ‘剧情 爱情‘,
 ‘comment‘: ‘365533‘,
 ‘director_actors‘: ‘导演: 乔·怀特 Joe Wright主演: 凯拉·奈特莉 Keira Knightley / 马修·...‘,
 ‘link‘: ‘https://movie.douban.com/subject/1418200/‘,
 ‘quote‘: ‘爱是摈弃傲慢与偏见之后的曙光。‘,
 ‘rank‘: ‘148‘,
 ‘star‘: ‘8.5‘,
 ‘time‘: ‘2005‘,
 ‘title‘: ‘傲慢与偏见‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=125>
{‘category‘: ‘剧情 喜剧 犯罪‘,
 ‘comment‘: ‘183367‘,
 ‘director_actors‘: ‘导演: 达米安·斯兹弗隆 Damián Szifron主演: 达里奥·葛兰帝内提 Darío...‘,
 ‘link‘: ‘https://movie.douban.com/subject/24750126/‘,
 ‘quote‘: ‘始于荒诞,止于更荒诞。‘,
 ‘rank‘: ‘149‘,
 ‘star‘: ‘8.8‘,
 ‘time‘: ‘2014‘,
 ‘title‘: ‘荒蛮故事‘}
2018-12-18 22:35:25 [scrapy.core.scraper] DEBUG: Scraped from <200 https://movie.douban.com/top250?start=125>
{‘category‘: ‘纪录片‘,
 ‘comment‘: ‘108078‘,
 ‘director_actors‘: ‘导演: 雅克·贝汉 Jacques Perrin / 雅克·克鲁奥德 Jacques Cluzaud主演:...‘,
 ‘link‘: ‘https://movie.douban.com/subject/3443389/‘,
 ‘quote‘: ‘大海啊,不全是水。‘,
 ‘rank‘: ‘150‘,
 ‘star‘: ‘9.0‘,
 ‘time‘: ‘2009‘,
 ‘title‘: ‘海洋‘}

以上仅为部分输出结果,让我们来查看一下mongoDB保存的数据,如下图:

这样就成功的使用scrapy框架爬取到了豆瓣电影TOP250的信息了。



结语:

  感觉scrapy框架功能很强大,还需要好好熟练和掌握,另外感觉自己写文章的功力还是没啥子进步啊,emm...还说点什么呢...今天的菠萝和葡萄不错。

  

原文地址:https://www.cnblogs.com/knowing/p/10138567.html

时间: 2024-10-07 05:27:02

03_使用scrapy框架爬取豆瓣电影TOP250的相关文章

基于python的scrapy框架爬取豆瓣电影及其可视化

1.Scrapy框架介绍 主要介绍,spiders,engine,scheduler,downloader,Item pipeline scrapy常见命令如下: 对应在scrapy文件中有,自己增加爬虫文件,系统生成items,pipelines,setting的配置文件就这些. items写需要爬取的属性名,pipelines写一些数据流操作,写入文件,还是导入数据库中.主要爬虫文件写domain,属性名的xpath,在每页添加属性对应的信息等. movieRank = scrapy.Fie

运维学python之爬虫高级篇(五)scrapy爬取豆瓣电影TOP250

对于scrapy我们前面已经介绍了简单的应用,今天我们用一个完整的例子,爬取豆瓣电影TOP250来做一个小的练习,把scrapy阶段做一个总结. 1 环境配置 语言:Python 3.6.1 IDE: Pycharm 浏览器:firefox 爬虫框架:Scrapy 1.5.0 操作系统:Windows 10 家庭中文版 2 爬取前分析 2.1 需要保存的数据 首先确定我们要获取的内容,在items中定义字段,来将非结构化数据生成结构化数据,获取的内容主要包括:排名.电影名称.得分.评论人数.如下

scrapy爬取豆瓣电影top250

1 # -*- coding: utf-8 -*- 2 # scrapy爬取豆瓣电影top250 3 4 import scrapy 5 from douban.items import DoubanItem 6 7 8 class DoubanspiderSpider(scrapy.Spider): 9 name = "doubanspider" 10 # allowed_domains = ["movie.douban.com/top250"]注意这里的主页限制

【转】爬取豆瓣电影top250提取电影分类进行数据分析

一.爬取网页,获取需要内容 我们今天要爬取的是豆瓣电影top250页面如下所示: 我们需要的是里面的电影分类,通过查看源代码观察可以分析出我们需要的东西.直接进入主题吧! 知道我们需要的内容在哪里了,接下来就使用我们python强大的request库先获取网页内容下来吧!获取内容后,再使用一个好用的lxml库来分析网页内容,然后获取我们的内容就可以做下一步操作了.先贴出使用request库和lxml分析的代码 1 def get_page(i): 2 url = 'https://movie.d

爬取豆瓣电影Top250和和豆瓣图书

豆瓣电影top250url:https://movie.douban.com/top250?start=0&filter= 首先f12进入检查CTRL +shift +c定位到标题 可以看到电影标题在<a>标签下,所以我们只要定位到a标签下就可以了,我们找到<a>标签的最上一级标签<div>标签属性class=item,好了现在我们大概有了思路了,现在让我来写代码吧 第一步:设置请求头headers headers = {'User-Agent': 'Mozil

利用selenium爬取豆瓣电影Top250

这几天在学习selenium,顺便用selenium + python写了一个比较简陋的爬虫,现附上源码,有时间再补充补充: 1 from selenium import webdriver 2 from selenium.webdriver.support.wait import WebDriverWait 3 from selenium.webdriver.support import expected_conditions as EC 4 from selenium.webdriver.c

scrapy框架爬取豆瓣读书(1)

1.scrapy框架 Scrapy,Python开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改.它也提供了多种类型爬虫的基类,如BaseSpider.sitemap爬虫等,最新版本又提供了web2.0爬虫的支持. 主要组件: 2.快速开始 scrapy startproject douban cd到douban根目录

用Scrapy爬虫爬取豆瓣电影排行榜数据,存储到Mongodb数据库

爬虫第一步:新建项目 选择合适的位置,执行命令:scrapy startproje xxxx(我的项目名:douban) 爬虫第二步:明确目标 豆瓣电影排行url:https://movie.douban.com/top250?start=0, 分析url后发现srart=后面的数字,以25的步长递增,最大为225,所以可以利用这个条件来发Request请求 本文只取了三个字段,电影名.评分和介绍,当然你想去更多信息也是可以的 item["name"]:电影名 item["r

Scrapy爬取豆瓣电影top250的电影数据、海报,MySQL存储

从GitHub得到完整项目(https://github.com/daleyzou/douban.git) 1.成果展示 数据库 本地海报图片 2.环境 (1)已安装Scrapy的Pycharm (2)mysql (3)连上网络的电脑 3.实体类设计 4.代码 items.py 1 class DoubanItem(scrapy.Item): 2 title = scrapy.Field() 3 bd = scrapy.Field() 4 star = scrapy.Field() 5 quot