告诉你那里最受欢迎,python爬取全国13个城市旅游数据

前言

文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取http://t.cn/A6Zvjdun

抓取数据

通过请求https://piao.qunar.com/ticket/list.htm?keyword=北京,获取北京地区热门景区信息,再通过BeautifulSoup去分析提取出我们需要的信息。

这里爬取了前4页的景点信息,每页有15个景点。因为去哪儿并没有什么反爬措施,所以直接请求就可以了。

这里随机选择了13个热门城市:北京、上海、成都、三亚、广州、重庆、深圳、西安、杭州、厦门、武汉、大连、苏州。

并将爬取的数据存到了MongoDB数据库 。

爬虫部分完整代码如下:

import requests
from bs4 import BeautifulSoup
from pymongo import MongoClient
?
class QuNaEr():
 def __init__(self, keyword, page=1):
 self.keyword = keyword
 self.page = page
?
 def qne_spider(self):
 url = ‘https://piao.qunar.com/ticket/list.htm?keyword=%s&region=&from=mpl_search_suggest&page=%s‘ % (self.keyword, self.page)
 response = requests.get(url)
 response.encoding = ‘utf-8‘
 text = response.text
 bs_obj = BeautifulSoup(text, ‘html.parser‘)
?
 arr = bs_obj.find(‘div‘, {‘class‘: ‘result_list‘}).contents
 for i in arr:
 info = i.attrs
 # 景区名称
 name = info.get(‘data-sight-name‘)
 # 地址
 address = info.get(‘data-address‘)
 # 近期售票数
 count = info.get(‘data-sale-count‘)
 # 经纬度
 point = info.get(‘data-point‘)
?
 # 起始价格
 price = i.find(‘span‘, {‘class‘: ‘sight_item_price‘})
 price = price.find_all(‘em‘)
 price = price[0].text
?
 conn = MongoClient(‘localhost‘, port=27017)
 db = conn.QuNaEr # 库
 table = db.qunaer_51 # 表
?
 table.insert_one({
 ‘name‘ : name,
 ‘address‘ : address,
 ‘count‘ : int(count),
 ‘point‘ : point,
 ‘price‘ : float(price),
 ‘city‘ : self.keyword
 })
?
?
?
if __name__ == ‘__main__‘:
 citys = [‘北京‘, ‘上海‘, ‘成都‘, ‘三亚‘, ‘广州‘, ‘重庆‘, ‘深圳‘, ‘西安‘, ‘杭州‘, ‘厦门‘, ‘武汉‘, ‘大连‘, ‘苏州‘]
 for i in citys:
 for page in range(1, 5):
 qne = QuNaEr(i, page=page)
 qne.qne_spider()

效果图如下:

有了数据,我们就可以分析出自己想要的东西了。

分析数据

1、最受欢迎的15个景区

由图可以看出,在选择的13个城市中,最热门的景区为上海的迪士尼乐园。

代码如下:

from pymongo import MongoClient
# 设置字体,不然无法显示中文
from pylab import *
?
mpl.rcParams[‘font.sans-serif‘] = [‘SimHei‘]
?
conn = MongoClient(‘localhost‘, port=27017)
db = conn.QuNaEr # 库
table = db.qunaer_51 # 表
?
result = table.find().sort([(‘count‘, -1)]).limit(15)
# x,y轴数据
x_arr = [] # 景区名称
y_arr = [] # 销量
for i in result:
 x_arr.append(i[‘name‘])
 y_arr.append(i[‘count‘])
?
"""
去哪儿月销量排行榜
"""
plt.bar(x_arr, y_arr, color=‘rgb‘) # 指定color,不然所有的柱体都会是一个颜色
plt.gcf().autofmt_xdate() # 旋转x轴,避免重叠
plt.xlabel(u‘景点名称‘) # x轴描述信息
plt.ylabel(u‘月销量‘) # y轴描述信息
plt.title(u‘拉钩景点月销量统计表‘) # 指定图表描述信息
plt.ylim(0, 4000) # 指定Y轴的高度
plt.savefig(‘去哪儿月销售量排行榜‘) # 保存为图片
plt.show()

2、景区热力图

这里为了方便,只展示一下北京地区的景区热力图。用到了百度地图的开放平台。首先需要先注册开发者信息,首页底部有个申请秘钥的按钮,点击进行创建就可以了。我的应用类型选择的是浏览器端,因此只需要组装数据替换掉相应html代码即可。另外还需要将自己访问应用的AK替换掉。效果图如下:

3、景区价格

价格是出游第一个要考虑的,一开始想统计一下各城市的平均价格,但是后来发现效果不是很好,比如北京的刘老根大舞台价格在580元,这样拉高了平均价格。就好比姚明和潘长江的平均身高在190cm,并没有什么说服力。所以索性展示一下景区的价格分布。

根据价格设置了六个区间:

通过上图得知,大部分的景区门票价格都在200元以下。每次旅游花费基本都在交通、住宿、吃吃喝喝上了。门票占比还是比较少的。

实现代码如下:

arr = [[0, 50], [50,100], [100, 200], [200,300], [300,500], [500,1000]]
name_arr = []
total_arr = []
for i in arr:
 result = table.count({‘price‘: {‘$gte‘: i[0], ‘$lt‘: i[1]}})
 name = ‘%s元 ~ %s元 ‘ % (i[0], i[1])
 name_arr.append(name)
 total_arr.append(result)
?
color = ‘red‘, ‘orange‘, ‘green‘, ‘blue‘, ‘gray‘, ‘goldenrod‘ # 各类别颜色
explode = (0.2, 0, 0, 0, 0, 0) # 各类别的偏移半径
?
# 绘制饼状图
pie = plt.pie(total_arr, colors=color, explode=explode, labels=name_arr, shadow=True, autopct=‘%1.1f%%‘)
?
plt.axis(‘equal‘)
plt.title(u‘热点旅游景区门票价格比例‘, fontsize=12)
?
plt.legend(loc=0, bbox_to_anchor=(0.82, 1)) # 图例
# 设置legend的字体大小
leg = plt.gca().get_legend()
ltext = leg.get_texts()
plt.setp(ltext, fontsize=6)
# 显示图
plt.show()

你一般旅游都去哪呢?

原文地址:https://www.cnblogs.com/python0921/p/12598354.html

时间: 2024-08-19 05:15:53

告诉你那里最受欢迎,python爬取全国13个城市旅游数据的相关文章

爬取链家任意城市租房数据(北京朝阳)

1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 # @Time : 2019-08-16 15:56 4 # @Author : Anthony 5 # @Email : [email protected] 6 # @File : 爬取链家任意城市租房数据.py 7 8 9 import requests 10 from lxml import etree 11 import time 12 import xlrd 13 import os

爬取链家任意城市二手房数据(天津)

1 #!/usr/bin/env python 2 # -*- coding: utf-8 -*- 3 # @Time : 2019-08-16 12:40 4 # @Author : Anthony 5 # @Email : [email protected] 6 # @File : 爬取链家任意城市二手房数据.py 7 8 9 import requests 10 from lxml import etree 11 import time 12 import xlrd 13 import o

Python爬取商家联系电话以及各种数据

上次学会了爬取图片,这次就想着试试爬取商家的联系电话,当然,这里纯属个人技术学习,爬取过后及时删除,不得用于其它违法用途,一切后果自负. 首先我学习时用的是114黄页数据. 下面四个是用到的模块,前面2个需要安装一下,后面2个是python自带的. import requests from bs4 import BeautifulSoup import csv import time 然后,写个函数获取到页面种想要的数据,记得最后的return返回一下,因为下面的函数要到把数据写到csv里面.

Python爬取全国历史天气数据

1.通过爬取历史首页,来获取城市地址和历史时间,构建链接: ''' 获取全国的城市名称和链接 ''' import requests from lxml import etree import random import pymongo from time_list import get_time client = pymongo.MongoClient('localhost',27017) tianqi_data = client['tianqi_data'] time_url_table =

Python爬取彩票双色球并存到把数据excel表格里

环境:python3 目的:爬取15年的双色球开奖号以及期数和开奖日期: 上代码 #!/usr/bin/env python3 #-*-coding:utf-8-*- # @Author  : 杜文涛 # @Time    : 2018/4/19 16:01 # @File    : cpssq.py #彩票双色球数据 import requests import re import xlwt import time def get_all_page():     global all_page

python爬取某个网页的图片-如百度贴吧

python爬取某个网页的图片-如百度贴吧 作者:vpoet 日期:大约在冬季 注:随意copy,不用告诉我 #coding:utf-8 import urllib import urllib2 import re if __name__ =="__main__": rex=r'src="(http://imgsrc.baidu.com/forum/w%3D580.*?\.jpg)"'; Response=urllib2.urlopen("http://t

表哥用Python爬取数千条淘宝商品数据后,发现淘宝这些潜规则!

本文记录了笔者用 Python 爬取淘宝某商品的全过程,并对商品数据进行了挖掘与分析,最终得出结论. 项目内容 本案例选择商品类目:沙发. 数量:共 100 页 4400 个商品. 筛选条件:天猫.销量从高到低.价格 500 元以上. 项目目的 对商品标题进行文本分析,词云可视化 不同关键词 word 对应的 sales 的统计分析 商品的价格分布情况分析 商品的销量分布情况分析 不同价格区间的商品的平均销量分布 商品价格对销量的影响分析 商品价格对销售额的影响分析 不同省份或城市的商品数量分布

Python爬取视频指南

摘自:https://www.jianshu.com/p/9ca86becd86d 前言 前两天尔羽说让我爬一下菜鸟窝的教程视频,这次就跟大家来说说Python爬取视频的经验 正文 https://www.cniao5.com/ 菜鸟窝上有很多教程视频,但是这些视频好像没有直接的下载地址,而且有些教程视频还是有期限的,那么问题就产生了我看的速度比较慢而且视频又很多,没等我看完视频就到期了怎么办?这时候写一个爬虫将这些教程视频下载下来就很好地解决了这个问题 当然,对于某些视频网站的VIP电影.视频

使用python爬取csdn博客访问量

最近学习了python和爬虫,想写一个程序练练手,所以我就想到了大家都比较关心的自己的博客访问量,使用python来获取自己博客的访问量,这也是后边我将要进行的项目的一部分,后边我会对博客的访问量进行分析,以折线图和饼图等可视化的方式展示自己博客被访问的情况,使自己能更加清楚自己的哪些博客更受关注,博客专家请勿喷,因为我不是专家,我听他们说专家本身就有这个功能. 一.网址分析 进入自己的博客页面,网址为:http://blog.csdn.net/xingjiarong 网址还是非常清晰的就是cs