Python看春运,万条拼车数据背后的春节迁徙地图

Python看春运,万条拼车数据背后的春节迁徙地图

今天是正月初九,春运返程也已过半。这篇文章,作者对北京、上海、广州、深圳、杭州等地 1万多条出行数据进行分析,得出了一些有意思的结论,并且绘制了这几个城市春运的迁移图。虽然数据在取样公平性上不能完全符合标准,但是思路还是值得大家学习参考的~

目录

  • 前言
  • 统计结果
  • 爬虫思路
  • 统计思路
  • 后记

前言

很早之前发过一篇关于某拼车平台爬虫的文章,因为工作比较忙,一直没有下文。最近年底稍微空了些,加上碰上春节返乡大潮,刚好再拿过来写一下数据分析的思路。

本次数据样本共13041条,本别采集了北京、上海、广州、深圳、杭州的某一天出行数据,由于手动操作难以保证取样的公平性,所以不能对全部数据结果的准确性做保证,本文以提供思路参考为主,先放一张路线图:

统计结果

好了知道大家比较关心结果,所以先把结果放一放,后面再接着讲分析过程。

  • 乘客性别

先单独把性别拎出来看一下,后面再根据城市进行分析,结果显示,抛开未设置性别的乘客不论,总体来看顺风车的用户群中,男性(占比 49.39%)还是多于女性(占比 31.55%)的。毕竟跨城顺风车,大过年的,女性乘客对于安全性的忧虑还有要有的。

  • 城市订单

真实数据的话订单数量应该是深圳 > 北京 > 广州 > 上海 > 杭州,但是同一个城市内的乘客性别比例应该还是具有一定的参考价值的,可以看到北京、上海、深圳的女性乘客数量占比都是高于男性的。

  • 客单价

原本是想比较一下平均路程长度,但是想想这个事情太折腾了,由于平台主要还是依靠路程来计算拼车费用的,所以通过计算客单价的话大概也能反映一下平均形成长度(我猜的,然后结果是这样的,没想到广州是最高的,也可能是我统计错误。

  • 哪里乘客最壕

有时候有些偏远地区订单或者顺路司机少,乘客会加价希望司机接单,于是统计了一下各城市加价订单的占比和平均的加价额度,得出如下结果

占比最高的城市是深圳,平均加价额度最高的城市也是深圳,看来深圳的小哥哥小姐姐们的确出手阔错,然而加价比例最低的是北京,不过这也不能说明帝都人民不壕气,可能就是人家繁华,司机多。

  • 返乡路线图

最后放几张返乡的路线图

北京

上海

广州

深圳

杭州

杭州明显有别与其它几个城市,一个是杭州的数据样本多,另外一个平台上杭州黄牛多,那些最远的单子就是黄牛广告单。

爬虫思路:注册成为司机,利用 mitm 抓包存储拼车单

统计思路:数据的话我是通过本地 Mongodb 存储,所以直接用 python 操作 Mongodb 数据

Pymongo:关于 Mongodb 数据库的连接,直接上代码:

client = MongoClient(‘mongodb://localhost:27017‘)
spring = client.spring
collection = spring[‘orders‘]

以上代码的意思就是连接本地 Mongodb-spring 数据库 -orders 文档集合

Pyecharts:是大名鼎鼎的 Echarts 的 Python 可视化图表库,用起来挺顺手的,而且文档规范,基本上可以零门槛入门,具体实现请移步文档。

Pyecharts(http://pyecharts.org)

这里介绍一下关于 Pyecharts 的图表样式配置,为了保持各图表的样式统一(偷懒),Pyecharts 提供了一个 Style 类,可用于在同一个图或者多个图内保持统一的风格。

rom pyecharts import Style,Geo

style = Style(
   title_color="#fff",
   title_pos="center",
   width=1100,
   height=600,
   background_color=‘#404a59‘
)
# style.init_style 会返回类初始化的风格配置字典
geo = Geo("全国主要城市空气质量", "data from pm2.5", **style.init_style)

代码解读

因为全部代码有点长,所以抽了一段举个例子,主要思路就是从 Mongodb 取出指定数据,或者通过 $group 管道对数据进行处理,最后通过 pyecharts 生成相应的图表,呈现

from pymongo import MongoClient
from pyecharts import Style,GeoLines

def getLines(self):
   # 连接数据库
   client = MongoClient(‘mongodb://localhost:27017‘)
   spring = self.client.spring
   collection = self.spring[‘orders‘]

   # Mongodb的操作,$match-筛选出‘from_poi.city.city_name‘为‘杭州‘的文档,
   # 再通过$group管道,按照目标城市统计出汇总数量
   line_hangzhou = collection.aggregate([
       {‘$match‘: {‘from_poi.city.city_name‘: ‘杭州‘}},
       {‘$group‘: {‘_id‘: ‘$to_poi.city.city_name‘, ‘count‘: {‘$sum‘: 1}}}
   ])
   # 按照Geolines图表的数据格式格式化数据
   line_hangzhou_ = []
   for line in line_hangzhou:
       line_hangzhou_.append(["杭州", line[‘_id‘], line[‘count‘]])

   # 创建一个GeoLines图表
   citylines = GeoLines("春节迁移路线图", **style.init_style)
   # 添加数据以及样式
   citylines.add("从杭州出发",
                 line_hangzhou_,
                 **geo_style)
   # 生成html文件
   citylines.render("results/citylines.html")

后记

这是一篇迟到很久的文章,本来没打算再写,但是总觉得下半部分没写完心里有个结,所以还是抽时间补上。另外作为一个非专业技术人员,多记多练免得过几天自己就忘了。

源码地址附上:

https://github.com/bkidy/Dida_spider

原文地址:https://www.cnblogs.com/paisenpython/p/10371647.html

时间: 2025-01-11 09:59:13

Python看春运,万条拼车数据背后的春节迁徙地图的相关文章

贩卖470余万条12306用户数据的人被抓了!

"首都网警"称,贩卖 470 余万条 12306 用户数据的人被抓了! 2018 年 12 月 28 日,北京市公安局网络安全保卫总队(以下简称网安总队)工作中发现,网传有人利用互联网贩卖 470 余万条疑似 12306 铁路订票网站的用户数据,而中国铁路总公司官方微博回应"网传信息不实,12306网站未发生用户信息泄露". 获此情况后,网安总队与西城分局成立专案组开展工作.经查,一网络用户"deepscorpions"在网上贩卖疑似 12306

1000万条用户名密码数据概览

一名安全研究员发布了一份包含1000万条记录的用户名.密码文件.原文可见: Today I Am Releasing Ten Million Passwords 下载下来看看: 确实是刚好有1000万条记录 $ wc -l 10-million-combos.txt 10000000 10-million-combos.txt 共有两列,分别是username.password $ head 10-million-combos.txt 0000 00000000 0000 00001 0000

做微信没有的 易信拼车是在拼命

一段时间以来,无论媒体还是自媒体对易信的关注度都不再像易信刚出世时那样狂热了,这是因为大部分人潜意识认为易信无法打败微信,所以也就失去了舆论话题性,不过,丁磊可是仍对易信充满信心呢. 有此认识的最大依据就是易信与微信产品同质化,用户社交关系很难迁移.不过,若这个逻辑要是正确的,那易信实行产品差异化发展不就解决难题了嘛.事实也是这样,陌陌也是与微信同类产品,但依托陌生人社交的产品定位在微信的阴影下杀出了一条血路,这说明,微信仅是迎合大众常规需求的中庸之做,细分服务市场仍存在相当多的机会. 易信同样

(转)Python网络爬虫实战:世纪佳缘爬取近6万条数据

又是一年双十一了,不知道从什么时候开始,双十一从“光棍节”变成了“双十一购物狂欢节”,最后一个属于单身狗的节日也成功被攻陷,成为了情侣们送礼物秀恩爱的节日. 翻着安静到死寂的聊天列表,我忽然惊醒,不行,我们不能这样下去,光羡慕别人有什么用,我们要行动起来,去找自己的幸福!!! 我也想“谈不分手的恋爱” !!!内牛满面!!! 注册登陆一气呵成~ 筛选条件,嗯...性别女,年龄...18到24岁,身高嘛,无所谓啦,就按默认155-170吧,地区...嗯北京好,北京近一点,照片?那肯定要啊,必须的!!

《一出好戏》讲述人性,使用Python抓取猫眼近10万条评论并分析,一起揭秘“这出好戏”到底如何?

黄渤首次导演的电影<一出好戏>自8月10日在全国上映,至今已有10天,其主演阵容强大,相信许多观众也都是冲着明星们去的.目前<一出好戏>在猫眼上已经获得近60万个评价,评分为8.2分,票房已破10亿. 作者本人(汤小洋 )今天也走进了电影院,对这部电影做了亲身的观看,看完后的感觉是有些许失落的,本以为是喜剧片,结果发现笑点一般,从搞笑的角度来看,不如<西虹市首富>,影片更多的是反映人类本性的一部电影,不应当做喜剧片来看,影片中展现的人与人之间的关系倒是值得我们去深思.

QTreeView处理大量数据(使用1000万条数据,每次都只是部分刷新)

如何使QTreeView快速显示1000万条数据,并且内存占用量少呢?这个问题困扰我很久,在网上找了好多相关资料,都没有找到合理的解决方案,今天在这里把我的解决方案提供给朋友们,供大家相互学习. 我开始使用的QTreeWidget 控件来显示我的数据,发现该控件在显示10000行以下的数据还可以应付的过来,但超过10000条,就明显感觉到屏幕刷新就会有卡的现象,而且占据内存很大,虽然操作起来简单方便,但灵活性没有QTreeView强大.因为我要显示的数据量是非常大的,甚至过1000万,因此,采用

极限挑战—C#+ODP 100万条数据导入Oracle数据库仅用不到1秒

链接地址:http://www.cnblogs.com/armyfai/p/4646213.html 要:在这里我们将看到的是C#中利用ODP实现在Oracle数据库中瞬间导入百万级数据,这对快速批量导入的实现有重要意义. .Net程序中可以通过ODP调用特性,对Oracle数据库进行操作,今天来讲一下数据批量插入的功能,所用技术不高不深,相信很多朋友都接触过,小弟班门弄斧了,呵呵.这篇文章是上篇文章的续集,因为上一次试验的征集结果没有突破4秒的方法,所以这次继续挑战与挖掘新方法,虽然是Orac

给你100万条数据的一张表,你将如何查询优化?

1.两种查询引擎查询速度(myIsam 引擎 ) InnoDB 中不保存表的具体行数,也就是说,执行select count(*) from table时,InnoDB要扫描一遍整个表来计算有多少行. MyISAM只要简单的读出保存好的行数即可. 注意的是,当count(*)语句包含 where条件时,两种表的操作有些不同,InnoDB类型的表用count(*)或者count(主键),加上where col 条件.其中col列是表的主键之外的其他具有唯一约束索引的列.这样查询时速度会很快.就是可

如何快速的将已知的1000万条数据插入到数据库中

首先,可以定义1个1000万次的循环,每次循环插入1条数据,当1000万次循环全部执行结束,则插入完成! 也可以使用1条INSERT语句插入多条数据,例如: INSERT INTO t_user (username, password, age, phone, email) VALUES ('user01', 'password01', 11, '13800138001', '[email protected]'), ('user02', 'password02', 12, '138001380