去哪儿网酒店爬虫

获取去哪儿网酒店数据

URL = ‘https://hotel.qunar.com/napi/list‘
data = {    "b": {        "bizVersion": "17",        "cityUrl": "beijing_city",        "fromDate": "2020-03-07",        "toDate": "2020-03-08",        "q": "",        "qFrom": 3,        "start": 20,        "num": 20,        "minPrice": 0,        "maxPrice": -1,        "level": "",        "sort": 0,        "cityType": 1,        "fromForLog": 1,        "uuid": "",        "userName": "",        "userId": "",        "fromAction": "",        "searchType": 0,        "locationAreaFilter": [],        "comprehensiveFilter": []    },    "qrt": "h_hlist",    "source": "website"}
headers = {  ‘authority‘: ‘hotel.qunar.com‘,  ‘pragma‘: ‘no-cache‘,  ‘cache-control‘: ‘no-cache‘,  ‘accept‘: ‘application/json, text/plain, */*‘,  ‘sec-fetch-dest‘: ‘empty‘,  ‘user-agent‘: ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36‘,  ‘content-type‘: ‘application/json;charset=UTF-8‘,  ‘origin‘: ‘https://hotel.qunar.com‘,  ‘sec-fetch-site‘: ‘same-origin‘,  ‘sec-fetch-mode‘: ‘cors‘,  ‘referer‘: ‘https://hotel.qunar.com/cn/beijing_city/?fromDate=2020-03-06&toDate=2020-03-07&cityName=%E5%8C%97%E4%BA%AC‘,  ‘accept-language‘: ‘zh-CN,zh;q=0.9,en;q=0.8‘,}
resp = requests.post(URL, headers=headers, data=data)

这样请求返回400.研究发现,是因为data数据需要是字符串型才可以。
data =  json.dumps(data)

这样返回200

headers中referer 与 content-type 必须有。

原文地址:https://www.cnblogs.com/zwp-627/p/12436422.html

时间: 2024-11-02 23:10:59

去哪儿网酒店爬虫的相关文章

集体亏损,去哪儿网何以逆市而上

就在上个月,国内四大上市旅游公司都纷纷公布了自己的第四季度财报,亏损一片,景象十分惨重.不过在这个一片亏损的现象背后却出现了一个怪圈,去哪儿市值近日连续大涨,短短半个多月涨幅超过55%.目前去哪儿的市值已经超过50亿美元,位居中国互联网公司的第14位,中概股的第9位. 对此,很多人表示了不解和困惑,同样是亏损,去哪儿凭什么能够获得资本如此亲睐?带着系列疑问,刘旷经过仔细调查过后发现,去哪儿之所以会出现大幅度的亏损,其主要原因就是因为把钱花在了市场的扩张上,导致成本大增.但同时也正是因为大笔的烧钱

去哪儿网怎么沦为骗子的平台了,一步步揭开去哪儿网欺骗消费者的把戏

先让我大哭一会儿 如今的去哪儿网真是牛摆哄哄,明目张胆诓骗老用户啊, 好伤心,好难过,被骗了,被坑了. 之前一直在去哪儿订机票,还没发现有什么不对的地方 知道今天,我才悔恨不已啊, 此事还得从头说起: 年初我从北京回成都 因为是大年三十,回家乡都江堰非常不方便 朋友推荐说,去哪儿还有一特好的功能,就是接机包车 我立即看了看手机上的去哪儿客户端,一看价格公道,车辆也不错,就试了试 后来 的真实经历也   确实   服务很好, 所以返程的时候 点了去哪儿去的包车 但是....但是...去哪儿这么快就

互联网金融爬虫怎么写-第一课 p2p网贷爬虫(XPath入门)

相关教程: 手把手教你写电商爬虫-第一课 找个软柿子捏捏 手把手教你写电商爬虫-第二课 实战尚妆网分页商品采集爬虫 手把手教你写电商爬虫-第三课 实战尚妆网AJAX请求处理和内容提取 手把手教你写电商爬虫-第四课 淘宝网商品爬虫自动JS渲染 手把手教你写电商爬虫-第五课 京东商品评论爬虫 一起来对付反爬虫 工具要求:教程中主要使用到了 1.神箭手云爬虫 框架  这个是爬虫的基础,2.Chrome浏览器和Chrome的插件XpathHelper 这个用来测试Xpath写的是否正确 基础知识:本教程

百度网盘爬虫(如何爬取百度网盘)

因为要做去转盘网(分类模式点我),所以一定要爬取网盘资源,本来想自己写一个爬虫挺不容易的,不想分享出来,但最后还是决定了拿给大家一起看吧,毕竟有交流才有进步,有兴趣的朋友也可以看看我写的其他日志或者关注我,会发现去转盘网的大部分技术现在可以说是公开状态,如有对你有帮助还是认真读读吧,下面是爬虫代码,我立马公开: ps:不会python的孩子先去学学python,代码是python写的 我附上点资料:点我下载1 点我下载2 其实还有个磁力站,不过暂时技术不想公开出来,之后也想公开,喜欢的看看:ok

使用 Scrapy 爬取去哪儿网景区信息

Scrapy 是一个使用 Python 语言开发,为了爬取网站数据,提取结构性数据而编写的应用框架,它用途广泛,比如:数据挖掘.监测和自动化测试.安装使用终端命令 pip install Scrapy 即可. Scrapy 比较吸引人的地方是:我们可以根据需求对其进行修改,它提供了多种类型的爬虫基类,如:BaseSpider.sitemap 爬虫等,新版本提供了对 web2.0 爬虫的支持. 1 Scrapy 介绍 1.1 组成 Scrapy Engine(引擎):负责 Spider.ItemP

去哪网实习总结:java读写excel表格(JavaWeb)

本来是以做数据挖掘的目的进去哪网的,结构却成了系统开发... 不过还是比较认真的做了三个月,老师很认同我的工作态度和成果... 实习马上就要结束了,总结一下几点之前没有注意过的变成习惯和问题,分享给大家. 同时打个广告:去哪网内审部招JavaWeb开发实习生,时间非常自由,每周一天.周六周日甚至都可以,时间充裕的小伙伴给我留言啊,挣个零花钱,还能长点经验....(保研的.想工作的大四狗最合适不过了...) 需哟的包(java操作excel包 jxl.jar):http://download.cs

去哪网实习总结:easyui在JavaWeb中的使用,以datagrid为例(JavaWeb)

本来是以做数据挖掘的目的进去哪网的,结构却成了系统开发... 不过还是比较认真的做了三个月,老师很认同我的工作态度和成果... 实习马上就要结束了,总结一下几点之前没有注意过的变成习惯和问题,分享给大家. 同时打个广告:去哪网内审部招JavaWeb开发实习生,时间非常自由,每周一天.周六周日甚至都可以,时间充裕的小伙伴给我留言啊,挣个零花钱,还能长点经验....(保研的.想工作的大四狗最合适不过了...) 首先,CSS结构: 其次,页面引用方式: <script type="text/ja

去哪网实习总结:JavaWeb中使用jquery提交表单(JavaWeb)

本来是以做数据挖掘的目的进去哪网的,结构却成了系统开发... 不过还是比较认真的做了三个月,老师很认同我的工作态度和成果... 实习马上就要结束了,总结一下几点之前没有注意过的变成习惯和问题,分享给大家. 同时打个广告:去哪网内审部招JavaWeb开发实习生,时间非常自由,每周一天.周六周日甚至都可以,时间充裕的小伙伴给我留言啊,挣个零花钱,还能长点经验....(保研的.想工作的大四狗最合适不过了...) <span style="white-space:pre"> <

大话去哪儿网备份恢复平台

来源:http://mp.weixin.qq.com/s/ldu7iS5c3d0ND3foPYoLXQ 作者简介:许子文 曾任达梦高级数据库工程师,现任去哪儿网高级DBA,负责MySQL .Hbase运维和自动化运维工具的开发.在RDBMS拥有多年数据库架构设计.性能优化和运维经验,对海量数据有丰富的运维经验和个人见解. 备份恢复是DBA日常运维工作中的重中之重??怎么快速高效完成备份和恢复??怎么有效平衡DB数据量和业务重要等级??接下来从技术和业务的角度介绍Qunar数据库备份恢复平台的演变