python将请求的requests headers参数格式化方法

from:https://www.jb51.net/article/153889.html

import json

 

# 使用三引号将浏览器复制出来的requests headers参数赋值给一个变量

headers = """

Host: zhan.qq.com

Proxy-Connection: keep-alive

Content-Length: 799432

Pragma: no-cache

Cache-Control: no-cache

Origin: http://zhan.qq.com

User-Agent: Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36

Content-Type: multipart/form-data; boundary=----WebKitFormBoundaryuptjZg9xmsfWzngP

Accept: */*

Referer: http://zhan.qq.com/edit/site/beta/2005406545/index.html?164097

Accept-Encoding: gzip, deflate

Accept-Language: zh-CN,zh;q=0.9,en;q=0.8

Cookie: pgv_pvi=4342937600; RK=xFr4lrf07R; ptcz=a247c6170fb56cb4d5d41bf8461f11097a9be27bc7e7dc8b921254de9b1c924b;

"""

 

# 去除参数头尾的空格并按换行符分割

headers = headers.strip().split(‘\n‘)

 

# 使用字典生成式将参数切片重组,并去掉空格,处理带协议头中的://

headers = {x.split(‘:‘)[0].strip(): ("".join(x.split(‘:‘)[1:])).strip().replace(‘//‘, "://") for x in headers}

 

# 使用json模块将字典转化成json格式打印出来

print(json.dumps(headers,indent=1))

原文地址:https://www.cnblogs.com/yanhuidj/p/11603831.html

时间: 2024-10-09 14:51:01

python将请求的requests headers参数格式化方法的相关文章

Python利器一之requests

Python利器一之requests 一.教程涉及开发语言.脚本.框架.数据库等内容 Python + requests 通过 pip 安装: pip install requests 通过 easy_install 安装: easy_install requests 通过以上两种方法均可以完成安装. 二.requests常用请求方式 requests库提供了http所有的基本请求方式,下边是官方例子,使用起来也比较简单,直接请求方式原理请参考协议 req = requests.get("htt

python非转基因HTTP请求库--Requests: 让 HTTP 服务人类

快速上手 迫不及待了吗?本页内容为如何入门 Requests 提供了很好的指引.其假设你已经安装了 Requests.如果还没有,去安装一节看看吧. 首先,确认一下: Requests 已安装 Requests 是最新的 让我们从一些简单的示例开始吧. 发送请求 使用 Requests 发送网络请求非常简单. 一开始要导入 Requests 模块: >>> import requests 然后,尝试获取某个网页.本例子中,我们来获取 Github 的公共时间线: >>>

接口测试工具-Jmeter使用笔记(三:管理请求服务器信息和Headers参数)

如果使用Jmeter同时执行多个http请求任务,就需要创建多个HTTP取样器,每一个取样器都来手动填写服务器信息和端口号,会非常消耗时间. 解决方法:Jmeter之HTTP请求默认值 1.添加方式 "线程"右键->添加->配置元件->选中HTTP请求默认值 2.配置好服务器IP和端口以后,新建一个HTTP取样器,不填写服务器信息. 3.运行,检查结果. 可以看出该配置元件是作用于整个线程内的,对该线程内的所有HTTP请求都生效. 参数列表: Attribute De

Python爬虫基础之requests

一.随时随地爬取一个网页下来 怎么爬取网页?对网站开发了解的都知道,浏览器访问Url向服务器发送请求,服务器响应浏览器请求并返回一堆HTML信息,其中包括html标签,css样式,js脚本等.我们之前用的是Python标准基础库Urllib实现的, 现在我们使用Python的Requests HTTP库写个脚本开始爬取网页.Requests的口号很响亮“让HTTP服务人类“,够霸气. 二.Python Requests库的基本使用 1.GET和POST请求方式 GET请求 1 import re

python笔记8:requests模块

简介: requests是python的一个http客户端库,跟urlib.urlib2类似,requests模块是基于urlib模块开发的,代码实现更为简洁. 模块安装: pip install requests ,使用requests模块时直接import requests即可. 简单使用requests: http协议的接口,请求方式分为get和post,这2种最为常用.请求参数常用的形式有key-value.json.文件上传.接口添加cookies.headers等操作. get请求-

Python 第三方 http 库-Requests 学习

Requests 是用Python语言编写,基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库.它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求 一.安装 Requests 通过pip安装 Code example: 1 $ pip install requests 或者,下载代码后安装: Code example: 1 2 3 $ git clone git://github.com/kennethreitz/requests

【Python数据分析】Python模拟登录(一) requests.Session应用

最近由于某些原因,需要用到Python模拟登录网站,但是以前对这块并不了解,而且目标网站的登录方法较为复杂, 所以一下卡在这里了,于是我决定从简单的模拟开始,逐渐深入地研究下这块. 注:本文仅为交流学习所用. 登录特点:明文传输,有特殊标志数据 会话对象requests.Session能够跨请求地保持某些参数,比如cookies,即在同一个Session实例发出的所有请求都保持同一个cookies,而requests模块每次会自动处理cookies,这样就很方便地处理登录时的cookies问题.

python网络编程,requests模块

可以使用python自带的urllib模块去请求一个网站,或者接口,但是urllib模块太麻烦了,传参数的话,都得是bytes类型,返回数据也是bytes类型,还得解码,想直接把返回结果拿出来使用的话,还得用json,发get请求和post请求,也不通,使用比较麻烦,还有一个比较方便的模块,比urllib模块方便很多,就是requests模块,它使用比较方便,需要安装,pip install requests即可,下面是requests模块的实例 import requests pay_url 

人生苦短之Python的urllib urllib2 requests

在Python中涉及到URL请求相关的操作涉及到模块有urllib,urllib2,requests,其中urllib和urllib2是Python自带的HTTP访问标准库,requsets是第三方库,需要自行安装.requests是第三方库,可以想到在使用起来它可能是最方便的一个. urllib和urllib2       urllib和urllib2模块都是跟url请求相关的,但是提供的功能是不同的.我们常用的urllib2的请求方式: response = urllib2.urlopen(