python 之 requests

快速上手

迫不及待了吗?本页内容为如何入门Requests提供了很好的指引。其假设你已经安装了Requests。如果还没有, 去 安装 一节看看吧。

首先,确认一下:

让我们从一些简单的示例开始吧。

发送请求

使用Requests发送网络请求非常简单。

一开始要导入Requests模块:

>>> import requests

然后,尝试获取某个网页。本例子中,我们来获取Github的公共时间线

>>> r = requests.get(‘https://github.com/timeline.json‘)

现在,我们有一个名为 r 的 Response 对象。可以从这个对象中获取所有我们想要的信息。

Requests简便的API意味着所有HTTP请求类型都是显而易见的。例如,你可以这样发送一个HTTP POST请求:

>>> r = requests.post("http://httpbin.org/post")

漂亮,对吧?那么其他HTTP请求类型:PUT, DELETE, HEAD以及OPTIONS又是如何的呢?都是一样的简单:

>>> r = requests.put(" 
>>> r = requests.delete(" 
>>> r = requests.head(" 
>>> r = requests.options("http://httpbin.org/get")

都很不错吧,但这也仅是Requests的冰山一角呢。

为URL传递参数

你也许经常想为URL的查询字符串(query string)传递某种数据。如果你是手工构建URL,那么数据会以键/值 对的形式置于URL中,跟在一个问号的后面。例如,httpbin.org/get?key=val 。 Requests允许你使用 params 关键字参数,以一个字典来提供这些参数。举例来说,如果你想传递 key1=value1 和 key2=value2 到 httpbin.org/get ,那么你可以使用如下代码:

>>> payload = {‘key1‘: ‘value1‘, ‘key2‘: ‘value2‘}
>>> r = requests.get("http://httpbin.org/get", params=payload)

通过打印输出该URL,你能看到URL已被正确编码:

>>> print r.urlu‘http://httpbin.org/get?key2=value2&key1=value1‘

响应内容

我们能读取服务器响应的内容。再次以Github时间线为例:

>>> import requests
>>> r = requests.get(‘ 
>>> r.text‘[{"repository":{"open_issues":0,"url":"https://github.com/...

Requests会自动解码来自服务器的内容。大多数unicode字符集都能被无缝地解码。

请求发出后,Requests会基于HTTP头部对响应的编码作出有根据的推测。当你访问r.text 之时,Requests会使用其推测的文本编码。你可以找出Requests使用了什么编码,并且能够使用 r.encoding 属性来改变它:

>>> r.encoding‘utf-8‘
>>> r.encoding = ‘ISO-8859-1‘

如果你改变了编码,每当你访问 r.text ,Request都将会使用 r.encoding 的新值。

在你需要的情况下,Requests也可以使用定制的编码。如果你创建了自己的编码,并使用codecs 模块进行注册,你就可以轻松地使用这个解码器名称作为 r.encoding 的值, 然后由Requests来为你处理编码。

二进制响应内容

你也能以字节的方式访问请求响应体,对于非文本请求:

>>> r.contentb‘[{"repository":{"open_issues":0,"url":"https://github.com/...

Requests会自动为你解码 gzip 和 deflate 传输编码的响应数据。

例如,以请求返回的二进制数据创建一张图片,你可以使用如下代码:

>>> from PIL import Image
>>> from StringIO import StringIO
>>> i = Image.open(StringIO(r.content))

JSON响应内容

Requests中也有一个内置的JSON解码器,助你处理JSON数据:

>>> import requests
>>> r = requests.get(‘ 
>>> r.json()[{u‘repository‘: {u‘open_issues‘: 0, u‘url‘: ‘https://github.com/...

如果JSON解码失败, r.json 就会抛出一个异常。

原始响应内容

在罕见的情况下你可能想获取来自服务器的原始套接字响应,那么你可以访问 r.raw 。 如果你确实想这么干,那请你确保在初始请求中设置了 stream=True 。具体的你可以这么做:

>>> r = requests.get(‘https://github.com/timeline.json‘, stream=True)
>>> r.raw<requests.packages.urllib3.response.HTTPResponse object at 0x101194810
>>>> r.raw.read(10)‘\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03‘

定制请求头

如果你想为请求添加HTTP头部,只要简单地传递一个 dict 给 headers 参数就可以了。

例如,在前一个示例中我们没有指定content-type:

>>> import json
>>> url = ‘ 
>>> payload = {‘some‘: ‘data‘}
>>> headers = {‘content-type‘: ‘application/json‘}
>>> r = requests.post(url, data=json.dumps(payload), headers=headers)

更加复杂的POST请求

通常,你想要发送一些编码为表单形式的数据—非常像一个HTML表单。 要实现这个,只需简单地传递一个字典给 data 参数。你的数据字典 在发出请求时会自动编码为表单形式:

>>> payload = {‘key1‘: ‘value1‘, ‘key2‘: ‘value2‘}
>>> r = requests.post("http://httpbin.org/post", data=payload)
>>> print r.text{  ...  "form": {    "key2": "value2",    "key1": "value1"  },  ...}

很多时候你想要发送的数据并非编码为表单形式的。如果你传递一个 string 而不是一个dict ,那么数据会被直接发布出去。

例如,Github API v3接受编码为JSON的POST/PATCH数据:

>>> import json
>>> url = ‘ 
>>> payload = {‘some‘: ‘data‘}
>>> r = requests.post(url, data=json.dumps(payload))

POST一个多部分编码(Multipart-Encoded)的文件

Requests使得上传多部分编码文件变得很简单:

>>> url = ‘ 
>>> files = {‘file‘: open(‘report.xls‘, ‘rb‘)}
>>> r = requests.post(url, files=files)
>>> r.text{  ...  "files": {    "file": "<censored...binary...data>"  },  ...}

你可以显式地设置文件名:

>>> url = ‘ 
>>> files = {‘file‘: (‘report.xls‘, open(‘report.xls‘, ‘rb‘))}
>>> r = requests.post(url, files=files)
>>> r.text{  ...  "files": {    "file": "<censored...binary...data>"  },  ...}

如果你想,你也可以发送作为文件来接收的字符串:

>>> url = ‘ 
>>> files = {‘file‘: (‘report.csv‘, ‘some,data,to,send\nanother,row,to,send\n‘)}
>>> r = requests.post(url, files=files)
>>> r.text{  ...  "files": {    "file": "some,data,to,send\\nanother,row,to,send\\n"  },  ...}

响应状态码

我们可以检测响应状态码:

>>> r = requests.get(‘ 
>>> r.status_code200

为方便引用,Requests还附带了一个内置的状态码查询对象:

>>> r.status_code == requests.codes.okTrue

如果发送了一个失败请求(非200响应),我们可以通过 Response.raise_for_status() 来抛出异常:

>>> bad_r = requests.get(‘ 
>>> bad_r.status_code404>>> bad_r.raise_for_status()Traceback (most recent call last):
  File "requests/models.py", line 832, in raise_for_status
    raise http_errorrequests.exceptions.HTTPError: 404 Client Error

但是,由于我们的例子中 r 的 status_code 是 200 ,当我们调用 raise_for_status() 时,得到的是:

>>> r.raise_for_status()None

一切都挺和谐哈。

响应头

我们可以查看以一个Python字典形式展示的服务器响应头:

>>> r.headers{    ‘status‘: ‘200 OK‘,    ‘content-encoding‘: ‘gzip‘,    
‘transfer-encoding‘: ‘chunked‘,    ‘connection‘: ‘close‘,    ‘server‘: ‘nginx/1.0.4‘,    
‘x-runtime‘: ‘148ms‘,    ‘etag‘: ‘"e1ca502697e5c9317743dc078f67693f"‘,    
‘content-type‘: ‘application/json; charset=utf-8‘}

但是这个字典比较特殊:它是仅为HTTP头部而生的。根据 RFC 2616 , HTTP头部是大小写不敏感的。

因此,我们可以使用任意大写形式来访问这些响应头字段:

>>> r.headers[‘Content-Type‘]‘application/json; charset=utf-8‘
>>> r.headers.get(‘content-type‘)‘application/json; charset=utf-8‘

如果某个响应头字段不存在,那么它的默认值为 None

>>> r.headers[‘X-Random‘]None

Cookies

如果某个响应中包含一些Cookie,你可以快速访问它们:

>>> url = ‘ 
>>> r = requests.get(url)
>>> r.cookies[‘example_cookie_name‘]‘example_cookie_value‘

要想发送你的cookies到服务器,可以使用 cookies 参数:

>>> url = ‘ 
>>> cookies = dict(cookies_are=‘working‘)
>>> r = requests.get(url, cookies=cookies)
>>> r.text‘{"cookies": {"cookies_are": "working"}}‘

重定向与请求历史

使用GET或OPTIONS时,Requests会自动处理位置重定向。

Github将所有的HTTP请求重定向到HTTPS。可以使用响应对象的 history 方法来追踪重定向。 我们来看看Github做了什么:

>>> r = requests.get(‘ 
>>> r.url‘ 
>>> r.status_code200
>>> r.history[<Response [301]>]

Response.history 是一个:class:Request 对象的列表,为了完成请求而创建了这些对象。这个对象列表按照从最老到最近的请求进行排序。

如果你使用的是GET或OPTIONS,那么你可以通过 allow_redirects 参数禁用重定向处理:

>>> r = requests.get(‘http://github.com‘, allow_redirects=False)
>>> r.status_code301>>> r.history[]

如果你使用的是POST,PUT,PATCH,DELETE或HEAD,你也可以启用重定向:

>>> r = requests.post(‘http://github.com‘, allow_redirects=True)
>>> r.url‘https://github.com/‘>>> r.history[<Response [301]>]

超时

你可以告诉requests在经过以 timeout 参数设定的秒数时间之后停止等待响应:

>>> requests.get(‘http://github.com‘, timeout=0.001)Traceback (most recent call last):
  File "<stdin>", line 1, in <module>requests.exceptions.Timeout: 
  HTTPConnectionPool(host=‘github.com‘, port=80): Request timed out. (timeout=0.001)

注:

timeout 仅对连接过程有效,与响应体的下载无关。

错误与异常

遇到网络问题(如:DNS查询失败、拒绝连接等)时,Requests会抛出一个ConnectionError 异常。

遇到罕见的无效HTTP响应时,Requests则会抛出一个 HTTPError 异常。

若请求超时,则抛出一个 Timeout 异常。

若请求超过了设定的最大重定向次数,则会抛出一个 TooManyRedirects 异常。

所有Requests显式抛出的异常都继承自 requests.exceptions.RequestException 。

时间: 2024-10-09 20:32:30

python 之 requests的相关文章

49.Python使用requests包进行HTTP交互方法详解

简介 使用方法 传递QUERY参数 定制请求头 填写cookie 填充请求体 处理响应对象 重定向与访问历史 超时 Session对象 根据响应获取请求 SSL认证 HTTP认证 基本认证 摘要认证 代理场景 HTTPHTTPS代理 SOCKS代理 简介 Python的HTTP包有urllib.urllib2.httplib等,但是都需要了解较多的HTTP原理才能编码,借助requests包可以在较高的抽象层次上完成HTTP交互过程的开发.安装requests使用pip install requ

Python 爬虫—— requests BeautifulSoup

本文记录下用来爬虫主要使用的两个库.第一个是requests,用这个库能很方便的下载网页,不用标准库里面各种urllib:第二个BeautifulSoup用来解析网页,不然自己用正则的话很烦. requests使用,1直接使用库内提供的get.post等函数,在比简单的情况下使用,2利用session,session能保存cookiees信息,方便的自定义request header,可以进行登陆操作. BeautifulSoup使用,先将requests得到的html生成BeautifulSo

python用requests和urllib2两种方式调用图灵机器人接口

最近从网上看见个有意思的图灵机器人,可以根据不同的信息智能回复,比如你发送一个"讲个笑话",它就会给你回复一个笑话,或者"北京天气"就可以回复天气情况,或者英文单词然后给你回复中文释义.官方文档中有php和java的调用方式,我就弄个python的吧. 注册获取API KEY 这一步很简单,直接注册一个账号就可以看到你的API KEY.这个KEY我们以后发送get请求的时候需要用到. Pythoh调用示例 掉用也比较简单,主要是模拟post 请求.然后解析 json

Python——安装requests第三方库

一.介绍 requests是Python的一个HTTP客户端库,跟urllib,urllib2类似,不过requests的优势在于使用简单,相同一个功能,用requests实现起来代码量要少很多.毕竟官方文档都很直白的说: python的标准库urllib2提供了大部分需要的HTTP功能,但是API太逆天了,一个简单的功能就需要一大堆代码. 所以,使用requests方便的多. 二.下载安装 注:没有配置好Python开发环境的同学可以先戳配置Python开发环境 1.首先去这里requests

让http服务人类(python之requests做接口测试)

让http服务人类 最优雅的http请求库(python的http请求库有很多,比如urllib2,urllib3,httplib). requests库简介 requests库是基于urllib3库封装的第三方http请求库,在python中requests应用最广泛的应该属网络爬虫方面,对于测试来说,我们对于requests的应用主要是接口测试方面. 实例(1)创建一个请求: httpbin:这个网站专门是为了给http做测试用的. import requests #导入requests模块

Python使用requests時遇到Failed to establish a new connection

再寫Zeppelin的CLI工具的時候https://github.com/del680202/zdairi 遇到了開起太多connection這樣一個錯誤 requests.exceptions.ConnectionError: HTTPConnectionPool(host='xxxxx', port=xxxxx): Max retries exceeded with url: /api/notebook/2BG5CTGN7/paragraph/20160407-173136_8279522

解决python爬虫requests.exceptions.SSLError: HTTPSConnectionPool(host=&#39;XXX&#39;, port=443)问题

爬虫时报错如下: requests.exceptions.SSLError: HTTPSConnectionPool(host='某某某网站', port=443): Max retries exceeded with url: /login/ (Caused by SSLError(SSLError("bad handshake: Error([('SSL routines', 'tls_process_server_certificate', 'certificate verify fail

python之requests库使用

requests库 虽然Python的标准库中 urllib模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests宣传是 “HTTP for Humans”,说明使用更简洁方便. 安装和文档地址: 利用pip可以非常方便的安装: pip install requests 中文文档:http://docs.python-requests.org/zh_CN/latest/index.htmlgithub地址:https://github.com/re

python之requests模块-cookie

cookie并不陌生,与session一样,能够让http请求前后保持状态.与session不同之处,在于cookie数据仅保存于客户端.requests也提供了相应到方法去处理cookie. 在python之requests模块-session中,我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie.当我们想设置方法级别中的请求时,可以如下面示例一样操作. import requests s = requests.session(

python之requests模块-hook

requests提供了hook机制,让我们能够在请求得到响应之后去做一些自定义的操作,比如打印某些信息.修改响应内容等.具体用法见下面的例子: import requests # 钩子函数1 def print_url(r, *args, **kwargs): print("raw_url "+r.url) # 钩子函数2 def change_url(r, *args, **kwargs): r.url = 'http://change.url' print("change