Python利器一之requests

Python利器一之requests

一.教程涉及开发语言、脚本、框架、数据库等内容

  • Python + requests
    通过 pip 安装:
pip install requests

通过 easy_install 安装:

easy_install requests

通过以上两种方法均可以完成安装。

二.requests常用请求方式

requests库提供了http所有的基本请求方式,下边是官方例子,使用起来也比较简单,直接请求方式原理请参考协议

req = requests.get("http://httpbin.org/post")
req = requests.post("http://httpbin.org/post")
req = requests.put("http://httpbin.org/put")
req = requests.delete("http://httpbin.org/delete")
req = requests.head("http://httpbin.org/get")
req = requests.options("http://httpbin.org/get")

三.实战示例

  • requests使用小栗子
import requests
req = requests.get(‘http://www.cnblogs.com‘)
print(type(req))
print(req.status_code)
print(req.encoding)
print(req.text)
print(req.cookies)

以上代码我们请求了博客园网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

返回结果:
<class ‘requests.models.Response‘>
200
utf-8
<RequestsCookieJar[]>
[Finished in 0.6s]

四.实现请求

  • 模拟登录请求
import requests
data = {"admin":1}
req = requests.post("http://127.0.0.1/login", data=data)
print(req.text)

通过运行返回:

{"欢迎admin登录":"0", "token":"xxxxxxxxxx"}
  • 通过上边返回的token实现get请求
import requests
headers={"token":"xxxxxxxxxx"}
req = requests.get("http://127.0.0.1/userinfo", headers=headers)
print(req.text)

通过运行返回:

{"user":"admin","msg":"测试"}

通过以上教程实验,相信你已掌握requests的使用。

原文地址:https://www.cnblogs.com/BenLam/p/10172438.html

时间: 2024-10-09 14:51:04

Python利器一之requests的相关文章

Python爬虫基础之requests

一.随时随地爬取一个网页下来 怎么爬取网页?对网站开发了解的都知道,浏览器访问Url向服务器发送请求,服务器响应浏览器请求并返回一堆HTML信息,其中包括html标签,css样式,js脚本等.我们之前用的是Python标准基础库Urllib实现的, 现在我们使用Python的Requests HTTP库写个脚本开始爬取网页.Requests的口号很响亮“让HTTP服务人类“,够霸气. 二.Python Requests库的基本使用 1.GET和POST请求方式 GET请求 1 import re

Python 第三方 http 库-Requests 学习

Requests 是用Python语言编写,基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库.它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求 一.安装 Requests 通过pip安装 Code example: 1 $ pip install requests 或者,下载代码后安装: Code example: 1 2 3 $ git clone git://github.com/kennethreitz/requests

04,Python网络爬虫之requests模块(1)

Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档症.抑郁.头疼.甚至死亡. 今日概要 基于requests的get请求 基于requests模块的post请求 基于requests模块ajax的get请求 基于requests模块ajax的post请求 综合项目练习:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据 知识点回顾 常见

爬虫学习 04.Python网络爬虫之requests模块(1)

爬虫学习 04.Python网络爬虫之requests模块(1) 引入 Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档症.抑郁.头疼.甚至死亡. 今日概要 基于requests的get请求 基于requests模块的post请求 基于requests模块ajax的get请求 基于requests模块ajax的post请求 综合项目练习:爬取国家药品监

爬虫学习 06.Python网络爬虫之requests模块(2)

爬虫学习 06.Python网络爬虫之requests模块(2) 今日内容 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 知识点回顾 xpath的解析流程 bs4的解析流程 常用xpath表达式 常用bs4解析方法 了解cookie和session - 无状态的http协议 如上图所示,HTTP协议 是无状态的协议,用户浏览服务器上的内容,只需要发送页面请求,服务器返回内容.对于服务器来说,并不关心,也并不知道是哪个用户的请求.对于一般浏览性的网页来说

Ubuntu中python环境下import requests错误的解决(学习过程问题记录)

python中导入模块:import requests提示错误,错误信息描述如下: >>>import requests Traceback (most recent last):   File "<stdin>", line 1, in <module> ImportError:No module named requests 意思就是说没有名为requests的模块,解决方案是在命令行下使用 pip install requests 来进行

python笔记8:requests模块

简介: requests是python的一个http客户端库,跟urlib.urlib2类似,requests模块是基于urlib模块开发的,代码实现更为简洁. 模块安装: pip install requests ,使用requests模块时直接import requests即可. 简单使用requests: http协议的接口,请求方式分为get和post,这2种最为常用.请求参数常用的形式有key-value.json.文件上传.接口添加cookies.headers等操作. get请求-

【Python数据分析】Python模拟登录(一) requests.Session应用

最近由于某些原因,需要用到Python模拟登录网站,但是以前对这块并不了解,而且目标网站的登录方法较为复杂, 所以一下卡在这里了,于是我决定从简单的模拟开始,逐渐深入地研究下这块. 注:本文仅为交流学习所用. 登录特点:明文传输,有特殊标志数据 会话对象requests.Session能够跨请求地保持某些参数,比如cookies,即在同一个Session实例发出的所有请求都保持同一个cookies,而requests模块每次会自动处理cookies,这样就很方便地处理登录时的cookies问题.

python网络编程,requests模块

可以使用python自带的urllib模块去请求一个网站,或者接口,但是urllib模块太麻烦了,传参数的话,都得是bytes类型,返回数据也是bytes类型,还得解码,想直接把返回结果拿出来使用的话,还得用json,发get请求和post请求,也不通,使用比较麻烦,还有一个比较方便的模块,比urllib模块方便很多,就是requests模块,它使用比较方便,需要安装,pip install requests即可,下面是requests模块的实例 import requests pay_url