requests---requests简介

  在做接口测试的时候都会用到很多工具,如postman、jmeter、soupUI等工具,除了这些工具外,我们也可以用python的第3方库requests来做接口测试。

request简介

requests是python实现的简单易用的HTTP库,属于python的第3方库,通过pip进行安装使用。

requests中文文档:https://2.python-requests.org//zh_CN/latest/user/quickstart.html#

requests安装

1.打开cmd

2.通过pip进行安装

# 安装requests
pip install requests

requests发送get请求

源码:

def get(url, params=None, **kwargs):
    r"""Sends a GET request.

    :param url: URL for the new :class:`Request` object.
    :param params: (optional) Dictionary, list of tuples or bytes to send
        in the body of the :class:`Request`.
    :param \*\*kwargs: Optional arguments that ``request`` takes.
    :return: :class:`Response <Response>` object
    :rtype: requests.Response
    """

    kwargs.setdefault(‘allow_redirects‘, True)
    return request(‘get‘, url, params=params, **kwargs)

1.首先导入requests模块

2.选择get方法请求地址:https://www.cnblogs.com/qican/

3.可以查看请求的返回内容

# coding:utf-8
# 导入模块
import requests
# 请求地址
url = ‘https://www.cnblogs.com/qican/‘ r = requests.get(url) # 请求返回内容 text = r.text print(text)

4.请求携带参数params

5.请求地址:http://zzk.cnblogs.com/s/blogpost?

6.请求参数书写以字典形式编写如{ "Keywords":  "python 爬虫" }

# coding:utf-8
# 导入requests模块
import requests
# 携带参数
params = {
   "Keywords": "python 爬虫"
}
# 请求地址
url = ‘http://zzk.cnblogs.com/s/blogpost?‘
r = requests.get(url,params=params)
text = r.text
print(text)

requests请求post

源码:

def post(url, data=None, json=None, **kwargs):
    r"""Sends a POST request.

    :param url: URL for the new :class:`Request` object.
    :param data: (optional) Dictionary, list of tuples, bytes, or file-like
        object to send in the body of the :class:`Request`.
    :param json: (optional) json data to send in the body of the :class:`Request`.
    :param \*\*kwargs: Optional arguments that ``request`` takes.
    :return: :class:`Response <Response>` object
    :rtype: requests.Response
    """

    return request(‘post‘, url, data=data, json=json, **kwargs)

1.导入requests模块

2.选择post方法请求:http://apis.juhe.cn/simpleWeather/query

3.输入参数格式{”name“:”value“}

# coding:utf-8
import requests # 导入模块
url = ‘http://apis.juhe.cn/simpleWeather/query‘      # 请求地址
# 请求参数
data = {
    "city":"上海",
    "key":"331eab8f3481f37868378fcdc76cb7cd"
}
r = requests.post(data=data,url=url)
print(r.text)

返回值其他内容

r.text # 返回全部内容
r.url  # 返回的url地址
r.content  # 返回解码后的内容
r.cookies  # 返回cookies
r.headers   # 返回携带的请求头
r.status_code  # 返回状态码
r.json() # 返回json格式

原文地址:https://www.cnblogs.com/qican/p/11153054.html

时间: 2024-10-28 03:33:09

requests---requests简介的相关文章

python Requests模块的使用简介

Requests的安装: pip install Requests Requests的使用: import requests url = "http://www.mzitu.com" response = requests.get(url) # 获得请求 response.encoding = "utf-8" # 改变其编码 html = response.text # 获得网页内容 binary__content = response.content # 获得二进

爬虫简介和requests模块

目录 爬虫介绍 requests模块 requests模块 1.requests模块的基本使用 2.get 请求携带参数,调用params参数,其本质上还是调用urlencode 3.携带headers,请求头是将自身伪装成浏览器的关键 4.带cookie 5.发送post请求(注册,登陆),携带数据(body) 6.session对象 7.响应对象 8.乱码问题 9.解析json 10.使用代理 11.异常处理 12.上传文件(爬虫用的比较少,一般用于后台写服务,将爬取下来的文件上传给其他服务

python 安装插件 requests

安装第三方插件库 1. requests  , 下载地址 https://github.com/requests/requests 安装: 利用 pip 安装 pip3 install requests 或 easy_install requests (两个方法都没有成功,因为我的cmd 有问题) 我用的比较暴力的方法,就是下载直接解压在python目录下面: 然后开始召唤cmd 运行 setup.py install , 我的天哪,居然成功了,哈哈 2. BeautifulSoup 将压缩包解

python爬虫 - python requests网络请求简洁之道

http://blog.csdn.net/pipisorry/article/details/48086195 requests简介 requests是python的一个HTTP客户端库,跟urllib,urllib2类似,但是python的标准库urllib2提供了大部分需要的HTTP功能,但是API太逆天了,一个简单的功能就需要一大堆代码. Requests 使用的是 urllib3,因此继承了它的所有特性.Requests 支持 HTTP 连接保持和连接池,支持使用 cookie 保持会话

python爬虫之requests的基本使用

简介 Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP库,Requests它会比urllib更加方便,可以节约我们大量的工作. 一.安装 pip快速安装 1 pip install requests 二.使用 1.先上一串代码 1 2 3 4 5 6 7 8 9 10 11 12 13 14 import requests response  = requests.get("https://www.baidu.com"

爬虫之requests模块

引入 在学习爬虫之前可以先大致的了解一下HTTP协议~ HTTP协议:https://www.cnblogs.com/peng104/p/9846613.html 爬虫的基本流程 简介 简介:Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP库,Requests它会比urllib更加方便,可以节约我们大量的工作.一句话,requests是python实现的最简单易用的HTTP库,建议爬虫使用requests库.默认安装好pyth

爬虫基础之requests模块

1. 爬虫简介 1.1 概述 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本. 1.2 爬虫的价值 在互联网的世界里最有价值的便是数据, 谁掌握了某个行业的行业内的第一手数据, 谁就是该行业的主宰. 掌握了爬虫技能, 你就成了所有互联网信息公司幕后的老板, 换言之,它们都在免费为你提供有价值的数据. 1.3 robots.txt协议 如果自己的门户网站中的指定页面中的数据不想让爬虫程序爬取到的话,那么

requests应用

一.简介 什么是requests模块: requests模块是python中原生的基于网络请求的模块,其主要作用是用来模拟浏览器发起请求.功能强大,用法简洁高效.在爬虫领域中占据着半壁江山的地位. 为什么要使用requests模块 因为在使用urllib模块的时候,会有诸多不便之处,总结如下: 手动处理url编码 手动处理post请求参数 处理cookie和代理操作繁琐 ...... 使用requests模块: 自动处理url编码 自动处理post请求参数 简化cookie和代理操作 .....

03 requests模块基础

1. requests 模块简介 什么是requests 模块 requests模块是python中原生的基于网络请求的模块,功能强大,用法简洁高效.在爬虫领域中占据着半壁江山的地位.requests模块作用:模拟浏览器发请求. 为什么要使用requests 模块 因为在使用urllib模块的时候,会有诸多不便之处,总结如下: 手动处理url编码 手动处理post请求参数 处理cookie和代理操作繁琐 ...... 而使用requests模块的优势: 自动处理url编码 自动处理post请求参

让http服务人类(python之requests做接口测试)

让http服务人类 最优雅的http请求库(python的http请求库有很多,比如urllib2,urllib3,httplib). requests库简介 requests库是基于urllib3库封装的第三方http请求库,在python中requests应用最广泛的应该属网络爬虫方面,对于测试来说,我们对于requests的应用主要是接口测试方面. 实例(1)创建一个请求: httpbin:这个网站专门是为了给http做测试用的. import requests #导入requests模块