Requests模块—请求

1. 安装

pip install requests
import requests

2. 使用

(1) GET

1. 语法
    requests.get(url, params=None, **kwargs)
    - url:向服务器发送的url
    - params:添加url请求参数
    - proxies[代理ip]
    - headers[请求头信息]
2. 举例
    import requests
    # UA伪装,请求载体的身份标识
    headers = {
        'User-Agent':xxx
    }
    url = 'http://douban.com'
    data = {"name":"python"}
    response = requests.get(url=url, params=data, headers=headers)
属性 说明
response.text 获取响应文本
response.content 获取网页上的二进制图片、视频
response.encoding 获取网页编码
response.encoding="utf-8" 设置网页编码
response.status_code 获取响应状态码
response.headers 获取响应头信息
response.cookies 获取cookies信息
response.url 获取url信息
response.history 获取history信息

(2) POST

1. 语法格式
    requests.post(url, data=None, json=None, **kwargs)
    - url:向服务器发送url请求
    - data:提交表单数据
2. 案例
    import requests
    url = 'https://baidu.com'
    headers = {
        'User-Agent':xxx
    }
    form_data = {'name':'py', 'pwd':'123'}
    response = requests.post(url=url, data=form_data,headers=headers)

原文地址:https://www.cnblogs.com/hq82/p/10792459.html

时间: 2024-10-19 21:24:46

Requests模块—请求的相关文章

requests模块请求参数中特殊字符%的处理

问题:使用requests模块进行数据请求时,params中的数据中包含有%时,在生成的url链接中该参数值出错,导致请求码401 原因:请求发出后,在解析url和params时,urllib模块中会通过self._encode_params对params进行处理,最后追加所有参数的时候,使用了quote_plus方法导致了%字符转译成了%25 解决办法,对含有%字符的参数值使用unquote_plus方法处理一下就OK了 原文地址:https://www.cnblogs.com/ruijing

爬虫-requests模块

requests模块:python中原生的一款基于网络请求的模块,功能非常强大,简单便捷,效率极高. 作用:模拟浏览器发请求. requests模块的使用流程 1.指定url 2.发起请求 UA伪装 请求参数的处理 3.获取响应数据 4.持久化存储 requrest模块基本知识点 import requests import json url = "www.baidu.com" headers = { 'User-Agent': 'Mozilla/5.0 (Macintosh; Int

requests模块--python发送http请求

requests模块 在Python内置模块(urllib.urllib2.httplib)的基础上进行了高度的封装,从而使得Pythoner更好的进行http请求,使用Requests可以轻而易举的完成浏览器可有的任何操作.Requests 是使用 Apache2 Licensed 许可证的 基于Python开发的HTTP 库. requests使用 一.GET请求 向 https://github.com/timeline.json 发送一个GET请求,将请求和响应相关均封装在 ret 对象

Python接口测试-使用requests模块发送post请求

本篇主要记录下使用python的requests模块发送post请求的实现代码. #coding=utf-8 import unittest import requests class PostTest(unittest.TestCase): def setUp(self): host = 'https://httpbin.org/' endpoint = 'post' self.url = ''.join([host, endpoint]) def testPost(self): params

请求库之requests模块

一 介绍 #介绍:使用requests可以模拟浏览器的请求,比起之前用到的urllib,requests模块的api更加便捷(本质就是封装了urllib3) #注意:requests库发送请求将网页内容下载下来以后,并不会执行js代码,这需要我们自己分析目标站点然后发起新的request请求 #安装:pip3 install requests #各种请求方式:常用的就是requests.get()和requests.post() >>> import requests >>&

python学习笔记-day8-3-【python 网络请求及requests模块】

python的网络请求,主要是进行Http协议类接口调用,进行接口测试等. 一.urllib库,python内嵌的库,不太好用. from urllib import request,parse import json # url = 'http://baidu.com' # req = request.urlopen(url) #打开一个url # content = req.read().decode() # fw = open('nnzhp.html', 'w', encoding='ut

在requests模块中使用代理发送请求

1. 代理概述 玩爬虫为什么我们不能使用一个固定IP发送请求 你使用一个固定IP发送每秒向对方服务器发送10几个请求,对方认为这样操作不是人干的, 就把你IP给封了 服务器端的人可以根据你IP很快锁定你, 要求你对这种窃取行为赔偿. 代理 正向代理与反向代理 正向代理与反向代理的区别 反向代理: 服务器端知道代理的存在,反向代理是为了保护服务器或负责负载均衡 但是客户端不知道代理的存在的 正向代理: 客户端知道代理的存在,正向代理是为保护客户端,防止追究责任. 但是服务端不知道真实的客户端 2.

python 爬虫 基于requests模块的get请求

需求:爬取搜狗首页的页面数据 import requests # 1.指定url url = 'https://www.sogou.com/' # 2.发起get请求:get方法会返回请求成功的响应对象 response = requests.get(url=url) # 3.获取响应中的数据:text属性作用是可以获取响应对象中字符串形式的页面数据 page_data = response.text # 4.持久化数据 with open("sougou.html","w&

python 爬虫 基于requests模块发起ajax的get请求

基于requests模块发起ajax的get请求 需求:爬取豆瓣电影分类排行榜 https://movie.douban.com/中的电影详情数据 用抓包工具捉取 使用ajax加载页面的请求 鼠标往下下滚轮拖动页面,会加载更多的电影信息,这个局部刷新是当前页面发起的ajax请求, 用抓包工具捉取页面刷新的ajax的get请求,捉取滚轮在最底部时候发起的请求 这个get请求是本次发起的请求的url ajax的get请求携带参数 获取响应内容不再是页面数据,是json字符串,是通过异步请求获取的电影