爬虫requests库的方法与参数

爬虫requests库的方法与参数

import requests

"""
# 1. 方法
    requests.get
    requests.post
    requests.put
    requests.delete
    ...
    requests.request(method=‘POST‘)
"""
# 2. 参数
"""
    2.1  url
    2.2  headers
    2.3  cookies
    2.4  params
    2.5  data,传请求体

            requests.post(
                ...,
                data={‘user‘:‘alex‘,‘pwd‘:‘123‘}
            )

            GET /index http1.1\r\nhost:c1.com\r\n\r\nuser=alex&pwd=123

    2.6  json,传请求体
            requests.post(
                ...,
                json={‘user‘:‘alex‘,‘pwd‘:‘123‘}
            )

            GET /index http1.1\r\nhost:c1.com\r\nContent-Type:application/json\r\n\r\n{"user":"alex","pwd":123}
    2.7 代理 proxies
        # 无验证
            proxie_dict = {
                "http": "61.172.249.96:80",
                "https": "http://61.185.219.126:3128",
            }
            ret = requests.get("https://www.proxy360.cn/Proxy", proxies=proxie_dict)

        # 验证代理
            from requests.auth import HTTPProxyAuth

            proxyDict = {
                ‘http‘: ‘77.75.105.165‘,
                ‘https‘: ‘77.75.106.165‘
            }
            auth = HTTPProxyAuth(‘用户名‘, ‘密码‘)

            r = requests.get("http://www.google.com",data={‘xxx‘:‘ffff‘} proxies=proxyDict, auth=auth)
            print(r.text)
    -----------------------------------------------------------------------------------------
    2.8 文件上传 files
        # 发送文件
            file_dict = {
                ‘f1‘: open(‘xxxx.log‘, ‘rb‘)
            }
            requests.request(
                method=‘POST‘,
                url=‘http://127.0.0.1:8000/test/‘,
                files=file_dict
            )

    2.9 认证 auth

        内部:
            用户名和密码,用户和密码加密,放在请求头中传给后台。

                - "用户:密码"
                - base64("用户:密码")
                - "Basic base64("用户|密码")"
                - 请求头:
                    Authorization: "basic base64("用户|密码")"

        from requests.auth import HTTPBasicAuth, HTTPDigestAuth

        ret = requests.get(‘https://api.github.com/user‘, auth=HTTPBasicAuth(‘wupeiqi‘, ‘sdfasdfasdf‘))
        print(ret.text)

    2.10 超时 timeout
        # ret = requests.get(‘http://google.com/‘, timeout=1)
        # print(ret)

        # ret = requests.get(‘http://google.com/‘, timeout=(5, 1))
        # print(ret)

    2.11 允许重定向  allow_redirects
        ret = requests.get(‘http://127.0.0.1:8000/test/‘, allow_redirects=False)
        print(ret.text)

    2.12 大文件下载 stream
        from contextlib import closing
        with closing(requests.get(‘http://httpbin.org/get‘, stream=True)) as r1:
        # 在此处理响应。
        for i in r1.iter_content():
            print(i)

    2.13 证书 cert
        - 百度、腾讯 => 不用携带证书(系统帮你做了)
        - 自定义证书
            requests.get(‘http://127.0.0.1:8000/test/‘, cert="xxxx/xxx/xxx.pem")
            requests.get(‘http://127.0.0.1:8000/test/‘, cert=("xxxx/xxx/xxx.pem","xxx.xxx.xx.key"))
    2.14 确认 verify =False
"""

requests.get(‘http://127.0.0.1:8000/test/‘, cert="xxxx/xxx/xxx.pem")

原文地址:https://www.cnblogs.com/amyleell/p/9227067.html

时间: 2024-08-04 08:33:37

爬虫requests库的方法与参数的相关文章

python中requests库get方法带参数请求

起因是想爬五等分的花嫁的漫画.这是其中的一个坑 先上代码 data={ 'cid':567464, 'page':1, 'key':'', 'language':1, 'gtk':6, '_cid':567464, '_mid':34949, '_dt':'2019-05-03 13:03:08', '_sign':'e74c8c52618a64a454dd7f12aff3cc1c' }def getFun(url,data): ret=requests.get(url,params=data)

[爬虫] requests库

requests库的7个常用方法 requests.request() 构造一个请求,支撑以下各种方法的基础方法 requests.get() 获取HTML网页的主要方法,对应于HTTP的GET requests.head() 获取HTML网页头信息的方法,对应于HTTP的HEAD requests.post() 向HTML网页提交POST请求的方法,对应于HTTP的POST requests.put() 向HTML网页提交PUT请求的方法,对应于HTTP的PUT requests.patch(

python中requests库使用方法详解

一.什么是Requests Requests 是?ython语?编写,基于urllib,采?Apache2 Licensed开源协议的 HTTP 库.它? urllib 更加?便,可以节约我们?量的?作,完全满?HTTP测试需求. ?句话--Python实现的简单易?的HTTP库 二.安装Requests库 进入命令行win+R执行 命令:pip install requests 项目导入:import requests 三.各种请求方式 直接上代码,不明白可以查看我的urllib的基本使用方法

爬虫——Requests库初识

1.Requests是什么 首先Requests是HTTP库,在爬虫中用于请求的相关功能. 而且requests是python实现的最简单易用的HTTP库,建议爬虫使用requests库. 默认安装好python之后,是没有安装requests模块的,需要单独通过pip安装. 2.Requests的使用 import requests response = requests.get('https://www.baidu.com') print(response.text) print(respo

python爬虫---requests库的用法

requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多 因为是第三方库,所以使用前需要cmd安装 pip install requests 安装完成后import一下,正常则说明可以开始使用了. 基本用法: requests.get()用于请求目标网站,类型是一个HTTPresponse类型 import requests response = requests.get('http://www.baidu.com')print(response.status_c

人生苦短之HTTP协议及Requests库的方法

requests库的主要方法:requests.request()构造一个请求    requests.get()获取HTML网页的主要方法,对应于HTTP的GET    requests.head()获取HTML网页头的方法,对应于HTTP的HEAD    requests.post()向网页提交POST请求,对应于HTTP的POST    requests.put()向HTML网页提交PUT请求,对应于HTTP的PUT    requests.patch()向HTML网页提交局部修改请求,对

深入requests库params|data|json参数

一.params params:字典或者字节序列,作为参数增加到URL中.不仅访问URL,还可以向服务器携带参数. 简单来讲也就是说对于原来的网址进行内容的提交形成新的url 举例演示 data ={ 'wd':'ywy', } rp = requests.get('https://www.baidu.com/s',params=data) print(rp.url) print('-'*200) rp_1 = requests.get('https://www.baidu.com/s?wd=y

爬虫requests库

response.text 返回的是一个 unicode 型的文本数据 response.content 返回的是 bytes 型的二进制数据 为什么请求需要带上header? 模拟浏览器,欺骗服务器,获取和浏览器一致的内容 header的形式:字典 用法:requests.get(url,headers = headers) 什么叫做请求参数: https://www.baidu.com/s?wd=python&c=b 参数的形式:字典 kw = {'wd':'长城'} 用法:requests

Python学习爬虫 requests库

下载图片import requests response = requests.get('http://www.51gis.com.cn/static/upload/3e223daf9df6216f/f3e187dfc0e4143a.jpg') with open('51gis.jpg', 'wb') as f: f.write(response.content) ================================== import requests class TiebaSpid