requests 用法

# 百度import requests

url = ‘http://www.baidu.com/‘

# requests 的 get用法reponse = requests.get(url)

with open(‘baidu23.html‘, ‘wb‘) as f:    f.write(reponse.content)
# 百度翻译import requestsimport json

url = ‘http://fanyi.baidu.com/sug‘

def translate(kw):    form ={        ‘kw‘:kw    }

# requests 的post 使用方法    response = requests.post(url, data=form)

response.encoding = ‘utf-8/gbk/gb2313/gb18080‘    str = response.text

# 解析json    res_dict = json.loads(str)    print(res_dict)

result = res_dict[‘data‘][0][‘v‘]    return result

if __name__ == ‘__main__‘:    res = translate(‘哈哈‘)    print(res)    res = translate(‘绿色‘)    print(res)
# 西祠代理import requests

# urlurl = ‘http://www.xicidaili.com‘# 添加proxy 代理proxy = {    ‘http‘: ‘http://root:Yao+ql2011[email protected]:8118‘}# 添加headersheaders = {    ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36‘}

# 调用request., 得到responseresponse = requests.get(url, headers=headers, porxies=proxy)print(requests.text)

# 百思不得姐
import requests

url = ‘http://www.budejie.com/‘

response = requests.get(url)

with open(‘baisi.html‘, ‘wb‘) as f:    f.write(response.content)

原文地址:https://www.cnblogs.com/huangming17/p/9484330.html

时间: 2024-07-31 14:20:52

requests 用法的相关文章

requests用法

# -*- coding: cp936 -*- #xiaodeng #python 27 #requests用法 #获取http://www.weather.com.cn/data/sk/101010100.html的信息 import requests def getJson(): data=requests.get('http://www.weather.com.cn/data/sk/101010100.html') #获取json数据,数据本身得是json格式 #data.json返回结果

requests用法基础-进阶

本节内容 模块的安装 -----------------------基础用法--------------------- GET用法.POST用法 -----------------------进阶用法-------------------- cookie处理.代理ip.session 一 模块安装: 1). 安装requests包还是很方便的,电脑中有python环境,打开cmd,输入pip install requests下载: 如果有同学使用pycharm的话,选择file-->settin

python requests用法总结

requests是一个很实用的Python HTTP客户端库,编写爬虫和测试服务器响应数据时经常会用到.可以说,Requests 完全满足如今网络的需求 本文全部来源于官方文档 http://docs.python-requests.org/en/master/ 安装方式一般采用$ pip install requests.其它安装方式参考官方文档 HTTP - requests import requests GET请求 r  = requests.get('http://httpbin.or

爬虫-requests用法

中文文档 API: http://requests.kennethreitz.org/zh_CN/latest/ 安装 pip install requests 获取网页 # coding=utf-8 import requests response = requests.get('http://www.baidu.com') # 第一种方式 获取响应内容 # 查看网页编码方式 print(response.encoding) # 修改编码方式 response.encoding = 'utf-

requests模块简单用法

1 import requests 2 import random 3 4 # 请求发送的网址url 5 url = 'https://www.baidu.com' 6 # 请求头信息,通常用于伪装浏览器,通过服务器校验 7 headers = { 8 9 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safa

python3爬虫初探(二)之requests

关于请求网页,不得不提requests这个库,这是爬虫经常用到的一个第三方库,用pip安装即可. requests用法很多,这里只写一些基础的,其他高级功能可参考官方文档. import requests url = 'http://www.baidu.com' #这里用get方法用来请求网页,其他还有post等方法来请求网页 data = requests.get(url) print(data) #<Response [200]> print(data.text)#这里的 .text 就等

python爬虫---requests库的用法

requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多 因为是第三方库,所以使用前需要cmd安装 pip install requests 安装完成后import一下,正常则说明可以开始使用了. 基本用法: requests.get()用于请求目标网站,类型是一个HTTPresponse类型 import requests response = requests.get('http://www.baidu.com')print(response.status_c

Python3.x:requests的用法

Python3.x:requests的用法 1,requests 比 urllib.request 容错能力更强: 2,通常用法: (1).认证.状态码.header.编码.json r = requests.get('https://api.github.com/user', auth=('user', 'pass')) r.status_code r.headers['content-type'] 输出:'application/json; charset=utf8' r.encoding

requests的基本用法

r = requests.get('https://api.github.com/events', params = {'key1': 'value1', 'key2': 'value2'}) r = requests.get('https://api.github.com/some/endpoint', headers={'user-agent': 'my-app/0.0.1'}) r = requests.get('http://httpbin.org/cookies', cookies=d