requests用法

# -*- coding: cp936 -*-
#xiaodeng
#python 27
#requests用法
#获取http://www.weather.com.cn/data/sk/101010100.html的信息

import requests

def getJson():
    data=requests.get(‘http://www.weather.com.cn/data/sk/101010100.html‘)

    #获取json数据,数据本身得是json格式
    #data.json返回结果为<bound method Response.json of <Response [200]>>
    #这是一个方法,方法的调用方式应该是data.json()
    print data.json()

    #获取字节流
    #返回结果和json格式数据有相似之处,内容是中文显示
    print data.content

    #获取text
    print data.text
    #【注意】以上3种方式大同小异

    #获取状态码
    print data.status_code#状态码200

    #获取headers头部信息
    print data.headers

#get方法
def getDict():
    url=‘http://httpbin.org/get‘
    params={‘name‘:‘iaodeng‘,‘sex‘:1}
    r=requests.get(url,params=params)
    print r.status_code
    print r.text#json数据

#发送header
def getHeader():
    url=‘http://httpbin.org/get‘
    headers={‘x-header1‘:‘value1‘,‘x-header2‘:‘value2‘}
    r=requests.get(url,headers=headers)
    print r.status_code
    print r.text

#处理cookie
def getCookie():
    headers={‘User-Agent‘:‘chrome‘}
    url=‘http://www.douban.com‘
    r=requests.get(url,headers=headers)
    print r.status_code
    print r.cookies
    print r.cookies[‘bid‘]

if __name__==‘__main__‘:
    getCookie()

‘‘‘
提示:ImportError: No module named requests,说明需要该库为第三方库,需要进行安装

‘‘‘
时间: 2024-08-30 06:14:35

requests用法的相关文章

requests 用法

# 百度import requests url = 'http://www.baidu.com/' # requests 的 get用法reponse = requests.get(url) with open('baidu23.html', 'wb') as f: f.write(reponse.content) # 百度翻译import requestsimport json url = 'http://fanyi.baidu.com/sug' def translate(kw): form

requests用法基础-进阶

本节内容 模块的安装 -----------------------基础用法--------------------- GET用法.POST用法 -----------------------进阶用法-------------------- cookie处理.代理ip.session 一 模块安装: 1). 安装requests包还是很方便的,电脑中有python环境,打开cmd,输入pip install requests下载: 如果有同学使用pycharm的话,选择file-->settin

python requests用法总结

requests是一个很实用的Python HTTP客户端库,编写爬虫和测试服务器响应数据时经常会用到.可以说,Requests 完全满足如今网络的需求 本文全部来源于官方文档 http://docs.python-requests.org/en/master/ 安装方式一般采用$ pip install requests.其它安装方式参考官方文档 HTTP - requests import requests GET请求 r  = requests.get('http://httpbin.or

爬虫-requests用法

中文文档 API: http://requests.kennethreitz.org/zh_CN/latest/ 安装 pip install requests 获取网页 # coding=utf-8 import requests response = requests.get('http://www.baidu.com') # 第一种方式 获取响应内容 # 查看网页编码方式 print(response.encoding) # 修改编码方式 response.encoding = 'utf-

requests模块简单用法

1 import requests 2 import random 3 4 # 请求发送的网址url 5 url = 'https://www.baidu.com' 6 # 请求头信息,通常用于伪装浏览器,通过服务器校验 7 headers = { 8 9 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safa

python3爬虫初探(二)之requests

关于请求网页,不得不提requests这个库,这是爬虫经常用到的一个第三方库,用pip安装即可. requests用法很多,这里只写一些基础的,其他高级功能可参考官方文档. import requests url = 'http://www.baidu.com' #这里用get方法用来请求网页,其他还有post等方法来请求网页 data = requests.get(url) print(data) #<Response [200]> print(data.text)#这里的 .text 就等

python爬虫---requests库的用法

requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多 因为是第三方库,所以使用前需要cmd安装 pip install requests 安装完成后import一下,正常则说明可以开始使用了. 基本用法: requests.get()用于请求目标网站,类型是一个HTTPresponse类型 import requests response = requests.get('http://www.baidu.com')print(response.status_c

Python3.x:requests的用法

Python3.x:requests的用法 1,requests 比 urllib.request 容错能力更强: 2,通常用法: (1).认证.状态码.header.编码.json r = requests.get('https://api.github.com/user', auth=('user', 'pass')) r.status_code r.headers['content-type'] 输出:'application/json; charset=utf8' r.encoding

requests的基本用法

r = requests.get('https://api.github.com/events', params = {'key1': 'value1', 'key2': 'value2'}) r = requests.get('https://api.github.com/some/endpoint', headers={'user-agent': 'my-app/0.0.1'}) r = requests.get('http://httpbin.org/cookies', cookies=d