requests库,简明使用教程(python)

Requests库为python的外部库,话不多话,直接开干吧!

首先是安装requests库,很简单不说了。

文件,引入requests库:

import requests

下面来看一个简单的例子吧:

#一个最简单的爬虫小程序,这里只到获得源html文件结束

import requestsurl1="https://live.500.com/"    #ISO-8859-1url2="https://www.baidu.com/"   #ISO-8859-1url3="https://study.163.com/course/introduction.htm?courseId=1209448892#/courseDetail?tab=1"    #UTF-8url4="http://www.cwl.gov.cn/kjxx/ssq/kjgg/" #ISO-8859-1re=requests.get(url3)if re.status_code==200:  #如果请求成功,那返回的状态码就是200。    #表示请求成功,可以继续往下面走    # print(re.text)      #可能会有乱码,因为编码的问题    # print(re.encoding)    #得到字符编码UTF-8  or ISO-8859-1    if re.encoding=="ISO-8859-1":    #如果是这个编码的话,字集应该是gb2312,就要转一下码,不然会有中文乱码问题                      html=re.text.encode("ISO-8859-1").decode("GBK")  #先编码,再解码    else:        html=re.text  #utf-8,这个直接用,没有中文乱码问题    print(html)else:    #请求不成功。    print("访问失败,换个URL试吧!")

#_________________________________________________________________________________________
re.text    #返回的是字符类型re.content  #返回的是字节类型,这一类用于图片啊,声音啊,视频等
上面的例子是requests库发出的一个get请求,也可以发送一个post请求:re=requests.post(url3,data={"key":"value"})  #参数跟一个字典即可。还有几个http请求如下:
re = requests.put(‘http://www.baidu.com‘, data = {‘key‘:‘value‘})
re = requests.delete(‘baidu.com‘)
re = requests.head(‘www.baidu.com‘)
re = requests.options(‘http://www.sina.com.cn‘)

未完待续...
 
 
 
 

原文地址:https://www.cnblogs.com/yiyea/p/11441107.html

时间: 2024-10-03 10:04:29

requests库,简明使用教程(python)的相关文章

[学习笔记] Python标准库简明教程 [转]

1 操作系统接口 os 模块提供了一系列与系统交互的模块: >>> os.getcwd() # Return the current working directory '/home/minix/Documents/Note/Programming/python/lib1' >>> os.chdir('~/python') # Change current working directory Traceback (most recent call last): File

大概看了一天python request源码。写下python requests库发送 get,post请求大概过程。

python requests库发送请求时,比如get请求,大概过程. 一.发起get请求过程:调用requests.get(url,**kwargs)-->request('get', url, **kwargs)-->session.request(method="get", url=url, **kwargs)-->session.send(request, **kwargs)-->adapter.send(request, **kwargs)-->

python爬虫从入门到放弃(四)之 Requests库的基本使用

什么是Requests Requests是用python语言基于urllib编写的,采用的是Apache2 Licensed开源协议的HTTP库如果你看过上篇文章关于urllib库的使用,你会发现,其实urllib还是非常不方便的,而Requests它会比urllib更加方便,可以节约我们大量的工作.(用了requests之后,你基本都不愿意用urllib了)一句话,requests是python实现的最简单易用的HTTP库,建议爬虫使用requests库. 默认安装好python之后,是没有安

python网络爬虫之requests库

Requests库是用Python编写的HTTP客户端.Requests库比urlopen更加方便.可以节约大量的中间处理过程,从而直接抓取网页数据.来看下具体的例子: def request_function_try():     headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:44.0) Gecko/20100101 Firefox/44.0'}     r=requests.get(url="http://www

python爬虫---requests库的用法

requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多 因为是第三方库,所以使用前需要cmd安装 pip install requests 安装完成后import一下,正常则说明可以开始使用了. 基本用法: requests.get()用于请求目标网站,类型是一个HTTPresponse类型 import requests response = requests.get('http://www.baidu.com')print(response.status_c

python 安装requests库

首先从git 下载requests库 解压,放入python安装目录,选中requests库,shfit鼠标右键,进入CMD,输入python setup.py install ,运行结束后,输入import requests检测是否安装成功 若为这样,即安装成功. 同样,安装 从HTML中提取数据的beautifulsoup 方法类似: 相关文档: requests: http://docs.python-requests.org/zh_CN/latest/user/quickstart.ht

python requests库学习笔记(上)

尊重博客园原创精神,请勿转载! requests库官方使用手册地址:http://www.python-requests.org/en/master/:中文使用手册地址:http://cn.python-requests.org/zh_CN/latest/: requests库作者Kenneth Reitz个人主页:https://www.kennethreitz.org/: requests库github地址:https://github.com/requests/requests: requ

python requests库学习笔记(下)

1.请求异常处理 请求异常类型: 请求超时处理(timeout): 实现代码: import requestsfrom requests import exceptions        #引入exceptions A:请求超时 def timeout_request():    try:        response = requests.get(build_uri('user/emails'), timeout=0.1)    except exceptions.Timeout as e:

python WEB接口自动化测试之requests库详解

1.Get请求 前提: requests库是python的第三方库,需要提前安装哦,可以直接用pip命令:`python –m pip install requests` 按照惯例,先将requests库的属性打印出来,看看哪些属性. >>> import requests >>> dir(requests) #查看requests库的属性 ['ConnectionError', 'HTTPError', 'NullHandler', 'PreparedRequest'