首先来看一下他们的区别
urllib和urllib2
- urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL。这意味着,你不可以通过urllib模块伪装你的User Agent字符串等(伪装浏览器)。
- urllib提供urlencode方法用来GET查询字符串的产生,而urllib2没有。这是为何urllib常和urllib2一起使用的原因。
- urllib2模块比较优势的地方是urlliburllib2.urlopen可以接受Request对象作为参数,从而可以控制HTTP Request的header部。
- 但是urllib.urlretrieve函数以及urllib.quote等一系列quote和unquote功能没有被加入urllib2中,因此有时也需要urllib的辅助。
httplib
httplib实现了HTTP和HTTPS的客户端协议,一般不直接使用,在python更高层的封装模块中(urllib,urllib2)使用了它的http实现。
urllib简单用法
import urllib google = urllib.urlopen(‘http://www.google.com‘) print ‘http header:/n‘, google.info() print ‘http status:‘, google.getcode() print ‘url:‘, google.geturl() for line in google: # 就像在操作本地文件 print line, google.close()
urllib.urlopen(url[, data[, proxies]]) : 请求数据
创建一个表示远程url的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。参数url表示远程数据的路径,一般是网址;参数data表示以post方式提交到url的数据(玩过web的人应该知道提交数据的两种方式:post与get。如果你不清楚,也不必太在意,一般情况下很少用到这个参数);参数proxies用于设置代理。urlopen返回一个类文件对象,他提供了如下方法:
- read(),readline(),readlines(), fileno(), close():这些方法的使用方式与文件对象完全一样;
- info():返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息;
- getcode():返回Http状态码。如果是http请求,200表示请求成功完成;404表示网址未找到;
- geturl():返回请求的url;
def cbk(a, b, c): ‘‘‘‘‘‘‘回调函数 @a: 已经下载的数据块 @b: 数据块的大小 @c: 远程文件的大小 ‘‘‘ per = 100.0 * a * b / c if per > 100: per = 100 print ‘%.2f%%‘ % per url = ‘http://www.sina.com.cn‘ local = ‘d://sina.html‘ urllib.urlretrieve(url, local, cbk)
urllib.urlretrieve(url[, filename[, reporthook[, data]]]): 下载文件
urlretrieve方法直接将远程数据下载到本地。参数filename指定了保存到本地的路径(如果未指定该参数,urllib会生成一个临时文件来保存数据);参数reporthook是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。我们可以利用这个回调函 数来显示当前的下载进度,下面的例子会展示。参数data指post到服务器的数据。该方法返回一个包含两个元素的元组(filename, headers),filename表示保存到本地的路径,header表示服务器的响应头。下面通过例子来演示一下这个方法的使用,这个例子将新浪首页的html抓取到本地,保存在D:/sina.html文件中,同时显示下载的进度。
- data = ‘name = ~a+3‘
- data1 = urllib.quote(data)
- print data1 # result: name%20%3D%20%7Ea%2B3
- print urllib.unquote(data1) # result: name = ~a+3
- data2 = urllib.quote_plus(data)
- print data2 # result: name+%3D+%7Ea%2B3
- print urllib.unquote_plus(data2) # result: name = ~a+3
- data3 = urllib.urlencode({ ‘name‘: ‘dark-bull‘, ‘age‘: 200 })
- print data3 # result: age=200&name=dark-bull
- data4 = urllib.pathname2url(r‘d:/a/b/c/23.php‘)
- print data4 # result: ///D|/a/b/c/23.php
- print urllib.url2pathname(data4) # result: D:/a/b/c/23.php
上面介绍的两个方法是urllib中最常用的方法,这些方法在获取远程数据的时候,内部会使用URLopener或者 FancyURLOpener类。作为urllib的使用者,我们很少会用到这两个类,这里我不想多讲。如果对urllib的实现感兴趣, 或者希望urllib支持更多的协议,可以研究这两个类。在Python手册中,urllib的作者还列出了这个模块的缺陷和不足,感兴趣的同学可以打开 Python手册了解一下。
urllib中还提供了一些辅助方法,用于对url进行编码、解码。url中是不能出现一些特殊的符号的,有些符号有特殊的用途。我们知道以get方式提交数据的时候,会在url中添加key=value这样的字符串,所以在value中是不允许有‘=‘,因此要对其进行编码;与此同时服务器接收到这些参数的时候,要进行解码,还原成原始的数据。这个时候,这些辅助方法会很有用:
- urllib.quote(string[, safe]):对字符串进行编码。参数safe指定了不需要编码的字符;
- urllib.unquote(string) :对字符串进行解码;
- urllib.quote_plus(string[,safe]) :与urllib.quote类似,但这个方法用‘+‘来替换‘ ‘,而quote用‘%20‘来代替‘ ‘
- urllib.unquote_plus(string) :对字符串进行解码;
- urllib.urlencode(query[, doseq]):将dict或者包含两个元素的元组列表转换成url参数。例如 字典{‘name‘: ‘dark-bull‘, ‘age‘: 200}将被转换为"name=dark-bull&age=200"
- urllib.pathname2url(path):将本地路径转换成url路径;
- urllib.url2pathname(path):将url路径转换成本地路径;
urllib2简单用法
- #!/usr/bin/env python
- import urllib2
- req = urllib2.Request("http://www.douban.com")
- response = urllib2.urlopen(req)
- html = response.read()
- print html
1、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求
2、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。
3、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息
有时你会碰到,程序也对,但是服务器拒绝你的访问。这是为什么呢?问题出在请求中的头信息(header)。 有的服务端有洁癖,不喜欢程序来触摸它。这个时候你需要将你的程序伪装成浏览器来发出请求。请求的方式就包含在header中。
常见的情形:
- import urllib
- import urllib2
- url = ‘http://www.someserver.com/cgi-bin/register.cgi‘
- user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘# 将user_agent写入头信息
- values = {‘name‘ : ‘who‘,‘password‘:‘123456‘}
- headers = { ‘User-Agent‘ : user_agent }
- data = urllib.urlencode(values)
- req = urllib2.Request(url, data, headers)
- response = urllib2.urlopen(req)
- the_page = response.read()
urllib2和urllib配合使用:
GET方法
例如百度:
百度是通过http://www.baidu.com/s?wd=XXX 来进行查询的,这样我们需要将{‘wd’:’xxx’}这个字典进行urlencode
- import urllib
- import urllib2
- url = ‘http://www.baidu.com/s‘
- values = {‘wd‘:‘D_in‘}
- data = urllib.urlencode(values)
- print data
- url2 = url+‘?‘+data
- response = urllib2.urlopen(url2)
- the_page = response.read()
- print the_page
POST方法
- import urllib
- import urllib2
- url = ‘http://www.someserver.com/cgi-bin/register.cgi‘
- user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘ //将user_agent写入头信息
- values = {‘name‘ : ‘who‘,‘password‘:‘123456‘} //post数据
- headers = { ‘User-Agent‘ : user_agent }
- data = urllib.urlencode(values) //对post数据进行url编码
- req = urllib2.Request(url, data, headers)
- response = urllib2.urlopen(req)
- the_page = response.read()
urllib2带cookie的使用
- #coding:utf-8
- import urllib2,urllib
- import cookielib
- url = r‘http://www.renren.com/ajaxLogin‘
- #创建一个cj的cookie的容器
- cj = cookielib.CookieJar()
- opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
- #将要POST出去的数据进行编码
- data = urllib.urlencode({"email":email,"password":pass})
- r = opener.open(url,data)
- print cj
httplib
httplib是一个相对底层的http请求模块,其上有专门的包装模块,如urllib内建模块,goto等第三方模块,但是封装的越高就越不灵活,比如urllib模块里请求错误时就不会返回结果页的内容,只有头信息,对于某些需要检测错误请求返回值的场景就不适用,所以就得用这个模块了。
1、class httplib.HTTPConnection
说明:该类用于创建一个http类型的请求链接
原型:
HTTPConnection(host[, port[, strict[, timeout]]])
host: 请求的服务器host,不能带http://开头
port: 服务器web服务端口
strict: 是否严格检查请求的状态行,就是http1.0/1.1 协议版本的那一行,即请求的第一行,默认为False,为True时检查错误会抛异常
timeout: 单次请求的超时时间,没有时默认使用httplib模块内的全局的超时时间
- <span style="font-family:Microsoft YaHei;"> 实例:
- conn1 = HTTPConnection(‘www.baidu.com:80‘)
- conn2 = HTTPconnection(‘www.baidu.com‘,80)
- conn3 = HTTPConnection(‘www.baidu.com‘,80,True,10)
- 错误实例:
- conn3 = HTTPConnection(‘www.baidu.com:80‘,True,10) </span>
返回:HTTPConnection类会实例并返回一个HTTPConnection对象
2、class httplib.HTTPSConnection
说明:该类用于创建一个https类型的请求链接
原型:
HTTPSConnection(host[, port[, key_file[, cert_file[, strict[, timeout]]]]])
key_file:一个包含PEM格式的私钥文件
cert_file:一个包含PEM格式的认证文件
other:其它同http参数
实例:
<span style="font-family:Microsoft YaHei;"> conn3 = HTTPSConnection(‘accounts.google.com‘,443,key_file,cert_file,True,10) </span>
返回:同样返回一个HTTPSConnection对象
注意:要创建https链接,必须要保证底层的socket模块是支持ssl的编译模式,即编译时ssl选项的开关是开着的
3、HTTPConnection对象request方法:
说明:发送一个请求
原型:
conn.request(method, url[, body[, headers]])
method: 请求的方式,如‘GET‘,‘POST‘,‘HEAD‘,‘PUT‘,‘DELETE‘等
url: 请求的网页路径。如:‘/index.html‘
body: 请求是否带数据,该参数是一个字典
headers: 请求是否带头信息,该参数是一个字典,不过键的名字是指定的http头关键字
实例:
- <span style="font-family:Microsoft YaHei;"> conn.request(‘GET‘, ‘/‘, ‘‘, {‘user-agent‘:‘test‘}) </span>
返回:无返回,其实就是相对于向服务其发送数据,但是没有最后回车
4、HTTPConnection对象getresponse方法
说明:获取一个http响应对象,相当于执行最后的2个回车
原型/实例:
- <span style="font-family:Microsoft YaHei;">res = conn.getresponse() </span>
返回:HTTPResponse对象
5、HTTPConnection对象close()方法
说明:关闭指定的httpconnect链接
- <span style="font-family:Microsoft YaHei;">conn.close() </span>
6、HTTPResponse对象read方法
说明:获得http响应的内容部分,即网页源码
原型:
body = res.read([amt])
amt: 读取指定长度的字符,默认为空,即读取所有内容
实例:
- <span style="font-family:Microsoft YaHei;"> body = res.read()
- pbody = res.read(10) </span>
返回:网页内容字符串
7、HTTPResponse对象的其它方法或属性
方法:
getheaders()
获得所有的响应头内容,是一个元组列表[(name,value),(name2,value2)]
getheader(name[,default])
获得指定的头内容
fileno()
socket的fileno
属性:
msg
所有的头信息,和getheaders方法一样,只不过这个是原始未处理的字符串
status
当次请求的状态
version
当次请求的http协议版本,10是http1.0, 11是http/1.1
reason
当次请求的结果的表述内容,200是ok,404是Not Found
总体实例:
- <span style="font-family:Microsoft YaHei;">#!/usr/bin/env python
- # -*- coding: utf-8 -*-
- import httplib
- import urllib
- def sendhttp():
- data = urllib.urlencode({‘@number‘: 12524, ‘@type‘: ‘issue‘, ‘@action‘: ‘show‘})
- headers = {"Content-type": "application/x-www-form-urlencoded",
- "Accept": "text/plain"}
- conn = httplib.HTTPConnection(‘bugs.python.org‘)
- conn.request(‘POST‘, ‘/‘, data, headers)
- httpres = conn.getresponse()
- print httpres.status
- print httpres.reason
- print httpres.read()
- if __name__ == ‘__main__‘:
- sendhttp() </span>