urllib和urllib2的区别及用

首先来看一下他们的区别

urllib和urllib2

  • urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL。这意味着,你不可以通过urllib模块伪装你的User Agent字符串等(伪装浏览器)。
  • urllib提供urlencode方法用来GET查询字符串的产生,而urllib2没有。这是为何urllib常和urllib2一起使用的原因。
  • urllib2模块比较优势的地方是urlliburllib2.urlopen可以接受Request对象作为参数,从而可以控制HTTP Request的header部。
  • 但是urllib.urlretrieve函数以及urllib.quote等一系列quote和unquote功能没有被加入urllib2中,因此有时也需要urllib的辅助。

httplib

httplib实现了HTTP和HTTPS的客户端协议,一般不直接使用,在python更高层的封装模块中(urllib,urllib2)使用了它的http实现。

urllib简单用法

import urllib
google = urllib.urlopen(‘http://www.google.com‘)
print ‘http header:/n‘, google.info()
print ‘http status:‘, google.getcode()
print ‘url:‘, google.geturl()
for line in google: # 就像在操作本地文件
    print line,
google.close()   

urllib.urlopen(url[, data[, proxies]]) :   请求数据

创建一个表示远程url的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。参数url表示远程数据的路径,一般是网址;参数data表示以post方式提交到url的数据(玩过web的人应该知道提交数据的两种方式:post与get。如果你不清楚,也不必太在意,一般情况下很少用到这个参数);参数proxies用于设置代理。urlopen返回一个类文件对象,他提供了如下方法:

  • read(),readline(),readlines(), fileno(), close():这些方法的使用方式与文件对象完全一样;
  • info():返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息;
  • getcode():返回Http状态码。如果是http请求,200表示请求成功完成;404表示网址未找到;
  • geturl():返回请求的url;
def cbk(a, b, c):
    ‘‘‘‘‘‘‘回调函数
    @a: 已经下载的数据块
    @b: 数据块的大小
    @c: 远程文件的大小
    ‘‘‘
    per = 100.0 * a * b / c
    if per > 100:
        per = 100
    print ‘%.2f%%‘ % per    

url = ‘http://www.sina.com.cn‘
local = ‘d://sina.html‘
urllib.urlretrieve(url, local, cbk)

urllib.urlretrieve(url[, filename[, reporthook[, data]]]):  下载文件

urlretrieve方法直接将远程数据下载到本地。参数filename指定了保存到本地的路径(如果未指定该参数,urllib会生成一个临时文件来保存数据);参数reporthook是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。我们可以利用这个回调函 数来显示当前的下载进度,下面的例子会展示。参数data指post到服务器的数据。该方法返回一个包含两个元素的元组(filename, headers),filename表示保存到本地的路径,header表示服务器的响应头。下面通过例子来演示一下这个方法的使用,这个例子将新浪首页的html抓取到本地,保存在D:/sina.html文件中,同时显示下载的进度。

  1. data = ‘name = ~a+3‘
  2. data1 = urllib.quote(data)
  3. print data1 # result: name%20%3D%20%7Ea%2B3
  4. print urllib.unquote(data1) # result: name = ~a+3
  5. data2 = urllib.quote_plus(data)
  6. print data2 # result: name+%3D+%7Ea%2B3
  7. print urllib.unquote_plus(data2)    # result: name = ~a+3
  8. data3 = urllib.urlencode({ ‘name‘: ‘dark-bull‘, ‘age‘: 200 })
  9. print data3 # result: age=200&name=dark-bull
  10. data4 = urllib.pathname2url(r‘d:/a/b/c/23.php‘)
  11. print data4 # result: ///D|/a/b/c/23.php
  12. print urllib.url2pathname(data4)    # result: D:/a/b/c/23.php

上面介绍的两个方法是urllib中最常用的方法,这些方法在获取远程数据的时候,内部会使用URLopener或者 FancyURLOpener类。作为urllib的使用者,我们很少会用到这两个类,这里我不想多讲。如果对urllib的实现感兴趣, 或者希望urllib支持更多的协议,可以研究这两个类。在Python手册中,urllib的作者还列出了这个模块的缺陷和不足,感兴趣的同学可以打开 Python手册了解一下。

urllib中还提供了一些辅助方法,用于对url进行编码、解码。url中是不能出现一些特殊的符号的,有些符号有特殊的用途。我们知道以get方式提交数据的时候,会在url中添加key=value这样的字符串,所以在value中是不允许有‘=‘,因此要对其进行编码;与此同时服务器接收到这些参数的时候,要进行解码,还原成原始的数据。这个时候,这些辅助方法会很有用:

  • urllib.quote(string[, safe]):对字符串进行编码。参数safe指定了不需要编码的字符;
  • urllib.unquote(string) :对字符串进行解码;
  • urllib.quote_plus(string[,safe]) :与urllib.quote类似,但这个方法用‘+‘来替换‘ ‘,而quote用‘%20‘来代替‘ ‘
  • urllib.unquote_plus(string) :对字符串进行解码;
  • urllib.urlencode(query[, doseq]):将dict或者包含两个元素的元组列表转换成url参数。例如 字典{‘name‘: ‘dark-bull‘, ‘age‘: 200}将被转换为"name=dark-bull&age=200"
  • urllib.pathname2url(path):将本地路径转换成url路径;
  • urllib.url2pathname(path):将url路径转换成本地路径;

urllib2简单用法

  1. #!/usr/bin/env python
  2. import urllib2
  3. req = urllib2.Request("http://www.douban.com")
  4. response = urllib2.urlopen(req)
  5. html = response.read()
  6. print html

1、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求

2、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。

3、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息

有时你会碰到,程序也对,但是服务器拒绝你的访问。这是为什么呢?问题出在请求中的头信息(header)。 有的服务端有洁癖,不喜欢程序来触摸它。这个时候你需要将你的程序伪装成浏览器来发出请求。请求的方式就包含在header中。
常见的情形:

  1. import urllib
  2. import urllib2
  3. url = ‘http://www.someserver.com/cgi-bin/register.cgi‘
  4. user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘# 将user_agent写入头信息
  5. values = {‘name‘ : ‘who‘,‘password‘:‘123456‘}
  6. headers = { ‘User-Agent‘ : user_agent }
  7. data = urllib.urlencode(values)
  8. req = urllib2.Request(url, data, headers)
  9. response = urllib2.urlopen(req)
  10. the_page = response.read()

urllib2和urllib配合使用:

GET方法

例如百度:

百度是通过http://www.baidu.com/s?wd=XXX 来进行查询的,这样我们需要将{‘wd’:’xxx’}这个字典进行urlencode

  1. import urllib
  2. import urllib2
  3. url = ‘http://www.baidu.com/s‘
  4. values = {‘wd‘:‘D_in‘}
  5. data = urllib.urlencode(values)
  6. print data
  7. url2 = url+‘?‘+data
  8. response = urllib2.urlopen(url2)
  9. the_page = response.read()
  10. print the_page

POST方法

  1. import urllib
  2. import urllib2
  3. url = ‘http://www.someserver.com/cgi-bin/register.cgi‘
  4. user_agent = ‘Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)‘ //将user_agent写入头信息
  5. values = {‘name‘ : ‘who‘,‘password‘:‘123456‘}      //post数据
  6. headers = { ‘User-Agent‘ : user_agent }
  7. data = urllib.urlencode(values)                   //对post数据进行url编码
  8. req = urllib2.Request(url, data, headers)
  9. response = urllib2.urlopen(req)
  10. the_page = response.read()

urllib2带cookie的使用

  1. #coding:utf-8
  2. import urllib2,urllib
  3. import cookielib
  4. url = r‘http://www.renren.com/ajaxLogin‘
  5. #创建一个cj的cookie的容器
  6. cj = cookielib.CookieJar()
  7. opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
  8. #将要POST出去的数据进行编码
  9. data = urllib.urlencode({"email":email,"password":pass})
  10. r = opener.open(url,data)
  11. print cj

httplib

httplib是一个相对底层的http请求模块,其上有专门的包装模块,如urllib内建模块,goto等第三方模块,但是封装的越高就越不灵活,比如urllib模块里请求错误时就不会返回结果页的内容,只有头信息,对于某些需要检测错误请求返回值的场景就不适用,所以就得用这个模块了。

1、class httplib.HTTPConnection

说明:该类用于创建一个http类型的请求链接
原型:
HTTPConnection(host[, port[, strict[, timeout]]])
host: 请求的服务器host,不能带http://开头
port: 服务器web服务端口
strict: 是否严格检查请求的状态行,就是http1.0/1.1 协议版本的那一行,即请求的第一行,默认为False,为True时检查错误会抛异常
timeout: 单次请求的超时时间,没有时默认使用httplib模块内的全局的超时时间

  1. <span style="font-family:Microsoft YaHei;">    实例:
  2. conn1 = HTTPConnection(‘www.baidu.com:80‘)
  3. conn2 = HTTPconnection(‘www.baidu.com‘,80)
  4. conn3 = HTTPConnection(‘www.baidu.com‘,80,True,10)
  5. 错误实例:
  6. conn3 = HTTPConnection(‘www.baidu.com:80‘,True,10)  </span>

返回:HTTPConnection类会实例并返回一个HTTPConnection对象

2、class httplib.HTTPSConnection
说明:该类用于创建一个https类型的请求链接

原型:
HTTPSConnection(host[, port[, key_file[, cert_file[, strict[, timeout]]]]])
key_file:一个包含PEM格式的私钥文件
cert_file:一个包含PEM格式的认证文件
other:其它同http参数

实例:

<span style="font-family:Microsoft YaHei;">    conn3 = HTTPSConnection(‘accounts.google.com‘,443,key_file,cert_file,True,10)  </span>

返回:同样返回一个HTTPSConnection对象
注意:要创建https链接,必须要保证底层的socket模块是支持ssl的编译模式,即编译时ssl选项的开关是开着的

3、HTTPConnection对象request方法:
说明:发送一个请求

原型:
conn.request(method, url[, body[, headers]])
method: 请求的方式,如‘GET‘,‘POST‘,‘HEAD‘,‘PUT‘,‘DELETE‘等
url: 请求的网页路径。如:‘/index.html‘
body: 请求是否带数据,该参数是一个字典
headers: 请求是否带头信息,该参数是一个字典,不过键的名字是指定的http头关键字
实例:

  1. <span style="font-family:Microsoft YaHei;">    conn.request(‘GET‘, ‘/‘, ‘‘, {‘user-agent‘:‘test‘})  </span>

返回:无返回,其实就是相对于向服务其发送数据,但是没有最后回车

4、HTTPConnection对象getresponse方法
说明:获取一个http响应对象,相当于执行最后的2个回车

原型/实例:

  1. <span style="font-family:Microsoft YaHei;">res = conn.getresponse()  </span>

返回:HTTPResponse对象

5、HTTPConnection对象close()方法
说明:关闭指定的httpconnect链接

  1. <span style="font-family:Microsoft YaHei;">conn.close()  </span>

6、HTTPResponse对象read方法
说明:获得http响应的内容部分,即网页源码
原型:
body = res.read([amt])
amt: 读取指定长度的字符,默认为空,即读取所有内容
实例:

  1. <span style="font-family:Microsoft YaHei;">    body = res.read()
  2. pbody = res.read(10)  </span>

返回:网页内容字符串

7、HTTPResponse对象的其它方法或属性
方法:
getheaders()
获得所有的响应头内容,是一个元组列表[(name,value),(name2,value2)]
getheader(name[,default])
获得指定的头内容
fileno()
socket的fileno

属性:
msg
所有的头信息,和getheaders方法一样,只不过这个是原始未处理的字符串
status
当次请求的状态
version
当次请求的http协议版本,10是http1.0, 11是http/1.1
reason
当次请求的结果的表述内容,200是ok,404是Not Found

总体实例:

  1. <span style="font-family:Microsoft YaHei;">#!/usr/bin/env python
  2. # -*- coding: utf-8 -*-
  3. import httplib
  4. import urllib
  5. def sendhttp():
  6. data = urllib.urlencode({‘@number‘: 12524, ‘@type‘: ‘issue‘, ‘@action‘: ‘show‘})
  7. headers = {"Content-type": "application/x-www-form-urlencoded",
  8. "Accept": "text/plain"}
  9. conn = httplib.HTTPConnection(‘bugs.python.org‘)
  10. conn.request(‘POST‘, ‘/‘, data, headers)
  11. httpres = conn.getresponse()
  12. print httpres.status
  13. print httpres.reason
  14. print httpres.read()
  15. if __name__ == ‘__main__‘:
  16. sendhttp()   </span>

  

  

时间: 2024-11-05 18:29:20

urllib和urllib2的区别及用的相关文章

Python:urllib和urllib2的区别(转)

原文链接:http://www.cnblogs.com/yuxc/ 作为一个Python菜鸟,之前一直懵懂于urllib和urllib2,以为2是1的升级版.今天看到老外写的一篇<Python: difference between urllib and urllib2>才明白其中的区别. You might be intrigued by the existence of two separate URL modules in Python -urllib and urllib2. Even

爬虫新手学习2-爬虫进阶(urllib和urllib2 的区别、url转码、爬虫GET提交实例、批量爬取贴吧数据、fidder软件安装、有道翻译POST实例、豆瓣ajax数据获取)

爬虫新手学习1-爬虫基础 1.urllib和urllib2区别实例 urllib和urllib2都是接受URL请求相关模块,但是提供了不同的功能,两个最显著的不同如下: urllib可以接受URL,不能创建设置headers的Request类实例,urlib2可以. url转码 https://www.baidu.com/s?wd=%E5%AD%A6%E7%A5%9E python字符集解码加码过程: 2.爬虫GET提交实例 #coding:utf-8 import urllib #负责url编

[转]Python中urllib与urllib2的区别与联系

引用文章1:http://my.oschina.net/u/558071/blog/144792 引用文章2:http://zhuoqiang.me/python-urllib2-usage.html#proxy 在python中,urllib2并不是urllib的升级版,urllib和urllib2不可相互替代的,urllib一般和urllib2一起搭配使用.整体来说,urllib2是urllib的增强,但是urllib中有urllib2中所没有的函数. urllib2可以用urllib2.o

Python:urllib和urllib2的区别

urllib和urllib2都是处理url请求的两个模块,但是相互之间存在不同,不能相互取代 urllib2可以接受一个Reuqest类的实例来设置URL请求的headers,urllib仅可以接受URL.意味着urllib不可以伪装你的user_agent等 urllib提供urlencode方法用来GET查询字符串的产生,但是urllib2没有改方法. urllib和urllib2相互配合使用

httplib、urllib、urllib2的区别

Python3.4互联网通讯协议支持 1,webbrowser方便的浏览器容器 2,cgi公共网关接口支持 3,cgitb管理cgi脚本 4,wsgiref  WSGI实体和引用实现 5,urllib URL通信模块 6,urllib.request request请求库 7,urllib.response  response响应库 8,urllib.parse  url解析组件 9,urllib.error 异常模块 10,urllib.robotparser 解析robost文件 11,ht

Python库urllib与urllib2有哪些区别

分享下Python库urllib与urllib2用法区别,初学python的同学常有此困惑,今天一揭谜底. 学习Python,一直不明白urllib和urllib2的区别,以为2是1的升级版.今天看到老外写的一篇<Python: difference between urllib and urllib2>才明白其中的区别You might be intrigued by the existence of two separate URL modules in Python -urllib an

Python urllib和urllib2模块学习(二)

一.urllib其它函数 前面介绍了 urllib 模块,以及它常用的 urlopen() 和 urlretrieve()函数的使用介绍.当然 urllib 还有一些其它很有用的辅助方法,比如对 url 进行编码.解码等等. 辅助方法: 1. urllib.quote(string[,safe]) : 对字符串进行编码,参数safe指定了不需要编码的字符: urllib.unquote(string):  对字符串进行解码: 2. urllib.urlencode(query[,doseq]):

urllib,urllib2和 urllib3的区别

在python 的网络模块中,使用频率最高的莫过于 urllib 了,因为里面包含了打开网址发送请求的方法:但是 python 中 urllib 的功能,随着互联网的发展,也在迭代进步,所以有了 urllib,urllib2和 urllib3,他们之间有啥区别呢,下面一一阐述: 1.) python 中最早内置拥有的网络请求模块就是 urllib,我们可以看一下 urllib 中的所有方法: 2.) urllib2模块中的所有方法更侧重于对于 Http 请求的服务: 3.) urllib3模块并

Python:urllib 和urllib2之间的区别

你可能对于Python中两个独立存在的-urllib2和-urllib2感到好奇.更有趣的是:它们并不是可以相互代替的.那么这两个模块间的区别是什么,并且这两个我们都需要吗? urllib 和urllib2都是接受URL请求的相关模块,但是提供了不同的功能.两个最显著的不同如下: urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL.这意味着,你不可以伪装你的User Agent字符串等. urllib提供urlencode方法用来GET