Python3学习笔记(urllib模块的使用)转http://www.cnblogs.com/Lands-ljk/p/5447127.html

Python3学习笔记(urllib模块的使用)

1.基本方法

urllib.request.urlopen(urldata=None, [timeout, ]*cafile=Nonecapath=Nonecadefault=Falsecontext=None)

-         url:  需要打开的网址

-         data:Post提交的数据

-         timeout:设置网站的访问超时时间

直接用urllib.request模块的urlopen()获取页面,page的数据格式为bytes类型,需要decode()解码,转换成str类型。

1 from urllib import request
2 response = request.urlopen(r‘http://python.org/‘) # <http.client.HTTPResponse object at 0x00000000048BC908> HTTPResponse类型
3 page = response.read()
4 page = page.decode(‘utf-8‘)

urlopen返回对象提供方法:

-         read() , readline() ,readlines() , fileno() , close() :对HTTPResponse类型数据进行操作

-         info():返回HTTPMessage对象,表示远程服务器返回的头信息

-         getcode():返回Http状态码。如果是http请求,200请求成功完成;404网址未找到

-         geturl():返回请求的url

2.使用Request

urllib.request.Request(url, data=None, headers={}, method=None)

使用request()来包装请求,再通过urlopen()获取页面。

 1 url = r‘http://www.lagou.com/zhaopin/Python/?labelWords=label‘
 2 headers = {
 3     ‘User-Agent‘: r‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘
 4                   r‘Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3‘,
 5     ‘Referer‘: r‘http://www.lagou.com/zhaopin/Python/?labelWords=label‘,
 6     ‘Connection‘: ‘keep-alive‘
 7 }
 8 req = request.Request(url, headers=headers)
 9 page = request.urlopen(req).read()
10 page = page.decode(‘utf-8‘)

用来包装头部的数据:

-         User-Agent :这个头部可以携带如下几条信息:浏览器名和版本号、操作系统名和版本号、默认语言

-         Referer:可以用来防止盗链,有一些网站图片显示来源http://***.com,就是检查Referer来鉴定的

-         Connection:表示连接状态,记录Session的状态。

3.Post数据

urllib.request.urlopen(urldata=None, [timeout, ]*cafile=Nonecapath=Nonecadefault=Falsecontext=None)

urlopen()的data参数默认为None,当data参数不为空的时候,urlopen()提交方式为Post。

 1 from urllib import request, parse
 2 url = r‘http://www.lagou.com/jobs/positionAjax.json?‘
 3 headers = {
 4     ‘User-Agent‘: r‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘
 5                   r‘Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3‘,
 6     ‘Referer‘: r‘http://www.lagou.com/zhaopin/Python/?labelWords=label‘,
 7     ‘Connection‘: ‘keep-alive‘
 8 }
 9 data = {
10     ‘first‘: ‘true‘,
11     ‘pn‘: 1,
12     ‘kd‘: ‘Python‘
13 }
14 data = parse.urlencode(data).encode(‘utf-8‘)
15 req = request.Request(url, headers=headers, data=data)
16 page = request.urlopen(req).read()
17 page = page.decode(‘utf-8‘)

urllib.parse.urlencode(query, doseq=False, safe=‘‘, encoding=None, errors=None)

urlencode()主要作用就是将url附上要提交的数据。

1 data = {
2     ‘first‘: ‘true‘,
3     ‘pn‘: 1,
4     ‘kd‘: ‘Python‘
5 }
6 data = parse.urlencode(data).encode(‘utf-8‘)

经过urlencode()转换后的data数据为?first=true?pn=1?kd=Python,最后提交的url为

http://www.lagou.com/jobs/positionAjax.json?first=true?pn=1?kd=Python

Post的数据必须是bytes或者iterable of bytes,不能是str,因此需要进行encode()编码

1 page = request.urlopen(req, data=data).read()

当然,也可以把data的数据封装在urlopen()参数中

4.异常处理

 1 def get_page(url):
 2     headers = {
 3         ‘User-Agent‘: r‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘
 4                     r‘Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3‘,
 5         ‘Referer‘: r‘http://www.lagou.com/zhaopin/Python/?labelWords=label‘,
 6         ‘Connection‘: ‘keep-alive‘
 7     }
 8     data = {
 9         ‘first‘: ‘true‘,
10         ‘pn‘: 1,
11         ‘kd‘: ‘Python‘
12     }
13     data = parse.urlencode(data).encode(‘utf-8‘)
14     req = request.Request(url, headers=headers)
15     try:
16         page = request.urlopen(req, data=data).read()
17         page = page.decode(‘utf-8‘)
18     except error.HTTPError as e:
19         print(e.code())
20         print(e.read().decode(‘utf-8‘))
21     return page

5、使用代理

urllib.request.ProxyHandler(proxies=None)

当需要抓取的网站设置了访问限制,这时就需要用到代理来抓取数据。

 1 data = {
 2         ‘first‘: ‘true‘,
 3         ‘pn‘: 1,
 4         ‘kd‘: ‘Python‘
 5     }
 6 proxy = request.ProxyHandler({‘http‘: ‘5.22.195.215:80‘})  # 设置proxy
 7 opener = request.build_opener(proxy)  # 挂载opener
 8 request.install_opener(opener)  # 安装opener
 9 data = parse.urlencode(data).encode(‘utf-8‘)
10 page = opener.open(url, data).read()
11 page = page.decode(‘utf-8‘)
12 return page
时间: 2024-10-14 04:24:50

Python3学习笔记(urllib模块的使用)转http://www.cnblogs.com/Lands-ljk/p/5447127.html的相关文章

python自动化测试学习笔记-6urllib模块&amp;request模块

python3的urllib 模块提供了获取页面的功能. urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None) -         url:  需要打开的网址 -         data:Post提交的数据 -         timeout:设置网站的访问超时时间 直接用urllib.request模块的urlopen()获取页

python3.5中urllib模块抓取指定URL内容

python3.5中把python中的urllib和urllib2模块合并为urllib模块啦.urllib模块下有五个类: 抓取指定URL下内容封装成一个类文件对象,其中的很多方法操作和文件操作是一样的.

python3学习笔记(1)

#python学习笔记 17/07/07# !/usr/bin/evn python3# -*- coding:utf-8 -*- #r"" 引号当中的字符串不转义 #练习#打印 '\\\t\n'print(r'\\\t\n') #打印 n = 123print('n = 123') # 打印 f = 456.789print("f = 456.789") #打印 s1 = 'Hello, world!'print("s1 = 'Hello, world!

Python学习笔记—itertools模块

这篇是看wklken的<Python进阶-Itertools模块小结> 学习itertools模块的学习笔记 在看itertools中各函数的源代码时,刚开始还比较轻松,但后面看起来就比较费劲... 1.itertools.count(start=0,step=1) 此函数用来创建一个迭代器,生成从n开始的连续整数,如果忽略n,则从0开始计算 如果超出了sys.maxint,计数器将溢出并继续行-sys.maxint-1开始计算 定义: def count(start=0, step=1):

python3学习笔记---模块

模块是封装好以供调用的块,模块(库)分两种:标准库(不需安装直接导入).第三方库(必须经过安装才可以使用). python模块: sys:sys.path:打印环境变量.标准库放在python_path\bas\lib中,第三方库放在python_path\bas\lib\site-packages中. sys.argv 显示相对路径,读入数据. os:os.system结果仅显示在屏幕在,不保存结果.os.popen可以保存结果. f=os.system("dir") s=os.po

[Python3]HTTP处理 - urllib模块

概述 urllib是python最基础.最核心的HTTP协议支持库,诸多第三方库都依赖urllib,所以urllib是必须掌握的HTTP库. 掌握了urllib有利于: 深入理解http协议 可以更好的学习和掌握第三方http库 快速的开展基于http的接口测试 快速进入爬虫学习之路 urllib组成 我们一起看下urllib由哪些模块或类构成: urllib.request用于构建http请求 urllib.response用于处理http响应值的类 urllib.parse 用于url处理

python3学习笔记(3)

一.内置函数补充1.callable()检测传递的参数是否可以被调用.def f1() pass可以被调用 f2 = 123不可以被调用 2.chr()和ord()chr()将ascii码转换成字符,ord()将字符转换成acsii码在2.7中chr()和ord()用来翻译参数和ascii码的对应关系.例:r = chr(65)print(r)和r = ord("B")print(r) 实例:随机验证码import random #用来生成随机数的模块li = []for i in r

python3学习笔记(0)

一.编程语言主要从以下几个角度分类:1.编译型和解释型2.静态语言和动态语言3.强类型定义语言和弱类型定义语言 编译型:程序运行前先由负责翻译的程序将代码转换成可执行代码进行执行.例如C/C++.Pascal/Delphi.VB.其优点为运行速度快,对系统要求低,适用于开发操作系统.大型应用程序.数据库系统等.解释型:程序运行时每直行到一条指令就由解释程序将所执行到的代码转换成可执行代码进行执行,如此反复,直至程序直行完毕.例如Java.JavaScript.VBScript.Perl.Pyth

Python 学习之urllib模块---用于发送网络请求,获取数据

1.urllib urllib是Python标准库的一部分,包含urllib.request,urllib.error,urllib.parse,urlli.robotparser四个子模块. (1)urllib.request用法 1)urlopen函数:用于打开一个URL(urlopen返回一个类文件对象,可以像文件一样操作) 例如: import urllib.request web=urllib.request.urlopen('http://www.baidu.com') conten