urllib的使用

1.urllib 中的urlopen

  urllib.urlopen(url,data)

  如果请求是json格式,则data是json.dumps(data_dict)形成的数据,注意,不能在进行urllib.urlencode编码了。

  如果请求不是json,则data是 urllib.urlencode(data_dict)形成的数据,

2.PUT,DELETE方法

  通过如下方法,可以是的urllib支持put,delete

 if method in [‘PUT‘, ‘DELETE‘]:
      req.get_method = lambda:method
时间: 2024-09-13 14:32:59

urllib的使用的相关文章

Python——深入理解urllib、urllib2及requests(requests不建议使用?)

深入理解urllib.urllib2及requests            python Python 是一种面向对象.解释型计算机程序设计语言,由Guido van Rossum于1989年底发明,第一个公开发行版发行于1991年,Python 源代码同样遵循 GPL(GNU General Public License)协议[1] .Python语法简洁而清晰,具有丰富和强大的类库. urllib and urllib2 区别 urllib和urllib2模块都做与请求URL相关的操作,但

学习Python的urllib模块

 urllib 模块作为Python 3 处理 URL 的组件集合,如果你有 Python 2 的知识,那么你就会注意到 Python 2 中有 urllib 和 urllib2 两个版本的模块,这些现在都是 Python 3 的 urllib 包的一部分,具体如何来体现它们之间的关系 Python 3 的 urllib 模块是一堆可以处理 URL 的组件集合.如果你有 Python 2 的知识,那么你就会注意到 Python 2 中有 urllib 和 urllib2 两个版本的模块.这些现在

urllib包

前言:urllib.parse模块按功能分为两大类:URL parsing(url解析) 和URL quoting(url引用). 一.URL parsing:主要是1.把URL字符串分割成组件2.把组件合并成url字符串 1.1.  urllib.parse.urlparse(urlstring, scheme='', allow_fragments=True) =>操作urlstring字符串生成6个元素组成的一个元祖的ParseResult实体,例 如:ParseResult(scheme

python爬虫Urllib实战

Urllib基础 urllib.request.urlretrieve(url,filenname) 直接将网页下载到本地 import urllib.request >>> urllib.request.urlretrieve("http://www.hellobi.com",filename="D:\/1.html") ('D:\\/1.html', <http.client.HTTPMessage object at 0x0000000

第三百三十节,web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号

第三百三十节,web爬虫讲解2-urllib库爬虫-实战爬取搜狗微信公众号 封装模块 #!/usr/bin/env python # -*- coding: utf-8 -*- import urllib from urllib import request import json import random import re import urllib.error def hq_html(hq_url): """ hq_html()封装的爬虫函数,自动启用了用户代理和ip

通过python的urllib.request库来爬取一只猫

我们实验的网站很简单,就是一个关于猫的图片的网站:http://placekitten.com 代码如下: import urllib.request respond = urllib.request.urlopen("http://placekitten.com.s3.amazonaws.com/homepage-samples/200/287.jpg") cat_img = respond.read() f = open('cat_200_300.jpg','wb') f.writ

python爬虫入门(1)-urllib模块

作用:用于读取来自网上(服务器上)的数据 基本方法:urllib.request.urlopen(url,data=None,[]timeout]*,cafile=None,cadefault=False,context=None) url:需要打开的网址 data:Post提交的数据 timeout:设置网站的访问超时时间 示例1:获取页面 import urllib.request response = urllib.request.urlopen("http://www.fishc.com

定义一个方法get_page(url),url参数是需要获取网页内容的网址,返回网页的内容。提示(可以了解python的urllib模块)

1 定义一个方法get_page(url),url参数是需要获取网页内容的网址,返回网页的内容.提示(可以了解python的urllib模块) 2 import urllib.request 3 4 def get_page(url): 5 response = urllib.request.urlopen(url) 6 html = response.read() 7 return html 8 9 print(get_page(url='https://www.baidu,com'))

urllib模块

urllib.request 1.定义 用于打开URL的可扩展库,定义了基本和摘要式身份验证.重定向.cookies等应用中打开URL(主要是HTTP)的函数和类. 2.函数 urllib.request.urlopen(url,data=None,url, data=None) url:网址 data:若HTTP请求是GET则data为None,若为POSTdata必须有数据 返回一个对象 from urllib.request import urlopen html = urlopen("h

Python3中urllib详细使用方法(header,代理,超时,认证,异常处理) 转载

urllib是python的一个获取url(Uniform Resource Locators,统一资源定址器)了,我们可以利用它来抓取远程的数据进行保存哦,下面整理了一些关于urllib使用中的一些关于header,代理,超时,认证,异常处理处理方法,下面一起来看看. python3 抓取网页资源的 N 种方法 1.最简单 import urllib.requestresponse = urllib.request.urlopen('http://python.org/')html = res