python urllib2对http的get,put,post,delete

#GET:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib2
def get():
    URL = ‘www.baidu.com‘  #页面的地址
    response = urllib2.urlopen(URL) #调用urllib2向服务器发送get请求
    return response.read() #获取服务器返回的页面信息

#POST:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib
import urllib2
def post():
    URL = ‘http://umbra.nascom.nasa.gov/cgi-bin/eit-catalog.cgi‘ #页面的地址
    values = {‘obs_year‘:‘2011‘,‘obs_month‘:‘March‘,    #post的值
              ‘obs_day‘:‘8‘,‘start_year‘:‘2011‘
              ,‘start_month‘:‘March‘,‘start_day‘:‘8‘
              ,‘start_hour‘:‘All Hours‘,‘stop_year‘:‘2011‘
              ,‘stop_month‘:‘March‘,‘stop_day‘:‘8‘
              ,‘stop_hour‘:‘All Hours‘,‘xsize‘:‘All‘
              ,‘ysize‘:‘All‘,‘wave‘:‘all‘
              ,‘filter‘:‘all‘,‘object‘:‘all‘
              ,‘xbin‘:‘all‘,‘ybin‘:‘all‘

,‘highc‘:‘all‘}

    data = urllib.urlencode(values)    #适用urllib对数据进行格式化编码    print data    #输出查看编码后的数据格式    req = urllib2.Request(URL, data)    #生成页面请求的完整数据    response = urllib2.urlopen(req)     #发送页面请求    return response.read()    #获取服务器返回的页面信息

#PUT

import urllib2

request = urllib2.Request(‘http://example.org‘, data=‘your_put_data‘)

request.add_header(‘Content-Type‘, ‘your/contenttype‘)
request.get_method = lambda: ‘PUT‘
response = urllib2.urlopen(request)


#DELETE

import urllib2

request = urllib2.Request(uri)
request.get_method = lambda: ‘DELETE‘
response = urllib2.urlopen(request)

时间: 2024-10-12 17:04:20

python urllib2对http的get,put,post,delete的相关文章

Python Urllib2和Cookielib的综合使用

Python Urllib2和Cookielib的综合使用 标签(空格分隔): Python Urllib2 Fetch 手动添加请求的Headers,在opener,Request,urlopen,看看有几种方法可以使用相同的Headers处理不同的网页: 设定CookieJar,设定cookielib.Cookie() 手动添加Headers,并设定CookieJar,看看能否自动处理: 1.手动添加Headers 1.1 添加到opener上 ? 1 2 3 4 5 6 7 8 opene

Python urllib2 发送HTTP Request

urllib2 是Python自带的标准模块, 用来发送HTTP Request的.  类似于 .NET中的,  HttpWebRequest类 urllib2 的优点 Python urllib2 发出的HTTP Request, 能自动被Fiddler截获, 方便了调试. Python 可以自动处理Cookie urllib2 的缺点 Python urllib2 发出的http Request, 中的header 会被修改成"首字母大写", 比如你的代码里写的header 是:

python urllib2使用心得

python urllib2使用心得 1.http GET请求 过程:获取返回结果,关闭连接,打印结果 f = urllib2.urlopen(req, timeout=10) the_page = f.read() f.close()print the_page 2.http GET请求 + 包头 paras = "Token=1234567890;Uuid=0987654321" send_headers = {"Cookie": paras, "Us

python urllib2 模拟网站登陆

1. 可用浏览器先登陆,然后查看网页源码,分析登录表单 2. 使用python urllib2,cookielib 模拟网页登录 import urllib,urllib2,cookielib #urllib2 支持 http,https def loginWeb(site,user,pwd): ''' 模拟网页登陆,登陆网址,用户名,密码不能为空 登录post form 表单逻辑需要对应登录网站,可以使用火狐浏览器firebug插件查看登陆请求的网址和参数 ''' formValue={'ac

python urllib2 http get、post请求的区别

python urllib2 实现HTTP 的GET POST 请求 python 一般可以用模块urllib2 来实现GET POST的http 请求 GET  请求 import os,sys import os,sys import urllib2 http_str = 'http://127.0.0.1:12345/apps/' + serviceLine + '/clusters/' + clusterName url = http_str + '/machine_info' req

python urllib2导出elasticsearch数据时 返回 "urllib2.HTTPError: HTTP Error 500: Internal Server Error"

0.业务场景 将ES中某个index的某个字段的所有数据,导出到文件中 1.ES数据导出方法简述 ES数据导出方法,我主要找到了以下几个方面,欢迎大家补充: ES官方API:snapshot and restore module The snapshot and restore module allows to create snapshots of individual indices or an entire cluster into a remote repository like sha

使用 python urllib2 抓取网页时出现乱码的解决方案

这里记录的是一个门外汉解决使用 urllib2 抓取网页时遇到乱码.崩溃.求助.解决和涨经验的过程.这类问题,事后看来只是个极小极小的坑,不过竟然花去很多时间,也值得记录一下.过程如下:目标: 抓取 http://sports.sina.com.cn/g/premierleague/index.shtml 代码: 1 2 3 4 5 6 # coding: u8 import urllib2 url = "http://sports.sina.com.cn/g/premierleague/ind

python urllib2介绍

urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件.他以urlopen函数的形式提供了一个非常简单的接口, 这是具有利用不同协议获取URLs的能力,他同样提供了一个比较复杂的接口来处理一般情况,例如:基础验证,cookies,代理和其他. 它们通过handlers和openers的对象提供. urllib2支持获取不同格式的URLs(在URL的":"前定义的字串,例如:"ftp"是"ftp:pytho

python Urllib2模块

# -*-coding:utf-8-*- __author__ = 'magicpwn' import urllib2 import urllib import Cookie # 无参数时,一般访问用法及返回信息的获取 respon = urllib2.urlopen('http://www.baidu.com') print 'code:', respon.getcode(), 'URL:', respon.geturl() print '==================Headers==