pythonhttp

import urllib2,cookielib

class HTTPRefererProcessor(urllib2.BaseHandler):
    def __init__(self):
        self.referer = None

def http_request(self, request):
        if ((self.referer is not None) and
            not request.has_header("Referer")):
            request.add_unredirected_header("Referer", self.referer)
        return request

def http_response(self, request, response):
        self.referer = response.geturl()
        return response

https_request = http_request
    https_response = http_response

cj = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj), HTTPRefererProcessor(),)

urllib2.install_opener(opener)

data = ‘msisdn=999999‘
request = urllib2.Request(
        url     = ‘http://203.117.16.171:8080/webgamecode/webcore?action=topup‘,
        headers = {‘Content-Type‘: ‘application/x-www-form-urlencoded‘},
        data    = data)

ret = opener.open(request)
content = ret.read() 
print content

时间: 2024-10-14 01:58:15

pythonhttp的相关文章

Django -- 安装入门

关于Django的学习,我主要依据的两个地址,希望可以和大家分享: http://www.runoob.com/django/django-install.html http://djangobook.py3k.cn/2.0/ ------------------------------------------------------------------------------------------------- [入门简介] web开发激动人心且富于创造性,同时也繁琐令人生厌:pytho

使用C++扩展Python的功能 转自:http://blog.csdn.net/magictong/article/details/8897568#comments

使用C++扩展Python的功能 环境 VS2005Python2.5.4 Windows7(32位) 简介 长话短说,这里说的扩展Python功能与直接用其它语言写一个动态链接库,然后让Python来调用有点不一样(虽然本质是一样的).而是指使用Python本身提供的API,使用C++来对Python进行功能性扩展,可以这样理解,使用更高效的语言实现一些算法计算等等需要更高执行效率的核心(或者需要与系统进行密切交互的)模块,然后让Python像调用内建标准库的方式来调用这些模块,听起来是不是很

Scrapy突破反爬虫的限制

随机切换UserAgent https://github.com/hellysmile/fake-useragent scrapy使用fake-useragent 在全局配置文件中禁用掉默认的UA,将其设置为None即可 settings.py DOWNLOADER_MIDDLEWARES = { ... 'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': None, } 在中间件中编写自己的middlewar

使用selenium模拟登录知乎

网上流传着许多抓取知乎数据的代码,抓取它的数据有一个问题一定绕不过去,那就是模拟登录,今天我们就来聊聊知乎的模拟登录. 获取知乎内容的方法有两种,一种是使用request,想办法携带cookies等必要参数去请求数据,但是使用requests的话,不仅要解析Cookies,还要获取XSRF,比较麻烦,所以我想到了selenium. 我直接控制Chrome请求知乎,然后模拟输入用户名和密码,这样不也可以吗,嘿嘿 接下来说一下大体流程: 首先控制selenium模拟请求知乎登录界面:https://

校验验证码 实现登录验证

验证码处理 方式 1.手动处理 2.云打码平台自动识别验证码 实现流程: -1.对携带验证码的页面数据进行抓取 -2.可以将验证码图片进行解析,验证码图片下载到本地 -3.将验证码图片交给第三方进行识别,返回验证码图片上的值 -云打码平台 1.进行注册 注册普通用户和开发者用户 2.登录开发者用户 1.进行示例代码下载(开发文档>>调用示例及最新的DLL>>pythonhttp示例下载) 2.创建一个软件(我的软件>>新的软件) 3.使用示例代码中的源文件代码文件进行修

云打码 古诗文网

# 云打码  代码示例 import http.client, mimetypes, urllib, json, time, requests class YDMHttp: apiurl = 'http://api.yundama.com/api.php' username = '' password = '' appid = '' appkey = '' def __init__(self, username, password, appid, appkey): #构造方法 self.user

爬虫日记-验证码识别

识别验证码 这个例子,是我们用python代码通过采用第三方来进行识别验证码. 我们用的是云打码这个网站.先在这个网站上把该注册的该申请的东西全都弄好. 然后把他的PythonHTTP调用示例下载来. 代码就在里面,具体怎么实现的我们就不用去理解了,要是能理解了,那可得多屌. 接下来我们只用去我们想要识别验证码的网站上把这个图片的连接爬取下来就好了, 再对这个连接进行requests请求获取图片的二进制数据 然后把图片保存下来,最后把这个图片文件当做参数传进已经下载来的代码里面就好了. main