python 携带cookie访问网站(python接口测试post)

  最近在使用自己研究性能测试工具的时候想到,使用python向服务器不断发送数据以作为并发测试。大概情况如下:

#coding=utf-8

import urllib2
import urllib
import cookielib
import os
import threading
import time
class HB:def add_cookie_login(self,username):
        self.user = username
        cookiejar = cookielib.CookieJar()
        urlOpener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))
        headers ={
            "User-agent":"Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1"}
        data={
            "loginname":self.user,
            "password":‘111111‘,
            ‘remember‘:1}
        postdata = urllib.urlencode(data)

        url_1 = ‘http://test.reg.haibian.com/login/ajax_login‘
        request = urllib2.Request(url_1,postdata,headers)
        url =urlOpener.open(request)
        print url.info()
        page = url.read()
        url = urlOpener.open(‘http://test.www.haibian.com/home/index‘)
        #request = urllib2.Request(url)
        #url = urlOpener.open(request)
        page = url.read()
        url = urlOpener.open(‘http://test.www.haibian.com/course/study?chapter_id=8540&course_id=1095&class_id=1433152942&date_id=48946‘)
        page = url.read()
        print page

    def users(self):
        f = open(‘student_email.txt‘)
        data = f.readlines()
        for user in data:
            self.add_cookie_login(user)
            break
            #print user,
        pass
if __name__ == ‘__main__‘:
    l = HB()
    l.users()

  就是通过python的几个包,然后将数据发送到服务器,然后再已服务器返回的登录cookie访问网站其他的页面。

时间: 2024-10-10 03:52:27

python 携带cookie访问网站(python接口测试post)的相关文章

python 携带cookie获取页面内容

有时会遇到爬取的页面需要登录,这就要带上cookie了. 下面记录了几种携带cookie的方法 # coding=utf-8 import requests s = requests.Session() login_data = {'username': 'teacher', 'password': 'teacher'} # 方法1 # resp1 = s.post('http://192.168.2.132/login/', data=login_data) # r = s.get('http

Python利用cookie模拟网站登录

Cookie,指某些网站为了辨别用户身份.进行session跟踪而储存在用户本地终端上的数据(通常经过加密) 比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的.那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了 [[email protected]~]# cat cscook.py #!/usr/bin/python #-*- coding: UTF-8 -*- import cookielib import urlli

PHP创建创建资源流上下文实现携带cookie访问

在tcp/ip入门经典知道资源流是一层一层的,现在只讨论http那一层的上下文(header那些): <?php $opts = array( 'http'=>array( 'method'=>"GET", 'header'=>"Accept-language: en\r\n" . "Cookie: foo=bar\r\n" ) ); $context = stream_context_create($opts); /*

Python网络爬虫---使用已登录的cookie访问需要登录的网页

使用已登录的Cookie访问登录的网站在网络爬虫中经常使用 1.使用浏览器手动登录网站,点击你需要访问的页面,比如我想访问的资源地址是 http://27.24.159.151:8005/student/GradeQueryPersonal.aspx 访问之后,使用F12启动调试 可以看到访问该资源地址的所需要的Cookie信息 2.开始编码,使用Python2.7的自带的urllib2模块发送带cookie信息的请求头去访问对应的资源地址 #-*-coding:utf-8-*- ''' 登录教

python构建模拟模型——网站独立访问用户数量

背景:发现一个有趣的现象,即一些用户在每一月都仅仅访问网站一次,我们想要了解这些人数量的变化趋势. 建立数学模型:简化问题,根据瓮模型推导出公式(具体推导见<数据之魅>,有时间再补充...):n(t)=N(1-e^((-k/N)*t)),其中,t代表一个月中的第t天,N代表潜在的总的访问人数,k为根据网站日志计算的每日平均访问量,n(t)代表第t天为止,访问此网站的用户总人数. python模拟,并和分析的模型作比较: import math import random as rnd impo

[转载]python实现带验证码网站的自动登陆

    原文地址:python实现带验证码网站的自动登陆作者:TERRY-V 早听说用python做网络爬虫非常方便,正好这几天单位也有这样的需求,需要登陆XX网站下载部分文档,于是自己亲身试验了一番,效果还不错. 本例所登录的某网站需要提供用户名,密码和验证码,在此使用了python的urllib2直接登录网站并处理网站的Cookie. Cookie的工作原理: Cookie由服务端生成,然后发送给浏览器,浏览器会将Cookie保存在某个目录下的文本文件中.在下次请求同一网站时,会发送该Coo

通过抓包,实现Python模拟登陆各网站,原理分析!

一.教程简介 1.1 基本介绍 通过分析登陆流程并使用 Python 实现模拟登陆到一个实验提供的网站,在实验过程中将学习并实践 Python 的网络编程,Python 实现模拟登陆的方法,使用 Firefox 抓包分析插件分析网络数据包等知识. 模拟登录可以帮助用户自动化完成很多操作,在不同场合下有不同的用处,无论是自动化一些日常的繁琐操作还是用于爬虫都是一项很实用的技能.本课程通过 Firefox 和 Python 来实现,环境要求如下: Python 库:urllib, http.cook

python实现自动监控网站并发送邮件告警

通过定时执行python脚本,可以实现定期批量访问网站,如果发现网站打不开,第一时间发邮件到管理员邮箱进行预警 这里用的是python3.5 需要安装的插件: smtplib:发邮件需要用到 pycurl:访问网站时会需要用到 linecache:在读取txt网站清单时需要用到 具体思路: python程序从txt里面批量读取到网站的信息,通过Curl.py模拟浏览器去访问网站,并且把访问的结果写入到以自己的网站名称-日期.txt格式的文件中记录;有几种情况: 1.如果发现打不开了,直接发邮件提

用python批量下载wallheaven网站图片

这要从很早以前说起,那个时候是刚开始玩Ubuntu,但是ubuntu的壁纸不太好看,所以我就想方设法找到很漂亮的壁纸来替换原先的,但是我又想让壁纸像幻灯片一样播放,但是ubuntu不像windows,没有这样的功能,所以只能上网找办法来解决,最后终于在ubuntu论坛看到了variety这个东东,这个东西用起来确实很酷,可以自己编辑图片源,但是它本身默认带了几个源,而恰好其中就有wallheaven(那个时候还是wallpaper,之后网站改了叫做wallheaven),所以我就到wallhea