利用python登录网页并自动签到

最近接触python操作网页,甚是方便。很多网站为了粘贴用户,要求每天签到送积分,而我们这么忙哪有空去干这个呀,python可以自动帮我们做这个事情。

实验网站:www.shuobar.com,这是一个提供免费电话的网站,以前在任何时候打电话都免费的,但是现在只能在中午12点之前免费,其他时间打电话要积分,每天签到可以送一些积分

实验方法:windows下pyhton编程

1、用户的登录。www.shuobar.com采用QQ授权登录,不提供帐号密码的登录方式,这给自动签到带来一些不便,首先研究一下QQ授权登录的原理。

用火狐或者google浏览器打开www.shuobar.cn首页,提示要求用QQ一键登录,打开火狐或者goolge浏览器自带的调试工具,其实就是右击网页,选择“查看元素”即可。

点击QQ一键登录按钮,将会到了QQ授权的页面,我没有了解过QQ授权的原理,但是通过多次测试,www.shuobar.cn的授权页面的URL一直是

http://openapi.qzone.qq.com/oauth/show?which=Login&display=pc&response_type=code&client_id=100478975&redirect_uri=http%3A%2F%2Fwww.shuobar.cn%2Fuser%2Fqqlogincallback.html&scope=get_user_info

所以,我猜测只要向这个页面POST一些东西就行了,那么现在测试一下需要POST什么。

2、POST数据的分析

利用浏览器自带的调试工具可以看到授权时到底POST了什么东西,在点击授权的同时观察页面POST的数据如下面所示

response_type:code
client_id:100478975
redirect_uri:http://www.shuobar.cn/user/qqlogincallback.html
scope:get_user_info
state:
src:1
update_auth:0
openapi:#
g_tk:1420953836
auth_time:1425356396524
ui:E2E88641-4784-46A5-96E1-95A0BD67AF80
client_id想必就是www.shuobar.cn这个网站的ID了,这个不会变的,g_tk不知道是个什么东西,但是貌似也不会变,只有auth_time和ui会变,我们只要找到这两个东西,把它POST上去就行了。auth_time很明显就是现在的时间嘛,这个利用python可以很容易得到,那么ui到底是什么东西呢?
时间: 2024-08-26 19:17:37

利用python登录网页并自动签到的相关文章

有关利用python获取网页, 以及KDD近几年论文标题与摘要链接

最近一直在看KDD的论文,不过,由于老师并没有什么合理的方向性,所以考虑把kdd中的大部分内容都利用python将所有标题.摘要获取下来. 还有一个原因在于,看acm上的摘要,都只显示了两行,再看多点儿,就需要点击expand,觉得非常不爽,所以就用python脚本把html标签删掉.. 想到的方法自然是通过python利用正则表达式对ACM的KDD网页进行字符串匹配,获得相应的网页字符串,然后将所有html的标签删除(例如<div></div>等), 将这些标签删除之后,就能够得

利用python和httpwatch实现自动监控网页

在做网页访问质量监控时,少不了使用到httpwatch这个工具.httpwatch能记录访问一个网页过程中发生的所有细节,包括网页里所有元素,从DNSlookup.网络连接到第一个数据包发送时间等等(如下图所示),都有详细记录,从而为我们查找问题提供了可视的方式.一般我们都是在出现问题时,就用它分析一下.但如果用它去长期跟跟踪一个网页的访问情况,然后记录入库,这些数据就可为分析问题提供一个基础数据,这也是很有意义的.那么httpwatch能实现这个需求吗.答案是肯定的,使用python就可以轻松

python登录csdn并自动评论下载资源脚本

功能 1.自动登录csdn 2.查找未评论的资源并自动评论 用到的库 1.python自带的requests,获取以及发送网页数据 2.python自带的time,用作休眠,csdn资源一段时间内只允许评论一个资源,每评论一个资源要休息一段时间 3.BeautifulSoup,解析html文本,搜索文本中指定的标签和属性 过程 1.用chrome的开发者工具抓取登录以及评论的数据包,获取数据包格式 2.requests获取指定页面html文本 3.BeautifulSoup分析页面属性,提取评论

Windows下利用Python动态检测外网IP并发邮件给邮箱

我们知道,运营商给分配的都是动态IP,IP地址过一段时间会自己变化,这就给需要静态地址的应用带来不便,例如搭建服务器或者远程控制电脑,这种情况必须知道自己电脑的IP,利用Python可以方便的自动检测并向邮箱发送邮箱. 但是,个人网络一般都是通过路由器来上网,直接检测电脑的IP并不可行,需要得到外网的IP.内网电脑可以通过端口映射来映射到外网.检测的原理如下: 1.通过自己的电脑信息不太好获取外网IP,幸好有一些雷锋网站可以帮助我们来检测,例如 http://city.ip138.com/ip2

python实现QQ机器人(自动登录,获取群消息,发送群消息)

一次偶然的机会我看见了一个群里的一个QQ号总是根据你所发的消息自动回复,当时很感觉到神奇,我知道可以模拟登录网站,没想到竟然也能模拟登录QQ,首先自己想到的就是如何实现模拟登录PC端的QQ, 开始研究了下,发现QQ所发送的包都很难理解. 于是就转到了网页版的QQ,因为在网页里可以捕获所有的请求从而更好的实现模拟功能! 首先第一步就是打开网页版的qq,打开浏览器的开发者模式 这里可以监控所有的请求! 打开登录界面的的时候 会捕捉到一个GET请求 https://ssl.ptlogin2.qq.co

Linux下使用crontab命令以及Python脚本实现自动签到

关于这一部分, 我首先介绍下如何实现使用Python脚本实现签到功能其实,linux下有个命令叫做curl,完全可以完成模拟签到的功能,但是为了练习Python,我就用Python来写了.有这个想法完全是因为实验室的学长开发了一款App,上边收个起床签到,还有排名,为了能那个首签... 言归正传 首先,因为是手机上的App, 所以,我们需要抓包看下它具体的URL以及发送的内容是什么,关于这部分内容我就不在赘述了,我实现的功能主要有模拟发布状态和模拟签到两种功能,两个的URL也是不同的.为了不让学

JavaEE之--------利用过滤器实现用户自动登录,安全登录,取消自动登录黑用户禁止登录

在我们生活中,对于账户的自动登录已经很常见了,所以利用过滤器实现这个功能 主要介绍用户的自动登录和取消自动登录,以及实现一天自动登录或者n天实现自动登录,当用户ip被加入到黑名单之后,直接利用过滤器返回一个警告页面. 过滤器的功能很是强大,我们只需要在写好的前台后servlet之后进行添加就可以实现这个功能 Ps:这个仅仅只是一个演示而已,里面的访问数据库的部分,自己随意模拟了下,主要是突出实现自动登录的功能. 前台代码: 前台代码是成功与否都在这个页面显示.用到的技术:jstl标签的应用,se

基于Sae和Python的flask实现的金山快盘自动签到

第一次写博客园,各位大大请多加照顾哦. 进入正题 功能介绍 架到Sae后,每天定点Sae的服务器就会帮你自动签到金山快盘和自动转盘抽奖.一些记录如下: 金山快盘的签到记录: Sae的Cron的日记: 核心代码 本来想写抓包的过程的,但是感觉很小儿科(如果大家觉得有需要,我再写上来),就不献丑了,直接po上代码. 1 #!/usr/bin/python 2 #-*-coding:utf-8-*- 3 import urllib, urllib2, cookielib, sys 4 5 class

python - 将数据转换成 excl 表格, json 等文件 (dajngo - 打开网页后自动下载)

本篇只讲述怎么用. 具体 tablib  更多详细用法可参考博客 : https://blog.csdn.net/liangyuannao/article/details/41476277 # 不得不说  tablib  模块是真的好使. 一. 运行脚本将文件存入本地 import tablib headers = ('商品名称', '数量', '单价', '合计') data = [ ['orange', '1', '5', '5'], ['apple', '2', '6', '12'] ]