签到领金币脚本

  1 #!/use/bin/env python
  2 # -*- coding: utf-8 -*
  3 # Author    :    nick
  4 # Desc        :    v2ex每日签到
  5
  6 import urllib
  7 import urllib2
  8 import cookielib
  9 import re
 10 import sys
 11 from bs4 import BeautifulSoup as bs
 12 from datetime import datetime
 13
 14
 15 reload(sys)
 16 sys.setdefaultencoding(‘utf-8‘)
 17
 18
 19
 20
 21 login_URL = ‘http://www.v2ex.com/signin‘        #登录地址
 22 daily_URl = ‘http://www.v2ex.com/mission/daily‘ #签到地址
 23 balance_url = ‘http://v2ex.com/balance‘            #账户余额
 24 user = ‘test‘                          #账号
 25 passwd = ‘test‘
 26 today = datetime.today()
 27 time = today.strftime("%Y-%m-%d %X ")
 28
 29 ‘‘‘
 30 由于需要登录后访问页面,所以这里需要使用cookie进行session跟踪
 31 ‘‘‘
 32
 33 cookie = cookielib.CookieJar()                        #获取一个cookie对象
 34 handler = urllib2.HTTPCookieProcessor(cookie)        #利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
 35 opener = urllib2.build_opener(handler)                #装载cookie,通过handler来构建opener
 36
 37 ‘‘‘
 38 opener:当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。平时使用的默认opener就是urlopen,他是一个特殊的opener,
 39 可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。
 40 ‘‘‘
 41
 42
 43 def get_value(html,name,tag):
 44     ‘‘‘
 45     获取once的值,每次都不一样
 46     ‘‘‘
 47     soup = bs(html, ‘html.parser‘)
 48     if name:
 49         value = soup.find(attrs={tag:name})
 50     else:
 51         value =soup.find(tag)
 52     return value
 53
 54
 55 def login():
 56     ‘‘‘
 57     登录
 58     ‘‘‘
 59     login_req = urllib2.Request(login_URL)
 60     html = opener.open(login_req).read()
 61     once_value = get_value(html,‘once‘,‘name‘)[‘value‘]
 62
 63     header ={
 64         ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.94 Safari/537.36‘,
 65         "Host" : "www.v2ex.com",
 66         "Origin" : "http://www.v2ex.com",
 67         ‘Referer‘:‘http://www.v2ex.com/signin‘
 68     }
 69
 70     post_info = {‘u‘:user,‘p‘:passwd,‘once‘:once_value,‘next‘:‘/‘}
 71     postdata = urllib.urlencode(post_info)
 72     req = urllib2.Request(login_URL,postdata,header)
 73     response = opener.open(req,timeout=10)
 74 #    print response.getcode()
 75 #    print response.read()
 76
 77     if not ‘A2‘ in [c.name for c in cookie]:
 78         raise ValueError,"登录失败!"
 79
 80
 81 def daily():
 82     ‘‘‘
 83     每日登录奖励
 84     ‘‘‘
 85     daily_req = urllib2.Request(daily_URl)
 86     daily_page = opener.open(daily_req).read()
 87     day = re.findall(r"已连续登录\s?(\d+)\s?天",daily_page)[0]
 88     info = get_value(daily_page,‘fa fa-ok-sign‘,‘class‘)
 89     if info:
 90         print "%s每日登录奖励已经领取,已连续登录%s天" %(time,day)
 91     else:
 92         print "%s开始登录领取奖励....."% time
 93         onclick = get_value(daily_page,‘super normal button‘,‘class‘)[‘onclick‘]
 94         href = onclick[onclick.find("‘")+1:len(onclick)-2]
 95         full_url = ‘http://www.v2ex.com‘+href
 96         full_req = urllib2.Request(full_url)
 97         page = opener.open(full_req).read()
 98         success = get_value(daily_page,‘icon-ok-sign‘,‘class‘)
 99         if success:
100             day = int(day)
101             day +=1
102             print "%s签到成功!已成功领取每日奖励,已连续登录 %d 天" % (time,day)
103             sys.exit(0)
104         else:
105             print "%s签到失败!" % time
106
107 def balance():
108     ‘‘‘
109     账户余额
110
111     ‘‘‘
112     balance_req = urllib2.Request(balance_url)
113     balance_page = opener.open(balance_req).read()
114     soup = bs(html, ‘html.parser‘)
115
116
117
118
119
120 if __name__ == ‘__main__‘:
121     login()
122     daily()

然后丢到服务器上,因为v2ex每天早上8点签到时间重置,所以把crontab设置到八点十分。然后就等着收金币吧。O(∩_∩)O~~

10 8 * * *  sudo python /mnt/v2ex.py >>/mnt/v2ex.log
时间: 2024-10-27 06:56:43

签到领金币脚本的相关文章

c#实现到某网站自动领金币功能

需求分析 小木虫是我学生时代经常浏览的论坛,这个站主要以学术讨论为主,那时在这上面还是学到了很多论文方面的姿势的. 每次登陆论坛都忘不了上面的"每日红包"功能,每人每天有一次领金币的机会,金币赞起来可以干很多事情的.渐渐地,我长大了,虽然还是经常登陆论坛去看看,但"每日红包"功能由于步骤"复杂"(需要点击好几下鼠标才能领到),而且金币对我来说也没多大意义了,我的金币便再也没有增加过.直到前天,我需要金币的时候,我才知道币到用时方恨少.如果上天能再

实现每日签到日历的脚本

代码 //大七 2016年6月23日23:17:23 unit Q_MRQD; interface uses Classes, SysUtils, DateUtils; procedure Main(Npc: TNormNpc; Player: TPlayObject; Args: TArgs); implementation procedure Main(Npc: TNormNpc; Player: TPlayObject; Args: TArgs); begin Main2(Npc,Play

捕鱼达人3-通过修改系统时间获取金币脚本

前段时间在玩捕鱼达人3,觉得挺有意思,虽然每隔4个小时有金币送,但是还是不够挥霍,在网上找攻略,说修改系统时间可以领取金币,就用了一段时间,但是觉得挺麻烦,就写了个脚本 1.手机要拥有root权限,安装busybox,能使用更多Linux命令,最重要是开启telnetd服务 2.PC上最好安装adb工具箱,当然手机上安装终端也可以,但打字敲代码都很麻烦 3.PC安装手机驱动,使电脑adb可以识别手机 4.adb devices命令查看连接到电脑的设备 5.adb shell 进入shell模式,

selenium定时签到程序

selenium定时签到程序 定时任务 # -*- coding: utf-8 -*- import time import os import sched import datetime from com.luoluo.v2ex.mengyou import toQuitAfterTen, toquit, tosign from com.luoluo.v2ex.randomTime import randomTime, night, morning schedule = sched.sched

微信签到积分换卷小程序(完整前后台)

最近给学校旁边火锅店写了一个微信的签到领积分,积分兑换优惠卷.可乐.雪碧等商品的小程序. 思路:后台用的node express框架 数据库用的mongodb mongoose连接服务器和数据库,数据库这边是一个用户的集合,每个用户有用户名.所拥有的积分.签到天数.拥有的券等字段 签到页面:点击签到后变成今日已签到,函数用if,else判断 如果为点击签到,则发起请求在数据库查找该用户的天数并加1,积分+5,onshow函数请求签到的天数并显示,在点击签到后再触发一下 onshow函数,loca

adb自动化农药金币

本贴仅为记录贴 记录adb 的环境配置及python脚本的交互 1.adb 的下载 通过搜索adb工具即可下载,这里提供一个共享地址https://pan.baidu.com/s/103ix26tZymGlkQ0bu8qDNQ 提取码:rpnt 2.adb环境变量的配置 双击adb.exe,后在我的电脑属性-->高级系统设置-->环境变量-->在path下加一个adb文件夹路径-->                                   3.准备安卓机器(安卓模拟器/

AutoJS4.1.0实战教程---一键签到

App太多压根薅不过来,所以签到得积分是必要的功能而且奖励还可以.有的App如果不签到则无法TX,所以签到的必要性已经体现出来了.而App太多我们要是人工执那叫一个累啊. 福利来了!!!虽然有的时候有些会失败整体还是可以的. 大家支持一下,谢谢! 抖音极速版 890992808快手极速版 2rvxaem刷宝短视频 AD8PRR6火火视频极速版 居然没有彩蛋视频 A162141619火山极速版 279116054种子视频 30183757红包视频 vu2226878七猫免费小说 5K9FRS番茄免

【社区新上线】混合云技术社区礼品兑换帮助

混合云技术社区用户如何在社区礼品店兑换自己喜欢的礼品: 1.  注册成为51cto用户 2.  点"签到领积分"加入混合云技术社区成为达人 3.  获得金币来兑换礼品(教你如何快速获得金币) 4.   在心仪的礼品下面点"我要兑换",填写姓名.手机号.邮寄地址,然后点兑换   遇到问题后,怎么办? 遇到问题后,请提供您的信息:姓名.用户名.电话.Email和问题描述,发送邮件至[email protected] 个人资料用途: 如果您兑换了礼品或者获得特殊礼品请务必

[技术讨论]关于前几天发布的京东bug上的问题分析

1.  起因 前两天我发布了一个京东微信端截取到的三张图,并简单阐述了这三张图中的bug发现过程: 有朋友的评价是图中这样的,可实际上,他根本没有看出来这个bug代表的内容有多少.今天心血来潮决定详细写一下,展现一下老程序员的酸腐气质! 2.  过程详述 京东微信端可以签到获取金币,每天一次一个金币,结果没有任何提醒,签到积累30金币的时候就不能签到了,我一直不知道怎么回事. 这一天决定兑换一下这种100-10的券,因为提示是早上9点开始,此前9点多点击,都没有抢到,我只是觉得奇怪. 今天我仍然