某网站转刷器

#!/usr/bin/python
# -*- coding: utf-8 -*-

import requests
import time
import urllib2
import re
import BeautifulSoup
#you need to install BeautifulSoup and requests modules from http://pypi.python.org/ manuelly

def main():
    url = ‘http://www.the_web_site.com/login.aspx‘
    headers = {‘content-type‘: ‘application/x-www-form-urlencoded‘}
    
    #use requests to keep the cookies
    session = requests.Session()
    response = session.get(url, headers=headers)
    
    #use beautifulsoup module to retrieve hidden postdata __VIEWSTATE and __EVENTVALIDATION
    soup = BeautifulSoup.BeautifulSoup(response.content)
    
    postdata = {
        ‘__VIEWSTATE‘: soup.find(‘input‘, id=‘__VIEWSTATE‘)[‘value‘],
        ‘__EVENTVALIDATION‘: soup.find(‘input‘, id=‘__EVENTVALIDATION‘)[‘value‘],
        ‘ctl00$ContentPlaceHolder1$UserName1‘: ‘username‘,
        ‘ctl00$ContentPlaceHolder1$Password1‘: ‘password‘,
        ‘ctl00$ContentPlaceHolder1$RememberMe1‘: ‘on‘,
        ‘ctl00$ContentPlaceHolder1$LoginButton1.x‘: ‘46‘,
        ‘ctl00$ContentPlaceHolder1$LoginButton1.y‘: ‘0‘
    }
    
    #login to the site
    response = session.post(url, data=postdata, headers=headers)
    print response
    #search_file_write(response)
    
    #get the web page content
    output = session.get(‘http://www.the_web_site.com/the_web_page.aspx‘)
    print output
    #search_file_write(output)
    respHtml = output.text
    #print respHtml
    #print type(respHtml)
    
    #check the webpage whether there have something you want
    found_s = re.search(u‘http://www.the_web_site.com/\d{7}.aspx\?sjuser=.{14}‘, respHtml)    
    found_p = re.search(u‘分</span>:\d{1,3}分‘, respHtml)
    print "found =",found_s
    
    if(found_s):
        #print the search result
        print "\033[1;32;40mThere have something !\033[0m"
        s_link = found_s.group(0)
        s_point = found_p.group(0)
        print "URL=",s_link
        print "Point=",s_point
    else:
        print "\033[1;31;40mno found.\033[0m"

def search_file_write(find_url):
    spath = "record.txt"
    f = open(spath,‘a‘)
    f.write(u"%s  \n"  %find_url)
    f.close()

if __name__=="__main__":
    while True:
        main()
        time.sleep(30)
时间: 2024-10-14 14:05:04

某网站转刷器的相关文章

网站自动刷帖,刷赞,刷评论等网络推广方式的基本实现

上周写了一个腾讯旗下的一个小说网站的自动回帖程序: 具体怎么实现的呢? 其实它就是一个,找到评论接口,然后利用程序模拟HTTP请求的过程.再结合爬虫的相关技术具体实现. 大概分为这么几步: 第一步:先找到评论接口: 使用chrome或者火狐浏览器,或者专业点的fiddler对评论过程抓包 得到具体的请求为: POST http://chuangshi.qq.com/bookcomment/replychapterv2 HTTP/1.1 Host: chuangshi.qq.com Connect

5款最好的免费在线网站CSS验证器

这里是一个名单, 5免费在线CSS验证器的网站.这些网站让你验证你的CSS代码的自由,没有任何麻烦.你可以选择上传文件,验证CSS添加URL,或简单的复制和粘贴完整的CSS代码.好的方面是,这些网站不仅指出了代码中的错误,但他们也建议的方法可以解决. 所有这些网站都是很有用的学习者以及季节性的CSS的CSS码编码器.验证按照万维网联盟(W3C) 规则.让我们开始与这些网站: 1.W3C CSS Validator 我将开始列表与W3C本身即 W3C CSS验证器CSS验证器验证程序检查CSS代码

网站防刷方案 -摘自网络

1. 访问网站所涉及环节 简单说就是重复相同的请求 首先看看访问流程所设计的每个环节 User -> Browse -> CDN/Proxy Cache -> Web Server -> App Server / fastcgi pool -> Cache -> Database 大部分网站都是这样的结构:用户,浏览器,CDN或反向代理,Web服务器,应用服务器,缓存,数据库 这个访问过程中所涉及的设备 PC -> ADSL/Cable/Ethernet ->

Python爬虫入门教程 54-100 博客园等博客网站自动评论器

爬虫背景 爬虫最核心的问题就是解决重复操作,当一件事情可以重复的进行的时候,就可以用爬虫来解决这个问题,今天要实现的一个基本需求是完成"博客园" 博客的自动评论,其实原理是非常简单的,提炼一下需求 基本需求 登录博客园<不实现,登录单独编写博客> 调用评论接口 返回请求结果 确定流程之后,基本就是找突破口的环节了 实际的去评论一下,然后不管你用什么抓包工具都可以,只要抓取到你想要的数据,即可 评论API如下 Request URL: https://www.cnblogs.

网站防刷限流

我在nginx 和tengine 之间选择了tengine.tengine是淘宝公司在nginx 研发的.同时也测试过nginx 在一些功能方面不是很好.比如: 限流这块,nginx目前只支持对ip限流 还有对后端服务器的检测方面都不如tengine Tengine version: Tengine/2.3.1nginx version: nginx/1.16.0 今天要说的模块: limit_req_zone 可以 支持对iIP 地址 基于URL,和URL的参数组合限流 在全局配置定义 lim

网站刷流量,手机在线刷网站,淘宝流量,提升网站排名

网站刷流量 免费提供给站长提升网站排名的工具,无广告.无病毒.超高速多页面在线直刷网站.网页.淘宝店铺.空间博客等,从基础提高网站的访问次数,包括每日的PV数.IP数.在线停留时间等等,提升网站价值.网站权重,增加网站收录,提升关键词排名.警告:仅供提升您自己网站排名用,切勿非法使用该工具刷他人网站! 只要用浏览器或者微信扫一下二维码即可登录链接刷网站流量: 有图有真相:    手机应用:搜索 "网站流量刷" 360手机助手下载链接:http://zhushou.360.cn/deta

SharePoint2013 显示网站菜单中设计管理器功能

当部署完SharePoint2013后,并创建了对应的网站集,就开始试图去按照企业VI(Visual Identity)来定制站点的布局.色彩.字体等等的页面元素.可是,在站点的设置菜单中,默认没有“设计管理器”菜单功能,首先判断到的就是应该是站点集的某些功能没有打开,通过激活网站集功能中“SharePoint Server 标准版网站集功能”和网站功能中的“SharePoint Server 发布”两项功能,网站的“设计管理器”功能最终出现在网站设置功能菜单中,接下来就可以使用该功能开始网站的

网站的服务器经常打不开或者速度超慢

关头词排名呈现转变的原因除了SEO搜索引擎改变算法等原因外,收集营销常识上网为巨匠总结一下导致网站环节词排名下降的原因:原因一.处事器不不变用 pnc    网站的服务器经常打不开或者速度超慢,城市导致网站被降权,使网站枢纽词排名下降.原因二.优化过度这种原因是斗劲常见导致要害词排名下降的原因,那优化过度默示在哪些方面呢?有关键词密渡过年夜,外链暴涨,一次性去失踪或者改换大量友情链接等等,这样情形网上有良多介绍的文章,在这里就不累述了.原因三.大量收录外链被删除搜索引擎的数据一段时刻都邑更新一次

中小型网站架构分析及优化

先看网站架构图: 以上网站架构广泛运用中大型网站中,本文从架构每一层分析所用主流技术和解决手段,有助于初入网站运维朋友们,进一步对网站架构认识,从而自己形成一套架构概念. 第一层:CDN 国内网络分布主要南电信北联通,造成跨地区访问延迟大问题,对于有一定访问量网站来说,增加CDN(内容分发网络)层可有效改善此现象,也是网站加速的最好选择.CDN把网站页面缓存到全国分布的节点上,用户访问时从最近的机房获取数据,这样大大减少网络访问的路径.如果想自己搭建CDN,不建议这么做,因为什么呢?其实说白了,