Python3.x:代理ip刷点赞

Python3.x:代理ip刷点赞

一,功能:

 针对某网站对企业自动刷点赞;

 网站:https://best.zhaopin.com/

二,步骤:

1,获取代理ip(代理ip地址:http://www.xicidaili.com/nn);

2,模拟浏览器打开点赞页面;

3,模拟点赞事件,并传递参数;

 参数获取:根据浏览器的开发者工具,跟踪点赞事件;对应的“Network”可以看到相关的表头信息,其中的From Data就是参数信息;

三、代码:

# python3
# 功能:对https://best.zhaopin.com/中的某企业刷点赞
import re
import random
import sys
import time
import datetime
import threading
from random import choice
import requests
import bs4

# 设置user-agent列表,每次请求时,可在此列表中随机挑选一个user-agnet
user_agent = [
    "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:17.0; Baiduspider-ads) Gecko/17.0 Firefox/17.0",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9b4) Gecko/2008030317 Firefox/3.0b4",
    "Mozilla/5.0 (Windows; U; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; BIDUBrowser 7.6)",
    "Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko",
    "Mozilla/5.0 (Windows NT 6.3; WOW64; rv:46.0) Gecko/20100101 Firefox/46.0",
    "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.99 Safari/537.36",
    "Mozilla/5.0 (Windows NT 6.3; Win64; x64; Trident/7.0; Touch; LCJB; rv:11.0) like Gecko",
    ]

# 国内高匿代理IP,返回当前页的所有ip
def get_ip_list():
    #获取代理IP(取当前页的ip列表,每页100条ip)
    url = "http://www.xicidaili.com/nn"
    headers = { "Accept":"text/html,application/xhtml+xml,application/xml;",
                "Accept-Encoding":"gzip, deflate, sdch",
                "Accept-Language":"zh-CN,zh;q=0.8,en;q=0.6",
                "Referer":"http://www.xicidaili.com",
                "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.90 Safari/537.36"
                }
    r = requests.get(url,headers=headers)
    soup = bs4.BeautifulSoup(r.text, ‘html.parser‘)
    data = soup.table.find_all("td")
    # 匹配规则需要用浏览器的开发者工具进行查看
    # 匹配IP:<td>61.135.217.7</td>
    ip_compile= re.compile(r‘<td>(\d+\.\d+\.\d+\.\d+)</td>‘)
    # 匹配端口:<td>80</td>
    port_compile = re.compile(r‘<td>(\d+)</td>‘)
    # 获取所有IP,返回的是数组[]
    ip = re.findall(ip_compile,str(data))
    # 获取所有端口:返回的是数组[]
    port = re.findall(port_compile,str(data))
    # 组合IP+端口,如:61.135.217.7:80
    return [":".join(i) for i in zip(ip,port)]  

# 打开页面。执行点赞行为
def do_dz(code=0,ips=[]):
    #点赞,如果代理IP不可用造成点赞失败,则会自动换一个代理IP后继续点赞
    try:
        # 随机选取一个ip
        ip = choice(ips)
    except:
        return False
    else:
        proxies = {
            "http":ip,
        }
        headers_ = {
            "Accept":"*/*",
            "Accept-Encoding":"gzip, deflate, sdch",
            "Accept-Language":"zh-CN,zh;q=0.8,en;q=0.6",
            "Referer":"https://best.zhaopin.com/",
            "User-Agent":choice(user_agent),
        }
        # 用浏览器的开发者工具跟踪点赞事件传输的参数值
        datas = {‘bestid‘: 6030, ‘source‘: ‘best‘}
    try:
        # 点赞网址
        url_dz = "https://best.zhaopin.com/API/Vote.ashx"
        # 执行点赞行为(发送请求)
        r_dz = requests.post(url_dz,headers=headers_,data=datas,proxies=proxies)
    except requests.exceptions.ConnectionError:
        print("Connection Error")
        if not ips:
            print("not ip")
            sys.exit()
        # 删除不可用的代理IP
        if ip in ips:
            ips.remove(ip)
        # 重新请求URL
        get_url(code,ips)
    else:
        # 获取当前时间
        date = datetime.datetime.now().strftime(‘%H:%M:%S‘)
        print(u"第%s次 [%s] [%s]:投票%s (剩余可用代理IP数:%s)" % (code,date,ip,r_dz.text,len(ips)))

if __name__ == ‘__main__‘:
    ips = []
    # python3把xrange()与rang()e整合为一个range()
    for i in range(5000):
        # 每隔1000次重新获取一次最新的代理IP
        if i % 1000 == 0:
            ips.extend(get_ip_list())
        # 启用线程,隔2秒产生一个线程
        t1 = threading.Thread(target=do_dz,args=(i,ips))
        t1.start()
        # time.sleep的最小单位是毫秒
        time.sleep(2)

原文地址:https://www.cnblogs.com/lizm166/p/8242193.html

时间: 2024-11-06 03:49:27

Python3.x:代理ip刷点赞的相关文章

Python3.x:代理ip刷评分

Python3.x:代理ip刷评分 一,功能: 针对某网站对企业自动刷评分: 网站:https://best.zhaopin.com/ 二,步骤: 1,获取代理ip(代理ip地址:http://www.xicidaili.com/nn): 2,模拟浏览器打开评分页面: 3,模拟评分事件,并传递参数: 参数获取:根据浏览器的开发者工具,跟踪评分事件:对应的"Network"可以看到相关的表头信息,其中的From Data就是参数信息: 表头信息:POST方式 参数信息: 三.代码:(稍后

Python3.x:获取代理ip

Python3.x:获取代理ip 获取代理ip,代码: # python3 # 国内高匿代理IP网站:http://www.xicidaili.com/nn/ # 爬取首页代理IP地址 from bs4 import BeautifulSoup import requests import random # 获取首页IP列表 def get_ip_list(url, headers): web_data = requests.get(url, headers=headers) soup = Be

Python3网络爬虫(3):使用User Agent和代理IP隐藏身份

Python版本: python3 IDE: pycharm2017.3.3 一.为何要设置User Agent 有一些网站不喜欢被爬虫访问,所以会检测对象,如果是爬虫程序,他就会不让你访问,通过设置User Agent来达到隐藏身份的目的,User Agent的中文名为用户代理,简称UA User Agent存放于Headers中,服务器就是通过查看Headers中的User Agent来判断是谁在访问.在python中如果不设置User Agent,程序将会私用默认的参数,那么这个User

【python3】如何建立爬虫代理ip池

一.为什么需要建立爬虫代理ip池 在众多的网站防爬措施中,有一种是根据ip的访问频率进行限制的,在某段时间内,当某个ip的访问量达到一定的阀值时,该ip会被拉黑.在一段时间内被禁止访问. 这种时候,可以通过降低爬虫的频率,或者更改ip来应对.后者就需要有一个可用的代理ip池,以供爬虫工作时切换. 二.如何建立一个爬虫代理ip池 思路:   1.找到一个免费的ip代理网站(如:西刺代理) 2.爬取ip(常规爬取requests+BeautifulSoup) 3.验证ip有效性(携带爬取到的ip,去

Python3网络爬虫(十一):爬虫黑科技之让你的爬虫程序更像人类用户的行为(代理IP池等)

原文链接: Jack-Cui,http://blog.csdn.net/c406495762 运行平台: Windows Python版本: Python3.x IDE: Sublime text3 1 前言 近期,有些朋友问我一些关于如何应对反爬虫的问题.由于好多朋友都在问,因此决定写一篇此类的博客.把我知道的一些方法,分享给大家.博主属于小菜级别,玩爬虫也完全是处于兴趣爱好,如有不足之处,还望指正. 在互联网上进行自动数据采集(抓取)这件事和互联网存在的时间差不多一样长.今天大众好像更倾向于

Java中使用多线程、curl及代理IP模拟post提交和get访问

Java中使用多线程.curl及代理IP模拟post提交和get访问 菜鸟,多线程好玩就写着玩,大神可以路过指教,小弟在这受教,谢谢! [java] view plaincopyprint? /** * @组件名:javaDemo * @包名:javaDemo * @文件名:Jenny.java * @创建时间: 2014年8月1日 下午5:53:48 * @版权信息:Copyright ? 2014 eelly Co.Ltd,小姨子版权所有. */ package javaDemo; impo

Java中使用多线程、curl及代理IP模拟post提交和get訪问

Java中使用多线程.curl及代理IP模拟post提交和get訪问 菜鸟,多线程好玩就写着玩.大神能够路过不吝赐教.小弟在这受教.谢谢! 很多其它分享请关注微信公众号:lvxing1788 ~~~~~~ 切割线扭起来 ~~~~~~ /** * @组件名:javaDemo * @包名:javaDemo * @文件名称:Jenny.java * @创建时间: 2014年8月1日 下午5:53:48 * @版权信息:Copyright ? 2014 eelly Co.Ltd,小姨子版权全部. */

爬取西刺网代理ip,并把其存放mysql数据库

需求: 获取西刺网代理ip信息,包括ip地址.端口号.ip类型 那,如何解决这个问题? 分析页面结构和url设计得知: 数据都在本页面可以全部获取,没有单独的详情页面 下一页通过更改当前页面最后url后缀进行跳转页面,那我实现URL的拼接不就解决这个问题了 那,软件的运行环境? python3.5 scrapy twisted request pymysql 以上是第三方包,通过pip安装 MySQL服务 其中db,user,password的值根据实际情况而定 #!/usr/bin/pytho

简单爬虫-爬取免费代理ip

环境:python3.6 主要用到模块:requests,PyQuery 代码比较简单,不做过多解释了 #!usr/bin/python # -*- coding: utf-8 -*- import requests from pyquery import PyQuery as pq class GetProxy(object): def __init__(self): # 代理ip网站 self.url = 'http://www.xicidaili.com/nn/' self.header