Python爬虫学习--用Python结合Selenium实现 明日之子节目直播时为自己喜欢的选手自动点赞拉票!!!

声明:本脚本纯属娱乐, 禁止用来非法自动点赞拉票!!!


闲话:

明日之子第二季开始好久了,作者一直再追,特别喜欢里面那个酷酷的小哥-蔡泽明。前两天晋选9大厂牌,采取的是直播的形式,选手是否会晋级纯靠粉丝手动点赞,而且特别坑的一点是点1000次才算一分贝,当时作者就想可不可以写个脚本自动点赞,当然功夫不负有心人,没有程序猿狂跨不过去的山啊!!!!

以下是晋级九大厂牌是直播的自动点赞代码(注意事项在代码的注释里):


from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
import time

class Tv(object):
    """
    本在Python3环境运行,请根据自己电脑运行环境、浏览器版本等选择适合自己的webdriver
    """

    def __init__(self):
        # 节目直播的url可能会改,请自行留意
        self.url = "http://v.qq.com/live/p/topic/55607/index.html#player"

        self.driver = webdriver.Chrome()

    def run(self):
        self.driver.get(self.url)
        """
        出现data-id的地方都要改成自己喜欢的选手的id:
        斯外戈:51673736  1673736
        蔡伟泽:51673681  1673681
        田 燚:51673438   1673438
        张毅豪:51571292  1571292
        邱洪凯:51673432  1673432
        黄翔麒:51673693  1673693
        文兆杰:51673466  1673466
        孙哲源:51573987  1573987
        邓 典:51673370  1673370
        如果自己喜欢的选手须下拉点赞榜单才能看到那么他的点赞按钮是不会被加载的,需要自己更改代码等待自己喜欢的选手的点赞按钮加载后才能自动点赞
        """

        while True:
            WebDriverWait(self.driver, 1000).until(EC.presence_of_element_located((By.XPATH, "//span[@data-id=‘51673681‘]//button[@data-id=‘1673681‘]")))
            btn = self.driver.find_element_by_xpath("//span[@data-id=‘51673681‘]//button[@data-id=‘1673681‘]")
            # 第一次自动点击会触发登录界面
            btn.click()
            try:
                # 出现登录界面,会等待用户选择微信还是QQ扫码登陆,请手动选择登陆的平台,并手动扫码登录。
                if EC.presence_of_element_located((By.XPATH, ‘//a[@class="btn_qq _login_type_item"]‘)):
                    login_button = self.driver.find_element_by_xpath(‘//a[@class="btn_qq _login_type_item"]‘)
                    login_button.click()
                    # 登录我设置的是10秒内必须完成
                    time.sleep(10)
            except:
                pass

            # 每0.1秒点击一次
            # time.sleep(0.1)

tv = Tv()
tv.run()


九大厂牌升级站时直播点赞加了一个手机短信验证,验证弹出后请自行验证,验证完再重开一次程序就好!


声明:本脚本纯属娱乐, 禁止用来非法自动点赞拉票!!!

作者微信:halooyAn

原文地址:https://www.cnblogs.com/halooyan/p/9457517.html

时间: 2024-10-07 12:52:38

Python爬虫学习--用Python结合Selenium实现 明日之子节目直播时为自己喜欢的选手自动点赞拉票!!!的相关文章

爬虫学习 08.Python网络爬虫之图片懒加载技术、selenium和PhantomJS

爬虫学习 08.Python网络爬虫之图片懒加载技术.selenium和PhantomJS 引入 今日概要 图片懒加载 selenium phantomJs 谷歌无头浏览器 知识点回顾 验证码处理流程 今日详情 动态数据加载处理 一.图片懒加载 什么是图片懒加载? 案例分析:抓取站长素材http://sc.chinaz.com/中的图片数据 #!/usr/bin/env python # -*- coding:utf-8 -*- import requests from lxml import

Python爬虫学习系列教程

Python爬虫学习系列教程 大家好哈,我呢最近在学习Python爬虫,感觉非常有意思,真的让生活可以方便很多.学习过程中我把一些学习的笔记总结下来,还记录了一些自己实际写的一些小爬虫,在这里跟大家一同分享,希望对Python爬虫感兴趣的童鞋有帮助,如果有机会期待与大家的交流. Python版本:2.7 一.爬虫入门 1. Python爬虫入门一之综述 2. Python爬虫入门二之爬虫基础了解 3. Python爬虫入门三之Urllib库的基本使用 4. Python爬虫入门四之Urllib库

Python爬虫学习路线,强烈建议收藏这十一条

(一)如何学习Python 学习Python大致可以分为以下几个阶段: 1.刚上手的时候肯定是先过一遍Python最基本的知识,比如说:变量.数据结构.语法等,基础过的很快,基本上1~2周时间就能过完了,我当时是在这儿看的基础:Python 简介 | 菜鸟教程 2.看完基础后,就是做一些小项目巩固基础,比方说:做一个终端计算器,如果实在找不到什么练手项目,可以在 Codecademy - learn to code, interactively, for free 上面进行练习. 如果时间充裕的

Python爬虫学习:四、headers和data的获取

之前在学习爬虫时,偶尔会遇到一些问题是有些网站需要登录后才能爬取内容,有的网站会识别是否是由浏览器发出的请求. 一.headers的获取 就以博客园的首页为例:http://www.cnblogs.com/ 打开网页,按下F12键,如下图所示: 点击下方标签中的Network,如下: 之后再点击下图所示位置: 找到红色下划线位置所示的标签并点击,在右边的显示内容中可以查看到所需要的headers信息. 一般只需要添加User-Agent这一信息就足够了,headers同样也是字典类型: user

Python爬虫学习:三、爬虫的基本操作流程

本文是博主原创随笔,转载时请注明出处Maple2cat|Python爬虫学习:三.爬虫的基本操作与流程 一般我们使用Python爬虫都是希望实现一套完整的功能,如下: 1.爬虫目标数据.信息: 2.将数据或信息存入数据库中: 3.数据展示,即在Web端进行显示,并有自己的分析说明. 这次我先介绍第一个功能中所需要实现的基本操作: 爬虫的基本操作:      表示必须步骤           表示可选步骤 导入爬虫所需要的库(如:urllib.urllib2.BeautifulSoup.Scrap

2018/7/21 Python 爬虫学习

2018/7/21,这几天整理出来的一些Python 爬虫学习代码. import urllib2 response = urllib2.urlopen("http://baidu.com") html = response.read() print html 进一步,可以request import urllib2 req = urllib2.Request("http://www.baidu.com") response = urllib2.urlopen(re

爬虫学习 04.Python网络爬虫之requests模块(1)

爬虫学习 04.Python网络爬虫之requests模块(1) 引入 Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档症.抑郁.头疼.甚至死亡. 今日概要 基于requests的get请求 基于requests模块的post请求 基于requests模块ajax的get请求 基于requests模块ajax的post请求 综合项目练习:爬取国家药品监

爬虫学习 06.Python网络爬虫之requests模块(2)

爬虫学习 06.Python网络爬虫之requests模块(2) 今日内容 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 知识点回顾 xpath的解析流程 bs4的解析流程 常用xpath表达式 常用bs4解析方法 了解cookie和session - 无状态的http协议 如上图所示,HTTP协议 是无状态的协议,用户浏览服务器上的内容,只需要发送页面请求,服务器返回内容.对于服务器来说,并不关心,也并不知道是哪个用户的请求.对于一般浏览性的网页来说

爬虫学习 05.Python网络爬虫之三种数据解析方式

爬虫学习 05.Python网络爬虫之三种数据解析方式 引入 回顾requests实现数据爬取的流程 指定url 基于requests模块发起请求 获取响应对象中的数据 进行持久化存储 其实,在上述流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析.因为大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据.因此,本次课程中会给大家详细介绍讲解三种聚焦爬虫中的数据解析方式.至此,我们的数据爬取的流程可以修改为: 指定url 基于r