find_elements后点击不了抓取的元素

1.莫名其妙抓不到元素,要去看句柄,是不是没有切换

h=driver.current_window_handle
nh=driver.window_handles
    for i in nh:
        if i!=h:
            driver.switch_to.window(i)

2.hover后才能看到的元素,要hover或者点击才能继续操作

mine=driver.find_element_by_id("j-username-color")
ActionChains(driver).move_to_element(mine).perform()

3.find_elements的时候要是同级别,才能往下click,简化了下网页代码:

<ul  id="collection-view">    <li>        <div class="collection-item">            <div class="item-action">                <button id="568" class="btn btn-primary js-apply">使用皮肤</button>            </div>        </div>    </li>    <li>        <div class="collection-item">            <div class="item-action">                <button id="567" class="btn btn-primary js-apply">使用皮肤</button>            </div>        </div>    </li></ul>

用 x= driver.find_elements_by_css_selector(".item-action>button"),然后想x[i].click()是不行的

hov=driver.find_elements_by_css_selector("ul#collection-view>li")
for i in range(0, 8):
    hov[i].click()    #li要hover或click才显示具体内容
    hov[i].find_element_by_css_selector("div.item-action>button").click()

最后终于抓到了,断断续续折腾半个月,算是新起点了

时间: 2024-10-05 06:44:25

find_elements后点击不了抓取的元素的相关文章

jq实现 元素显示后 点击页面的任何位置除元素本身外 隐藏元素

$(".share-weixin").on("click",function(e){ var $wx=$(".weixin-share"),_winW=$(window).width(),_winH=$(window).height(),_winScrollT=$(window).scrollTop(),_winScrollL=$(window).scrollLeft(); $wx.css({"display":"b

Mac用户抓包软件Charles 4.0 破解 以及 抓取Https链接设置

相信大家曾经都是Window的用户,作为前端哪能没有一款抓包工具,抓包工具可以非常便捷的帮助我们分析接口返回报文数据,快速定位问题. 曾经横扫window用户的Fiddler便是我们的挚爱,然而,作为前端开发者还是习惯用高大上的MAC进行开发,本次博客将给大家介绍MAC电脑如何安装抓包工具,以及如何设置HTTPS连接的抓取. 一.下载Charles 4.0 版本的软件. 链接: https://pan.baidu.com/s/1jI5j0O2 密码: u5r2 下载完成后,双击安装即可,直到安装

使用selenium实现简单网络爬虫抓取MM图片

撸主听说有个网站叫他趣,里面有个社区,其中有一项叫他趣girl,撸主点进去看了下,还真不错啊,图文并茂,宅男们自己去看看就知道啦~ 接下来当然就是爬取这些妹子的图片啦,不仅仅是图片,撸主发现里面的对话也很有意思,于是把对话也一并抓取下来好了. 那么问题来了,用什么工具呢?在之前的练习中已经用过urllib2,正则表达式匹配实在麻烦,这次来点稍微高级的,试试selenium: selenium是什么?其实它是一个web自动化测试的工具,运行起来就跟我们自己操作浏览器差不多,废话不多说,下面开始.

小米手机抓取Log教程

当小米手机遇到任何系统下的较为严重的故障时(即此时系统还是基本正常运行的,只是某些功能实现出了问题),例如软件自动退出,SD卡自动卸载,电话无法拨出等等.可以请用户协助抓取log即系统运行日志,来发送到[email protected],或者在论坛售后区发帖.我们再进一步转发给相应的工程师去根据log分析处理,这样就能够更加精准地帮助用户解决问题.那么如何抓取Log呢? 1.方法一     在某个程序运行过程中出现程序中断(FC),会出现以下图片,点击“立即报修”,就会把相应的LOG文件通过邮件

使用fiddler抓取微信公众号文章的阅读数、点赞数、评论数

1 设置fiddler支持https 打开fiddler,在菜单栏中依次选择 [Tools]->[Options]->[HTTPS],勾上如下图的选项: 单击Actions,选择Export Root Certificate to Desktop(导出证书到桌面)选项: 安装证书: 在桌面上找到FiddlerRoot.cer文件,双击进行安装直到导入成功. 2 配置fiddler抓取规则 在菜单栏中依次选择 [Rules]->[Customize Rules] 弹出Fiddler Scr

简易数据分析 09 | Web Scraper 自动控制抓取数量 &amp; Web Scraper 父子选择器

这是简易数据分析系列的第 9 篇文章. 今天我们说说 Web Scraper 的一些小功能:自动控制 Web Scraper 抓取数量和 Web Scraper 的父子选择器. 如何只抓取前 100 条数据? 如果跟着上篇教程一步一步做下来,你会发现这个爬虫会一直运作,根本停不下来.网页有 1000 条数据,他就会抓取 1000 条,有 10W 条,就会抓取 10W 条.如果我们的需求很小,只想抓取前 200 条怎么办? 如果你手动关闭抓取数据的网页,就会发现数据全部丢失,一条都没有保存下来,所

被惩罚的网站抓取不会减少BGP

被惩罚的网站抓取不会减少BGP, 网站被惩罚是一个非常令人苦恼的事情,得易搜信息网因为网站被惩罚往往伴随着索引量减少,关键词排名下降,流量减少等,自己的成果付之东流,没人愿意看到.很多人认为被搜索引擎惩罚就相当于被贴上了"垃圾"的标签,被牢牢的抓住了,再也翻不了身,搜索引擎也不会再很好的抓取这个网站,事实如此吗? 被惩罚的网站,抓取不会减慢 是否谷歌抓取被惩罚的站点频率会更少或更慢?谷歌回应,通常对被惩罚的网站,抓取不会减慢.因为网站被某个算法惩罚后,需要等待谷歌抓取这个网站,提取网站

Python爬虫抓取 python tutorial中文版,保存为word

看到了中文版的python tutorial,发现是网页版的,刚好最近在学习爬虫,想着不如抓取到本地 首先是网页的内容 查看网页源码后发现可以使用BeautifulSoup来获取文档的标题和内容,并保存为doc文件. 这里需要使用from bs4 import BeautifulSoup 来导入该模块 具体代码如下: # 输出所在网址的内容from bs4 import BeautifulSoup def introduce(url): res = requests.get(url) res.e

PHP 抓取远程文件出错的解决方案

file_get_contents在某些情况下会出错.这样在运行中会时不时的出现上述错误,我也换过file_get_contents等其他函数都没用,在网上查阅后发现用CURL方法抓取不会出错 $url = "http://www.php100.com/logo.gif";$ch = curl_init();curl_setopt ($ch, CURLOPT_URL, $url);curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); curl_se