web自动化--谷歌浏览器驱动的安装和使用

web自动化的第一步,驱动浏览器,需要下载与浏览器版本相匹配的驱动这里简单记录一下如何获取正确的驱动并使用。

首先打开自己的谷歌浏览器,点击右上角三个点,找到帮助-关于谷歌,可以看到版本号。

第二步,百度 Chrome driver,一般第一条就是驱动的镜像地址。

第三步,挑选与自己谷歌浏览器版本匹配的驱动版本,版本比较新的可以从日期上找最新发布的版本,具体合不合适,可以点击进入后查看notes.txt,里面驱动和浏览器版本的对应关系写的也很清楚。浏览器对应的可使用的驱动版本有好几个 ,选择其中之一就可以。

第四步,下载浏览器内核,放入Python路径。可供下载的内核是根据操作系统划分的,一般windows就直接下载chromedriver_win32.zip这个,下载后解压得到Chromedriver.exe,复制粘贴到Python文件目录下,这样就可以直接使用了。

分享一下我刚开始学的时候掉过的坑:

1.明明pip install selenium 成功,结果提示没有selenium库,这可能是因为pycharm使用的python.exe不是你安装的地址,可以通过settings-project:工程名称-project interpreter中管理python路径和要用的package,在pycharm里加载要用的库也很简单,点击在package列表右侧的加号,搜索要用的库文件点击install package即可。

2.第一次调用webdriver.Chrome()方法,报错,百度一搜才发现,Chrome的C要大写~

原文地址:https://www.cnblogs.com/rain12356/p/10224397.html

时间: 2024-11-05 15:46:57

web自动化--谷歌浏览器驱动的安装和使用的相关文章

WEB自动化(Python+selenium)的API

在做Web自动化过程中,汇总了Python+selenium的API相关方法,给公司里的同事做了第二次培训,分享给大家                                                                                                                     WEB自动化测试培训2 课程目的 一.Webdriver API 的使用 课程内容 1    控制浏览器 Selenium 主要提供的是操作页面上各

基于Python的Web自动化(Selenium)之第一个查询脚本

之前已经将Web自动化的环境已经搭建好了,现在就需要进行开始进行脚本的编写了.首先放上一段比较简单的脚本,如下: #coding = utf-8 from selenium import webdriver import time try:     driver = webdriver.Chrome()     # driver = webdriver.Firefox()     driver.maximize_window()     # driver.set_window_size(1200

jmeter+WebDriver:启动浏览器进行web自动化

无论是web自动化还是手机app自动化,WebDriver是Selenium的核心模块,jmeter WebDriver 仅支持Firefox.Chrome 和 HTML Unit驱动,暂不支持IE 驱动. 一.下载JMeterPlugins-WebDriver插件并配置 分享我的网盘下载地址:https://pan.baidu.com/s/1Im3c9e3bNJHDskl3r9zpeA   提取码:6clp 将JMeterPlugins-WebDriver.zip解压后,将lib目录下所有的j

Selenium Web 自动化 - Selenium(Java)环境搭建

Selenium Web 自动化 - Selenium(Java)环境搭建 2016-07-29 第1章 Selenium环境搭建 1.1 下载JDK JDK下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 1.2 安装和配置JDK 安装目录尽量不要有空格  D:\Java\jdk1.8.0_91; D:\Java\jre8 设置环境变量: “我的电脑”->右键->“

爬虫实战:爬虫之 web 自动化终极杀手 ( 上)

欢迎大家前往腾讯云技术社区,获取更多腾讯海量技术实践干货哦~ 作者:陈象 导语: 最近写了好几个简单的爬虫,踩了好几个深坑,在这里总结一下,给大家在编写爬虫时候能给点思路.本次爬虫内容有:静态页面的爬取.动态页面的爬取.web自动化终极爬虫. 分析: 数据获取(主要靠爬虫) 静态网页爬取 动态网页爬取 数据存储(python excel存储) Python Excel操作,保存结果 数据获取实战: 百度音乐(静态网页) 分析步骤1 . 打开百度音乐:http://music.baidu.com/

Python+selenium+eclipse执行web自动化(一)准备工作

一.安装Eclipse 具体可以参考http://jingyan.baidu.com/article/fea4511a130b59f7bb912503.html,步骤比较详细 二.搭建Python+selenium环境 具体参考http://wenku.baidu.com/link?url=p6wc6Y2mVjZBb7_FVq41372h-MX4BrRhLccHUREWZqupI6s5Wpie7_I0mFmtGyLvVjNfoFvMWTa3L8P7RSeSRLAAg5Afatr704YVLuPw

Python+selenium+eclipse执行web自动化(三)浏览器frame及element定位

WEB页面上frame及element定位,需要先了解页面HTML结构,如下图所示: 在Firefox或者IE中按F12按键调用开发人员工具,在HTML界面可以看到页面的大体结构(也可参考http://wenku.baidu.com/view/f7f7514e763231126edb117a.html?re=view学习更多HTML内容).首先是HTML底层,然后是head头文件和body主体文件.在此界面可使用箭头图形按钮来快速获取某个控件的对应信息,如所在frame的名称.控件的名称.ID等

Robot Framework自动化测试框架(二):WEB自动化

摘要: WEB自动化离不开selenium,当然robot framework也是一样,结合了selenium,需要安装:pip install selenium2library,习惯了编码写WEB自动化,robot framework基于关键字自动化的工具也还算可以,让测试变得更简单就好. 正文: 1.元素定位: 1.1 id或name定位 1.2 xpath定位 1.Xpath的绝对路径: Xpath = /html/body/div[1]/div[4]/div[2]/div/form/sp

web自动化——元素定位

我们在做WEB自动化时,最根本的就是操作页面上的元素,首先我们要能找到这些元素,然后才能操作这些元素. 元素定位的8种方法: id.name.class.tag.link.partail_link.xpath.css_selector 1.id定位: find_element_by_id() 从上面定位到的搜索框属性中,有个id="kw"的属性,我们可以通过这个id定位到这个搜索框 代码: # coding = utf-8 from time import sleep from sel