python爬虫笔记----4.Selenium库(自动化库)

4.Selenium库

(自动化测试工具,支持多种浏览器,爬虫主要解决js渲染的问题)

pip install selenium

基本使用

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
browser = webdriver.Chrome()
try:
    browser.get(‘https://www.baidu.com‘)
    input = browser.find_element_by_id(‘kw‘)#通过id=kw查找
    input.send_keys(‘Python‘)#发送键
    input.send_keys(Keys.ENTER)#敲入回车
    wait = WebDriverWait(browser, 10)#等待元素加载出来
    wait.until(EC.presence_of_element_located((By.ID, ‘content_left‘)))
    print(browser.current_url)
    print(browser.get_cookies())
    print(browser.page_source)
finally:
    browser.close()

声明浏览器对象

#声明浏览器对象(其他可查看官方文档)
from selenium import webdriver
browser = webdriver.Chrome()#生成Chrome浏览器对象
browser = webdriver.Firefox()
browser = webdriver.Edge()
browser = webdriver.PhantomJS()
browser = webdriver.Safari()

访问页面

#访问页面
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
print(browser.page_source)#获取页面代码
browser.close()#关闭页面

查找元素

  查找单个元素

#查找单个元素
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
input_first = browser.find_element_by_id(‘q‘)#通过id
input_second = browser.find_element_by_css_selector(‘#q‘)#通过css选择器
input_third = browser.find_element_by_xpath(‘//*[@id="q"]‘)#通过xpath
print(input_first, input_second, input_third)
browser.close()

      其他查找方式

    •   find_element_by_name
    •   find_element_by_xpath
    •   find_element_by_link_text
    •   find_element_by_partial_link_text
    •   find_element_by_tag_name
    •   find_element_by_class_name
    •   find_element_by_css_selector

      也可以使用通用方法

input_first = browser.find_element(By.ID, ‘q‘)

  查找多个元素

#查找多个元素
lis = browser.find_elements_by_css_selector(‘.service-bd li‘)#其他也类似单个元素的查找方法,find_element_*变为find_elements_*
lis = browser.find_elements(By.CSS_SELECTOR, ‘.service-bd li‘)#也可以使用这种通用的

元素交互操作

  (对获取的元素调用交互方法)

browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com‘)
input = browser.find_element_by_id(‘q‘)#定位输入框(id=‘q‘)
input.send_keys(‘iPhone‘)#在搜索框输入iPhone
time.sleep(1)
input.clear()#清除搜索框
input.send_keys(‘iPad‘)#在搜索框输入iPad
button = browser.find_element_by_class_name(‘btn-search‘)#定位搜索按钮
button.click()#点击搜索按钮

  更多操作: http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement

(报错可能是chrome版本和chromedriver版本不匹配)

交互动作

  将动作附加到动作链中串行执行

from selenium import webdriver
from selenium.webdriver import ActionChains

browser = webdriver.Chrome()
url = ‘http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable‘
browser.get(url)
browser.switch_to.frame(‘iframeResult‘)#定位frame标签
source = browser.find_element_by_css_selector(‘#draggable‘)#定位到frame标签里的draggable
target = browser.find_element_by_css_selector(‘#droppable‘)
actions = ActionChains(browser)#动作链对象
actions.drag_and_drop(source, target)#把source拖拽到target上面
actions.perform()#执行动作

  更多操作: http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.common.action_chains

执行JavaScript

#进度条的拖拽
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.zhihu.com/explore‘)#打开网页
browser.execute_script(‘window.scrollTo(0, document.body.scrollHeight)‘)#将网页下拉到最下端
browser.execute_script(‘alert("To Bottom")‘)#弹出alert提示框

获取元素信息 

  获取属性值,文本值,id,位置,标签名,大小

from selenium import webdriver
from selenium.webdriver import ActionChains
browser = webdriver.Chrome()
url = ‘https://www.zhihu.com/explore‘
browser.get(url)
logo = browser.find_element_by_id(‘zh-top-link-logo‘)
input = browser.find_element_by_class_name(‘zu-top-add-question‘)
print(logo.get_attribute(‘class‘))#获取属性值
print(logo.text)#获取文本值
print(logo.id)#获取id
print(logo.location)#获取位置
print(logo.tag_name)#获取标签名
print(logo.size)#获取大小

Frame

from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException
browser = webdriver.Chrome()
url = ‘http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable‘
browser.get(url)
browser.switch_to.frame(‘iframeResult‘)#定位到frame
source = browser.find_element_by_css_selector(‘#draggable‘)#定位到frame里的选择器
try:
    logo = browser.find_element_by_class_name(‘logo‘)
except NoSuchElementException:
    print(‘NO LOGO‘)
browser.switch_to.parent_frame()#切换到父frame
logo = browser.find_element_by_class_name(‘logo‘)
print(logo.text)

等待

   隐式等待(当使用了隐式等待执行测试的时候,如果 WebDriver没有在 DOM中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常, 换句话说,当查找元素或元素并没有立即出现的时候,隐式等待将等待一段时间再查找 DOM,默认的时间是0)(没有太大必要)

from selenium import webdriver
browser = webdriver.Chrome()
browser.implicitly_wait(10)
browser.get(‘https://www.zhihu.com/explore‘)
input = browser.find_element_by_class_name(‘zu-top-add-question‘)#如果元素加载出来则不会等待,没有加载出来则等待10秒
print(input)

  显式等待

  (如果没有加载出来则一直等待)

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
browser = webdriver.Chrome()
browser.get(‘https://www.taobao.com/‘)
wait = WebDriverWait(browser, 10)#传入最长等待时间
input = wait.until(EC.presence_of_element_located((By.ID, ‘q‘)))#传入等待条件(是否出现)(获取输入框)
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, ‘.btn-search‘)))#(是否可点击)(获取按钮)
print(input, button)
  • title_is 标题是某内容
  • title_contains 标题包含某内容
  • presence_of_element_located 元素加载出,传入定位元组,如(By.ID, ‘p‘)
  • visibility_of_element_located 元素可见,传入定位元组
  • visibility_of 可见,传入元素对象
  • presence_of_all_elements_located 所有元素加载出
  • text_to_be_present_in_element 某个元素文本包含某文字
  • text_to_be_present_in_element_value 某个元素值包含某文字
  • frame_to_be_available_and_switch_to_it frame加载并切换
  • invisibility_of_element_located 元素不可见
  • element_to_be_clickable 元素可点击
  • staleness_of 判断一个元素是否仍在DOM,可判断页面是否已经刷新
  • element_to_be_selected 元素可选择,传元素对象
  • element_located_to_be_selected 元素可选择,传入定位元组
  • element_selection_state_to_be 传入元素对象以及状态,相等返回True,否则返回False
  • element_located_selection_state_to_be 传入定位元组以及状态,相等返回True,否则返回False
  • alert_is_present 是否出现Alert

    详细内容:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions

前进后退

import time
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.baidu.com/‘)#打开百度
browser.get(‘https://www.taobao.com/‘)#打开淘宝
browser.back()#返回上一步(返回到百度)
time.sleep(1)
browser.forward()#前进(返回淘宝)
browser.close()

Cookies

from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.zhihu.com/explore‘)
print(browser.get_cookies())#打印cookie
browser.add_cookie({‘name‘: ‘name‘, ‘domain‘: ‘www.zhihu.com‘, ‘value‘: ‘germey‘})#添加cookie
print(browser.get_cookies())#打印cookie
browser.delete_all_cookies()#清空cookie
print(browser.get_cookies())#打印

选项卡管理

import time
from selenium import webdriver
browser = webdriver.Chrome()
browser.get(‘https://www.baidu.com‘)#打开百度
browser.execute_script(‘window.open()‘)#新增选项卡
print(browser.window_handles)
browser.switch_to_window(browser.window_handles[1])#选择到第二个选项卡
browser.get(‘https://www.taobao.com‘)#打开淘宝
time.sleep(1)
browser.switch_to_window(browser.window_handles[0])#选择到第一个选项卡
browser.get(‘http://www.hao123.com‘)#打开网页

异常处理

from selenium import webdriver
from selenium.common.exceptions import TimeoutException, NoSuchElementException
browser = webdriver.Chrome()
try:
    browser.get(‘https://www.baidu.com‘)
except TimeoutException:
    print(‘Time Out‘)
try:
    browser.find_element_by_id(‘hello‘)
except NoSuchElementException:
    print(‘No Element‘)
finally:
    browser.close()

  详细文档:http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions

原文地址:https://www.cnblogs.com/jokerq/p/8881831.html

时间: 2024-10-20 18:14:34

python爬虫笔记----4.Selenium库(自动化库)的相关文章

[python爬虫] BeautifulSoup和Selenium对比爬取豆瓣Top250电影信息

这篇文章主要对比BeautifulSoup和Selenium爬取豆瓣Top250电影信息,两种方法从本质上都是一样的,都是通过分析网页的DOM树结构进行元素定位,再定向爬取具体的电影信息,通过代码的对比,你可以进一步加深Python爬虫的印象.同时,文章给出了我以前关于爬虫的基础知识介绍,方便新手进行学习.        总之,希望文章对你有所帮助,如果存在不错或者错误的地方,还请海涵~ 一. DOM树结构分析 豆瓣Top250电影网址:https://movie.douban.com/top2

Python爬虫利器:Selenium的用法

本文和大家分享的主要是python 爬虫 利器Selenium的相关内容,一起来看看吧,希望对大家 学习python爬虫有所帮助. Selenium  是什么?一句话,自动化测试工具.它支持各种浏览器,包括  Chrome , Safari , Firefox 等主流界面式浏览器,如果你在这些浏览器里面安装一个  Selenium  的插件,那么便可以方便地实现 Web界面的测试.换句话说叫  Selenium  支持这些浏览器驱动.话说回来, PhantomJS 不也是一个浏览器吗,那么  S

python爬虫之初始Selenium

1.初始 Selenium[1]  是一个用于Web应用程序测试的工具.Selenium测试直接运行在浏览器中,就像真正的用户在操作一样.支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等.这个工具的主要功能包括:测试与浏览器的兼容性--测试你的应用程序看是否能够很好得工作在不同浏览器和操作系统之上.测试系统功能--创建回归测试检验软件功能和用户需求.支持自动录制动作和自动生成 .Net.Java.Per

[Python爬虫] Windows下Selenium自动访问Firefox和Chrome并实现搜索截图

前两篇文章介绍了安装,此篇文章算是一个简单的进阶应用吧!它是在Windows下通过Selenium+Python实现自动访问Firefox和Chrome并实现搜索截图的功能. [Python爬虫] 在Windows下安装PhantomJS和CasperJS及入门介绍(上) [Python爬虫] 在Windows下安装PIP+Phantomjs+Selenium 自动访问Firefox 可以参照前文安装Selenium环境,目前Selenium这个用于Web应用程序测试的工具支持的浏览器包括IE.

python爬虫---从零开始(二)Urllib库

接上文再继续我们的爬虫,这次我们来述说Urllib库 1,什么是Urllib库 Urllib库是python内置的HTTP请求库 urllib.request 请求模块 urllib.error 异常处理模块 urllib.parse    url解析模块 urllib.robotparse  robots.txt解析模块 不需要额外安装,python自带的库. 注意: python2 import urllib2 response = urllib2.urlopen('http://baidu

Python爬虫(二):Requests库

所谓爬虫就是模拟客户端发送网络请求,获取网络响应,并按照一定的规则解析获取的数据并保存的程序.要说 Python 的爬虫必然绕不过 Requests 库. 1 简介 对于 Requests 库,官方文档是这么说的: Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档症.抑郁.头疼.甚至死亡. 这个介绍还是比较生动形象的,便不再多说.安装使用终端命令 pi

Python爬虫(三):BeautifulSoup库

BeautifulSoup 是一个可以从 HTML 或 XML 文件中提取数据的 Python 库,它能够将 HTML 或 XML 转化为可定位的树形结构,并提供了导航.查找.修改功能,它会自动将输入文档转换为 Unicode 编码,输出文档转换为 UTF-8 编码. BeautifulSoup 支持 Python 标准库中的 HTML 解析器和一些第三方的解析器,默认使用 Python 标准库中的 HTML 解析器,默认解析器效率相对比较低,如果需要解析的数据量比较大或比较频繁,推荐使用更强.

python爬虫(十九)BeautifulSoup4库

1.BeautifulSoup4库也是一个HTML/XML解析器,主要也是提取数据.lxml只会局部遍历,BeautifulSoup是基于HTML DOM的,会载入整个文档,建立一个树状结构,在解析HTML时比较简单. from bs4 import BeautifulSoup html=" 一段代码" soup=BeautifulSoup(html,'lxml') # 1.获取所有tr标签 trs=soup.find_all('tr') # 2.获取第2个tr标签 # limit表示

Python爬虫:HTTP协议、Requests库

HTTP协议: HTTP(Hypertext Transfer Protocol):即超文本传输协议.URL是通过HTTP协议存取资源的Internet路径,一个URL对应一个数据资源. HTTP协议对资源的操作: Requests库提供了HTTP所有的基本请求方式.官方介绍:http://www.python-requests.org/en/master Requests库的6个主要方法: Requests库的异常: Requests库的两个重要对象:Request(请求).Response(