python爬虫14--Selenium动态渲染页面抓取

1.声明浏览器对象

from selenium import webdriver

browser = webdriver.Chrome()
# browser = webdriver.Firefox()
# browser = webdriver.Edge()

2.访问页面

from selenium import webdriver

browser = webdriver.Chrome()
url = ‘http://www.baidu.com‘
browser.get(url)
print(browser.page_source)
browser.close()  #使用完要关闭浏览器

3.节点查找

3.1 单个节点

从淘宝首页提取搜索框

from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = ‘http://www.taobao.com‘
browser.get(url)
input_first = browser.find_element_by_id(‘q‘)                  #根据id获取
input_second = browser.find_elements_by_css_selector(‘#q‘)     #根据css选择器获取
input_third = browser.find_element_by_xpath(‘//*[@id="q"]‘)  #根据xpath获取
input_forth = browser.find_element(By.ID,‘q‘)                  #find_element()
print(input_first,input_second,input_third,input_forth)
browser.close()

运行结果为WebElement类型,<selenium.webdriver.remote.webelement.WebElement (session="47f594f34cc9868f68ab3653e1d542a6">

find_element()方法只查询到第一个节点

3.2 多个节点

查询左侧导航栏

from selenium import webdriver
from selenium.webdriver.common.by import By

url = ‘http://www.taobao.com‘
browser = webdriver.Chrome()
browser.get(url)
lis1 = browser.find_elements_by_css_selector(‘.service-bd li‘)  #class属性为service-bd的ul下的所有li标签,返回结果为列表
lis2 = browser.find_elements(By.CSS_SELECTOR,‘.service-bd li‘)
print(len(lis1),lis1)
print(len(lis2),lis2)
browser.close()

3.3 节点交互

Selenium可以驱动浏览器来执行一些操作,常用方法有:

  • send_keys():输入文字
  • clear():清空文字
  • click():点击按钮

在输入框中输入要查找的内容进行搜索

from selenium import webdriver
import time

url = ‘http://www.taobao.com‘
browser = webdriver.Chrome()
browser.get(url)
input = browser.find_element_by_id(‘q‘)
input.send_keys(‘电脑‘)
time.sleep(3)
input.clear()
input.send_keys(‘笔记本电脑‘)
button = browser.find_elements_by_css_selector(‘.btn-search tb-bg‘)
button.click()
browser.close()

3.4 执行JavaScript

对于某些操作selenium API没有提供,如下拉进度条,可以直接模拟运行javascript,使用execute_script()方法。

from selenium import webdriver
import time

url = ‘http://www.taobao.com‘
browser = webdriver.Chrome()
browser.get(url)
browser.execute_script(‘window.scrollTo(0,document.body.scrollHeight)‘)
time.sleep(5)
browser.execute_script(‘alert("To Buttom")‘)

4.获取节点信息

page_source属性可以获取网页源代码,然后可以使用解析库获取信息。

selenium选择节点,返回的WebElement类型,也有对应的属性和方法来获取节点信息。

4.1 获取属性

get_attribute()方法获取属性。

input = browser.find_element_by_id(‘q‘)
print(input.get_attribute(‘name‘))

4.2 获取文本值

text属性可获取文本值。

lis = browser.find_elements_by_css_selector(‘.service-bd li‘)
for li in lis:
    print(li.text)

4.3 获取id、位置、标签名和大小

id属性获取节点id;location属性获取该节点在页面中的相对位置;tag_name属性获取标签名;size属性获取节点宽高。

5.切换Frame

iframe即子Frame,相当于页面的子页面,结构和外部网页的结构完全一致,selenium打开页面后,默认在父级的Frame里,不能获取到在子Frame里的节点,需要使用switch_to.frame()方法来切换Frame。

from selenium import webdriver
from selenium.common.exceptions import  NoSuchElementException
browser = webdriver.Chrome()
url = ‘https://www.runoob.com/try/try.php?filename=jqueryui-api-droppable‘
browser.get(url)
browser.switch_to.frame(‘iframeResult‘)        #切换到子Frame
try:
    logo1 = browser.find_element_by_class_name(‘logo‘)
except NoSuchElementException:
    print(‘no logo‘)
browser.switch_to.parent_frame()     #切换到父级Frame
logo = browser.find_element_by_class_name(‘logo‘)
print(logo)
print(logo.text)
browser.close()

6.延时等待

selenium中get()方法会在网页框架加载结束后结束执行,此时如果获取page_source,可能不是浏览器完全加载的页面,所以需要延时等待一段时间,确保节点全部加载。

6.1 隐式等待

使用隐式等待,如果selenium在DOM中没有找到节点,会继续等待,超出设定时间后,会抛出找不到节点的异常,规定了一个固定时间,默认时间为0。用implicitly_wait()实现隐式等待。

from selenium import webdriver
browser = webdriver.Chrome()
browser.implicitly_wait(10)
browser.get(‘http://www.baidu.com‘)
input = browser.find_element_by_id(‘kw‘)
print(input)
browser.close()

6.2显示等待

显示等待指定一个最长等待时间,如果在规定时间内没有加载出来,会抛出超时异常。

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

browser = webdriver.Chrome()
url = ‘http://www.taobao.com‘
browser.get(url)
wait = WebDriverWait(browser,10)      #引入WebDriverWait对象,指定最长等待时间
input = wait.until(EC.presence_of_element_located((By.ID,‘q‘)))     #调用until()方法,传入等待条件expected_conditions
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,‘.btn-search‘)))
print(input,button)
browser.close()

7.前进和后退

back()后退;forward()前进。

from selenium import webdriver
import time

browser = webdriver.Chrome()
browser.get(‘http://www.baidu.com‘)
browser.get(‘http://taobao.com‘)
browser.get(‘https://www.cnblogs.com/‘)
browser.back()
time.sleep(3)
browser.forward()
time.sleep(3)
browser.back()
time.sleep(3)
browser.close()

8.选项卡操作

from selenium import webdriver
import time

browser = webdriver.Chrome()
browser.get(‘http://www.baidu.com‘)
browser.execute_script(‘window.open()‘)             #新开启一个选项卡,即第二个
print(browser.window_handles)                          #获取当前开启的所有选项卡,以列表的形式返回,此处两个
browser.switch_to.window(browser.window_handles[1])    #切换到第二个选项卡
browser.get(‘http://taobao.com‘)                    #在第二个选项卡打开淘宝页面
time.sleep(3)
browser.switch_to.window(browser.window_handles[0])     #切换到第一个选项卡
browser.get(‘https://www.cnblogs.com/‘)             #在第一个选项卡打开博客页面

更多资料见参考文档:https://selenium-python.readthedocs.io/api.html

9.案例--使用selenium抓取淘宝商品

目标:

利用selenium抓取淘宝商品并用pyquery解析得到商品的图片、名称、价格、购买人数、店铺名称和店铺所在地信息,并保存到MongoDB中。

原文地址:https://www.cnblogs.com/rong1111/p/12208250.html

时间: 2024-10-26 06:07:05

python爬虫14--Selenium动态渲染页面抓取的相关文章

Python 爬虫工程师必学 App数据抓取实战

第1章 课程介绍介绍课程目标.通过课程能学习到的内容.学会这些技能能做什么,对公司业务有哪些帮助,对个人有哪些帮助.介绍目前app数据抓取有哪些困难,面临的挑战,本实战课程会利用哪些工具来解决这些问题,以及本实战课程的特点 ... 1-1 python爬虫工程师必备技能--App数据抓取实战课程导学第2章 windows下搭建开发环境介绍项目开发需要安装的开发软件,讲解了安卓模拟器对比以及夜神安卓模拟器安装.介绍.简单使用和Genymotion安卓模拟器简单分析 介绍App应用抓包工具对比以及f

python爬虫----(6. scrapy框架,抓取亚马逊数据)

利用xpath()分析抓取数据还是比较简单的,只是网址的跳转和递归等比较麻烦.耽误了好久,还是豆瓣好呀,URL那么的规范.唉,亚马逊URL乱七八糟的.... 可能对url理解还不够. amazon ├── amazon │   ├── __init__.py │   ├── __init__.pyc │   ├── items.py │   ├── items.pyc │   ├── msic │   │   ├── __init__.py │   │   └── pad_urls.py │  

Python爬虫工程师必学——App数据抓取实战

Python爬虫工程师必学 App数据抓取实战 爬虫分为几大方向,WEB网页数据抓取.APP数据抓取.软件系统数据抓取.主要讲解如何用python实现App数据抓取 数据去重又称重复数据删除,是指在一个数字文件集合中,找出重复的数据并将其删除,只保存唯一的数据单元.数据去重可以有效避免资源的浪费,所以数据去重至关重要 数据去重 数据去重可以从两个节点入手:一个是URL去重.即直接筛选掉重复的URL:另一个是数据库去重.即利用数据库的一些特性筛选重复的数据. def process_spider_

爬虫动态渲染页面爬取之selenium驱动chrome浏览器的使用

Selenium是一个用于Web应用程序测试的工具.Selenium测试直接运行在浏览器中,就像真正的用户在操作一样,可以用其进行网页动态渲染页面的爬取. 支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等. 1. 示例 ### selenium的使用 ''' Selenium是一个用于Web应用程序测试的工具. Selenium测试直接运行在浏览器中,就像真正的用户在操作一样. 支持的浏览器包括IE(7

爬虫---selenium动态网页数据抓取

动态网页数据抓取 什么是AJAX: AJAX(Asynchronouse JavaScript And XML)异步JavaScript和XML.过在后台与服务器进行少量数据交换,Ajax 可以使网页实现异步更新.这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新.传统的网页(不使用Ajax)如果需要更新内容,必须重载整个网页页面.因为传统的在传输数据格式方面,使用的是XML语法.因此叫做AJAX,其实现在数据交互基本上都是使用JSON.使用AJAX加载的数据,即使使用了JS,将数

第四章爬虫进阶之动态网页数据抓取

动态网页数据抓取 什么是AJAX: AJAX(Asynchronouse JavaScript And XML)异步JavaScript和XML.过在后台与服务器进行少量数据交换,Ajax 可以使网页实现异步更新.这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新.传统的网页(不使用Ajax)如果需要更新内容,必须重载整个网页页面.因为传统的在传输数据格式方面,使用的是XML语法.因此叫做AJAX,其实现在数据交互基本上都是使用JSON.使用AJAX加载的数据,即使使用了JS,将数

Class 17 - 2 动态渲染页面爬取 — Splash

一.Splash 的使用 Splash 是一个JavaScript 渲染服务,带有 HTTP API的轻量级浏览器,同时对接了 Python 中的 Twisted 和 QT 库.利用它,同样可以实现动态渲染页面的抓取. 实例引入 通过 Splash 提供的 Web 页面来测试其渲染过程.例:在本机 8050 端口上运行 Splash 服务,打开 http://localhost:8050/ 即可看到其 Web 页面: 黑色框显示的是一个渲染示例.上方有个输入框,默认是 http://google

python--Selenium(动态渲染页面爬取)

上一节,学习了Ajax,Ajax 其实也是JS 动态渲染的页面的一种形式,通过直接分析Ajax,仍然可以借助requests  或者 urllib 来实现数据爬取. 但是JS动态渲染的页面不止Ajax 一种:还有就是像淘宝这种页面,即使是Ajax 获取的数据,但是其Ajax 接口含有很多加密参数,我们直接很难找出其规律,,也就很难直接分析Ajax 来抓取. 为了解决这些问题,可以直接使用模拟浏览器运行的方式来实现,这样就可以做到在浏览器中看到是什么样,抓取的源码就是什么样,也就是可见及可爬.这样

Python爬虫入门教程 17-100 博客抓取数据

写在前面 写了一段时间的博客了,忽然间忘记了,其实博客频道的博客也是可以抓取的,所以我干了..... 其实这事情挺简单的,打开CSDN博客首页,他不是有个最新文章么,这个里面都是最新发布的文章. 打开F12抓取一下数据API,很容易就获取到了他的接口 提取链接长成这个样子 https://blog.csdn.net/api/articles?type=more&category=newarticles&shown_offset=1540381234000000 发现博客最新文章是一个瀑布流