Python爬虫系列之 xpath:html解析神器

通过前面的文章,我们已经知道了如何获取网页和下载文件,但是前面我们获取的网页都是未经处理的,冗余的信息太多,无法进行分析和利用

这一节我们就来学习怎么从网页中筛选自己需要的信息,顺便给大家推荐一个资源很全的python学习免非解答.裙 :七衣衣九七七巴而五(数字的谐音)转换下可以找到了,这里有资深程序员分享以前学习心得,学习笔记,还有一线企业的工作经验,且给大家精心整理一份python零基础到项目实战的资料,每天给大家讲解python最新的技术,前景,学习需要留言的小细节

说到信息筛选我们立马就会想到正则表达式,不过今天我们不讲正则表达式。因为对于爬虫来讲,正则表达式太复杂对新手十分不友好,而且正则表达式的容错率差,网页有稍微的改动就得重新写匹配表达式,另外正则表达式可读性几乎没有。

当然,这并不是说正则不好,只是正则不适合爬虫和新手。其实正则是十分强大的,在后面的数据清洗里我们会用到正则。

既然正则不能用,那该用什么呢?别担心,python为我们提供了很多解析 html页面的库,其中常用的有:

  • bs4中的 BeautifulSoup
  • lxml中的 etree(一个 xpath解析库)

BeautifulSoup类似 jQuery的选择器,通过 id、css选择器和标签来查找元素,xpath主要通过 html节点的嵌套关系来查找元素,和文件的路径有点像,比如:

#获取 id为 tab的 table标签下所有 tr标签
path = ‘//table[@id="tab"]//tr‘
#和文件路径对比
path = ‘D:\Github\hexo\source\_posts‘

BeautifulSoup和 xpath没有好坏优劣之分,讲 xpath是因为个人觉得 xpath更好用一些,后面如果时间允许的话再讲 BeautifulSoup。

现在,让我们先从 xpath开始!

二、xpath的安装和使用

  1. 安装 lxml库
    pip install lxml
    
  2. 简单的使用

    在使用 xpath之前,先导入 etree类,对原始的 html页面进行处理获得一个_Element对象

    我们可以通过_Element对象来使用 xpath

    #导入 etree类
    from lxml import etree
    
    #作为示例的 html文本
    html = ‘‘‘<div class="container">
                    <div class="row">
                        <div class="col">
                            <div class="card">
                                <div class="card-content">
                                    <a href="#123333" class="box">
                                        点击我
                                    </a>
                                </div>
                            </div>
                        </div>
                    </div>
                </div>‘‘‘
    
    #对 html文本进行处理 获得一个_Element对象
    dom = etree.HTML(html)
    
    #获取 a标签下的文本
    a_text = dom.xpath(‘//div/div/div/div/div/a/text()‘)
    
    print(a_text)
    

    打印结果:

    result-1

    熟悉 html的朋友都知道在 html中所有的标签都是节点。一个 html文档是一个文档节点,一个文档节点包含一个节点树,也叫做 dom树。

    节点树中的节点彼此拥有层级关系。

    父(parent)、子(child)和同胞(sibling)等术语用于描述这些关系。父节点拥有子节点。同级的子节点被称为同胞(兄弟或姐妹)。

    • 在节点树中,顶端节点被称为根(root)
    • 每个节点都有父节点、除了根(它没有父节点)
    • 一个节点可拥有任意数量的子
    • 同胞是拥有相同父节点的节点

    from w3school:http://www.w3school.com.cn/htmldom/dom_nodes.asp

    另外,我们把距离某个节点最近的子节点叫做它的直接子节点,如下图所示的 body和 head就是 html的直接子节点

    dom树 w3school

    了解了 html结构之后我们再来看 xpath的使用。

    首先,我们通过 etree.HTML( )来生成一个_Element对象,etree.HTML() 会将传入的文本处理成一个 html文档节点。这样就能保证我们总是能获得一个包含文档节点的_Element对象。

  3. xpath语法
    • a / b :‘/’在 xpath里表示层级关系,左边的 a是父节点,右边的 b是子节点,这里的 b是 a的直接子节点
    • a // b:两个 / 表示选择所有 a节点下的 b节点(可以是直接子节点,也可以不是),在上面的例子中我们要选择 a标签是这样写的
      a_text = dom.xpath(‘//div/div/div/div/div/a/text()‘)
      #用 //
      a_text = dom.xpath(‘//div//a/text()‘)
      #如果 div标签下有两个 a标签,那么这两个 a标签都会被选择(注意两个 a标签并不一定是兄弟节点)
      #比如下面的例子中的两个 a标签都会被选择 因为这两个 a标签都是 div的子节点
             ‘‘‘<div class="container">
                      <div class="row">
                          <div class="col">
                              <div class="card">
                                 <a href="#123332" class="box">
                                          点击我
                                  </a>
                                  <div class="card-content">
                                      <a href="#123333" class="box">
                                          点击我
                                      </a>
                                  </div>
                              </div>
                          </div>
                      </div>
                  </div>‘‘‘
      
    • [@]:选择具有某个属性的节点
      • //div[@classs], //a[@x]:选择具有 class属性的 div节点、选择具有 x属性的 a节点
      • //div[@class="container"]:选择具有 class属性的值为 container的 div节点
    • //a[contains(text(), "点")]:选择文本内容里含有 “点” 的 a标签,比如上面例子中的两个 a标签
    • //a[contains(@id, "abc")]:选择 id属性里有 abc的 a标签,如
      #这两条 xpath规则都可以选取到例子中的两个 a标签
      path = ‘//a[contains(@href, "#123")]‘
      path = ‘//a[contains(@href, "#1233")]‘
      
    • //a[contains(@y, "x")]:选择有 y属性且 y属性包含 x值的 a标签

总结

  1. 使用 xpath之前必须先对 html文档进行处理
  2. html dom树中所有的对象都是节点,包括文本,所以 text()其实就是获取某个标签下的文本节点
  3. 通过_Element对象的 xpath方法来使用 xpath
  4. 注意!!!_Element.xpath( path) 总是返回一个列表

有问题欢迎评论 ,顺便给大家推荐一个资源很全的python学习免非解答.裙 :七衣衣九七七巴而五(数字的谐音)转换下可以找到了,这里有资深程序员分享以前学习心得,学习笔记,还有一线企业的工作经验,且给大家精心整理一份python零基础到项目实战的资料,每天给大家讲解python最新的技术,前景,学习需要留言的小细节

本文的文字及图片来源于网络加上自己的想法,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

15人点赞

python爬虫系列

原文地址:https://www.cnblogs.com/chengxuyuanaa/p/12552036.html

时间: 2024-08-04 04:33:46

Python爬虫系列之 xpath:html解析神器的相关文章

python 爬虫系列教程方法总结及推荐

爬虫,是我学习的比较多的,也是比较了解的.打算写一个系列教程,网上搜罗一下,感觉别人写的已经很好了,我没必要重复造轮子了. 爬虫不过就是访问一个页面然后用一些匹配方式把自己需要的东西摘出来. 而访问页面经常用到的几个库,一是urllib和urllib2结合使用,二是requests的使用.第一种方法可以让你了解http协议的一些原理,对于初学者应该从这个入手,但是所谓显得麻烦,第二种requests比较方便,但是由于它是对其他库(httplib等)的高级封装,所以灵活性会差点,功能稍微差点,但一

Python爬虫系列 - 初探:爬取旅游评论

Python爬虫目前是基于requests包,下面是该包的文档,查一些资料还是比较方便. http://docs.python-requests.org/en/master/ 爬取某旅游网站的产品评论,通过分析,获取json文件需要POST指令.简单来说: GET是将需要发送的信息直接添加在网址后面发送 POST方式是发送一个另外的内容到服务器 那么通过POST发送的内容可以大概有三种,即form.json和multipart,目前先介绍前两种 1.content in form Content

Python爬虫系列之----Scrapy(七)使用IP代理池

一.手动更新IP池 1.在settings配置文件中新增IP池: IPPOOL=[ {"ipaddr":"61.129.70.131:8080"}, {"ipaddr":"61.152.81.193:9100"}, {"ipaddr":"120.204.85.29:3128"}, {"ipaddr":"219.228.126.86:8123"},

Python 爬虫开发之xpath使用

在进行爬虫开发中,需要的页面信息进行解析处理,获取到需要的关键数据.可以利用xpath进行对页面的xml文件进行解析处理,获取到需要的关键数据.XPath使用:XPath 可用来在 XML 文档中对元素和属性进行遍历.from lxml import etreeimport urllib2req = urllib2.Request(url)req.add_header('User-Agent', 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)')w

$python爬虫系列(1)——一个简单的爬虫实例

本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片. 1. 概述 本文主要实现一个简单的爬虫,目的是从一个百度贴吧页面下载图片.下载图片的步骤如下: 获取网页html文本内容: 分析html中图片的html标签特征,用正则解析出所有的图片url链接列表: 根据图片的url链接列表将图片下载到本地文件夹中. 2. urllib+re实现 #!/usr/bin/python # coding:utf-8 # 实现一个简单的爬虫,爬取百度贴吧图片 import urllib import r

python爬虫系列:更上一层楼

这篇博文主要写Scrapy框架的安装与使用 Scrapy框架安装 命令行进入C:\Anaconda2\Scripts目录,运行:conda install Scrapy 创建Scrapy项目 1)进入打算存储的目录下,执行scrapy startproject 文件名 命令即可创建 新文件目录及内容 demo/ scrapy.cfg tutorial/ __init__.py items.py pipelines.py settings.py spiders/ __init__.py ... 这

python爬虫系列之初识爬虫

前言 我们这里主要是利用requests模块和bs4模块进行简单的爬虫的讲解,让大家可以对爬虫有了初步的认识,我们通过爬几个简单网站,让大家循序渐进的掌握爬虫的基础知识,做网络爬虫还是需要基本的前端的知识的,下面我们进行我们的爬虫讲解 在进行实战之前,我们先给大家看下爬虫的一般讨论,方便大家看懂下面的实例 一.爬汽车之家 汽车之家这个网站没有做任何的防爬虫的限制,所以最适合我们来练手 1.导入我们要用到的模块 import requests from bs4 import BeautifulSo

Python爬虫的三种数据解析方式

数据解析方式 - 正则 - xpath - bs4 数据解析的原理: 标签的定位 提取标签中存储的文本数据或者标签属性中存储的数据 正则 # 正则表达式 单字符: . : 除换行以外所有字符 [] :[aoe] [a-w] 匹配集合中任意一个字符 \d :数字 [0-9] \D : 非数字 \w :数字.字母.下划线.中文 \W : 非\w \s :所有的空白字符包,括空格.制表符.换页符等等.等价于 [ \f\n\r\t\v]. \S : 非空白 数量修饰: * : 任意多次 >=0 + :

Python 爬虫系列:糗事百科最热段子

1.获取糗事百科url http://www.qiushibaike.com/hot/page/2/    末尾2指第2页 2.分析页面,找到段子部分的位置, 需要一点CSS和HTML的知识 3.编写代码 1 import urllib.request 2 from bs4 import BeautifulSoup 3 from urllib.request import URLError 4 from urllib.request import HTTPError 5 import time