python爬虫之html解析Beautifulsoup和Xpath

Beautiifulsoup

Beautiful Soup 是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,支持CSS选择器、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器。Beautiful Soup 3 目前已经停止开发,推荐现在的项目使用Beautiful Soup 4。
Beautiifulsoup:python语言写的
re:C语言写的
lxml:C语言写的

速度最快的是正则,其次是lxml,最后是Beautifulsoup

安装
pip install Beautiifulsoup4

四大对象种类

Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种:
- Tag
- NavigableString
- BeautifulSoup
- Comment

Tag

Tag 通俗点讲就是 HTML 中的一个个标签。

from bs4 import Beautiifulsoup
html = """
<html><head><title>The Dormouse‘s story</title></head>

<p class="title"><b>The Dormouse‘s story</b></p>

<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>

<p class="story">...</p>
"""
print(soup.p)
# <p class="title" name="dromouse"><b>The Dormouse‘s story</b></p>

print(type(soup.p))
# <class ‘bs4.element.Tag‘>

我们可以利用 soup 加标签名轻松地获取这些标签的内容,这些对象的类型是bs4.element.Tag。对于 Tag,它有两个重要的属性,是 name 和 attrs.

print(soup.name)
# [document] soup 对象本身比较特殊,它的 name 即为 [document]
print(soup.head.name)
# head 对于其他内部标签,输出的值便为标签本身的名称
print(soup.p.attrs)
# {‘class‘: [‘title‘], ‘name‘: ‘dromouse‘}
print(soup.p[‘class‘])  # 取出标签的属性
print(soup.p.get(‘class‘)  # 取出标签的属性,找不到返回None
# [‘title‘]
print(soup.a.text) #等于print(soup.a.get_text()) 取出标签下的文本内容

NavigableString

NavigableString简单来讲就是一个可以遍历的字符串。

例如:

print(soup.p.string)
# The Dormouse‘s story
print(type(soup.p.string))
#  <class ‘bs4.element.NavigableString‘>

搜索文档

Beautiful Soup定义了很多搜索方法,这里着重介绍2个: find() 和 find_all() .其它方法的参数和用法类似。
使用find_all等类似的方法可以查找想要的文档内容。
在介绍find_all方法之前,先介绍一下过滤器的类型。

字符串

最简单的过滤器是字符串。在搜索方法中传入一个字符串参数,BeautifulSoup会查找与字符串完整匹配的内容。

例如:

from bs4 import BeautifulSoup
soup = Beautiifulsoup(html,‘lxml‘)
soup.find_all(‘a‘) #匹配所有的a标签
soup.find_all(‘a‘,attrs={‘class‘:‘tittle‘}) #匹配所有class为tittle的a标签 等于soup.find_all(‘a‘,class_=‘tittle‘)

正则表达式

find_all方法可以接受正则表示式作为参数,BeautifulSoup会通过match方法来匹配内容。

#匹配以b开头的标签
for tag in soup.find_all(re.compile(‘^b‘)):
    print(tag.name)
#  body  b
#匹配包含t的标签
for tag in soup.find_all(re.compile(‘t‘)):
    print(tag.name)
# html  title

列表

find_all方法也能接受列表参数,BeautifulSoup会将与列表中任一元素匹配的内容返回。

#查找a标签和b标签
for tag in soup.find_all([‘a‘,‘b‘]):
    print(tag.name)
# b a a a

方法

find_all方法也能接受列表参数,BeautifulSoup会将与列表中任一元素匹配的内容返回。

#匹配包含class属性,但是不包括id属性的标签。
def has_class_but_no_id(tag):
    return tag.has_attr(‘class‘) and not tag.has_attr(‘id‘)

print([tag.name for tag in soup.find_all(has_class_but_no_id)])
# [‘p‘,‘p‘,‘p‘]

css选择器

这就是另一种与 find_all 方法有异曲同工之妙的查找方法.

  • 写 CSS 时,标签名不加任何修饰,类名前加.,id名前加#
  • 在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),返回类型是 list

1.通过标签名查找

print(soup.select(‘title‘))
#[<title>The Dormouse‘s story</title>]

print(soup.select(‘a‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

print(soup.select(‘b‘))
#[<b>The Dormouse‘s story</b>]

2.通过类名查找

print(soup.select(‘.sister‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

3.通过 id 名查找

print(soup.select(‘#link1‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>]

4.组合查找

组合查找即和写 class 文件时,标签名与类名、id名进行的组合原理是一样的,例如查找 p 标签中,id 等于 link1的内容,二者需要用空格分开

print(soup.select(‘p #link1‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>]
直接子标签查找,则使用 > 分隔

print(soup.select("head > title"))
#[<title>The Dormouse‘s story</title>]

5.属性查找

查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。

print(soup.select(‘a[class="sister"]‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>, <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]

print(soup.select(‘a[href="http://example.com/elsie"]‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>]
同样,属性仍然可以与上述查找方式组合,不在同一节点的空格隔开,同一节点的不加空格

print(soup.select(‘p a[href="http://example.com/elsie"]‘))
#[<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>]

6.获取内容

以上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容。

soup = BeautifulSoup(html, ‘lxml‘)
print(type(soup.select(‘title‘)))
print(soup.select(‘title‘)[0].get_text())

for title in soup.select(‘title‘):
    print(title.get_text())

总结:

通过tag标签逐层查找:
soup.select("body a")
找到某个tag标签下的直接子标签
soup.select("head > title")
通过CSS的类名查找:
soup.select(".sister")
通过tag的id查找:
soup.select("#link1")
通过是否存在某个属性来查找:
soup.select(‘a[href]‘)
通过属性的值来查找:
soup.select(‘a[href="http://example.com/elsie"]‘)
获取内容
soup.select(a #link1)[0].get_text()

XPATH

xpath也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。并且在爬虫框架scrapy中应用广泛。

安装:

pip install lxml

xpath主要语法

选取节点

/     从根节点选取,假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置,若以//开头,表示在全局搜索
. 选取当前节点
.. 选取当前节点的父节点
@ 选取属性
* 匹配任何元素节点

例如:

bookstore 选取 bookstore 元素的所有子节点。
/bookstore
选取根元素 bookstore。

注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!

bookstore/book 选取属于 bookstore 的子元素的所有 book 元素。
//book 选取所有 book 子元素,而不管它们在文档中的位置。
bookstore//book 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。
//@lang 选取名为 lang 的所有属性。

谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点。

谓语被嵌在方括号中。

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

/bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()<3] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang] 选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=‘eng‘] 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

XPath 通配符可用来选取未知的 元素。

/bookstore/* 选取 bookstore 元素的所有子元素。
//* 选取文档中的所有元素。
//title[@*] 选取所有带有属性的 title 元素。

选取若干路径

通过在路径表达式中使用"|"运算符,您可以选取若干个路径。

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

//book/title | //book/price 选取 book 元素的所有 title 和 price 元素。
//title | //price 选取文档中的所有 title 和 price 元素。
/bookstore/book/title | //price 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

补充:div.xpath(‘string(.)‘) 选取div下面的所有文本

案例:在百度搜索python,提取出搜索结果中的网站的超链接和标题。如图,提取下面红框标记部分的链接和文本。

代码1:Beautifulsoup实现

import requests
from bs4 import BeautifulSoup

def get_response():
    ‘‘‘
    :return:爬取需要的数据,在本例中就是百度搜索python结果的网页源代码
    ‘‘‘
    url = ‘http://www.baidu.com/s?wd=python‘
    html = requests.get(url).text
    return html

def parse():
    info = {}
    soup = BeautifulSoup(get_response(),‘lxml‘)
    nodelist = soup.find_all(‘div‘,class_=‘result c-container ‘) # 分析页面源码,所有的信息保存在类名为‘result c-container ‘的div下面
    for node in nodelist:
        href = node.select(‘h3 > a‘)[0].get(‘href‘)  # 注意select得到的结果是个列表
        title = node.select(‘h3 > a‘)[0].text  # get_text() 和text 都会得到标签下所有的文本
        info[title] = href
    return info

if __name__ == ‘__main__‘:
    print(parse())

代码2:xpath实现

import requests
from lxml import etree

def get_response():
    url = ‘http://www.baidu.com/s?wd=python‘
    html = requests.get(url).text
    return html

def parse():
    info = {}
    e = etree.HTML(get_response())
    nodelist = e.xpath(‘//div[@class="result c-container "]‘)
    for node in nodelist:
        href = node.xpath(‘./h3/a/@href‘)[0]
        # title = ‘‘.join(node.xpath(‘./h3/a/text()‘)) # 用/text()得到该标签下的文本,但是会按照标签隔开以列表形式保存,尝试用join拼接
        # title = node.xpath(‘./h3/a‘)[0].text  # 用text也只能得到该标签的文本,不包含子标签及子标签后面的文本,适用于精确定位
        title = node.xpath(‘./h3/a‘)[0].xpath(‘string(.)‘)  # 用xpath(‘string(.)‘)得到该标签下的所有文本
        info[title] = href
    return info

if __name__ == ‘__main__‘:
    print(parse())

原文地址:https://www.cnblogs.com/woaixuexi9999/p/9256505.html

时间: 2024-11-06 07:43:26

python爬虫之html解析Beautifulsoup和Xpath的相关文章

python爬虫实例(urllib&BeautifulSoup)

python 2.7.6 urllib:发送报文并得到response BeautifulSoup:解析报文的body(html) #encoding=UTF-8 from bs4 import BeautifulSoup from urllib import urlopen import urllib list_no_results=[]#没查到的银行卡的list list_yes_results=[]#已查到的银行卡的list #解析报文,以字典存储 def parseData(htmls,

Python爬虫请求头解析

Python爬虫请求头解析 Accept:本次请求可以接受的内容: Accept-Encoding:可以接受的数据编码的类型: Accept-Language:可以接受的语言类型: Cookie:保存用户状态的登录状态信息(身份证): Host:保存请求的主机地址: Referer:告诉服务器从哪里来(从哪个网站过来的): See-Fetch-Mode/Site/User:用户的一些配置信息(不重要,对爬虫没有影响): Upgrade-Insecure-Request:本次请求是否安全(1为安全

Python爬虫:数据解析 之 xpath

资料: W3C标准:https://www.w3.org/TR/xpath/all/ W3School:https://www.w3school.com.cn/xpath/index.asp 菜鸟教程:https://www.runoob.com/xpath/xpath-tutorial.html xpath教程:http://www.zvon.org/xxl/XPathTutorial/General_chi/examples.html XPATH在线测试:http://www.bejson.

Python爬虫(十三)_案例:使用XPath的爬虫

本篇是使用XPath的案例,更多内容请参考:Python学习指南 案例:使用XPath的爬虫 现在我们用XPath来做一个简单的爬虫,我们尝试爬取某个贴吧里的所有帖子且将该帖子里每个楼层发布的图片下载到本地. #-*- coding:utf-8 -*- #tieba_xpath.py """ 作用:本案例使用XPath做一个简单的爬虫,我们尝试爬去某个贴吧的所有帖子 """ import os import urllib2 import urll

Python爬虫:现学现用Xpath爬取豆瓣音乐

爬虫的抓取方式有好几种,正则表达式,Lxml(xpath)与Beautiful,我在网上查了一下资料,了解到三者之间的使用难度与性能 三种爬虫方式的对比. 抓取方式 性能 使用难度 正则表达式 快 困难 Lxml 快 简单 BeautifulSoup 慢 简单 这样一比较我我选择了Lxml(xpath)的方式了,虽然有三种方式,但肯定是要选择最好的方式来爬虫,这个道理大家都懂,另外有兴趣的朋友也可以去了解另外两种爬虫方式! 好了现在来讲讲xpath 由于Xpath属于lxml模块,所以首先需要安

Python爬虫之xlml解析库

1.Xpath Xpath是一门在XML中查找信息的语言,可用来在XML文档中对元素和属性进行遍历.XQuery和xpoint都是构建于xpath表达之上 2.节点 父(parent),子(children),兄弟(sibling),先辈(ancetstor),后代(Decendant) 3.选取节点 路径表达式 表达式 描述 路径表达式 结果 nodename 选取此节点上的所有的子节点 bookstore 选取bookstore元素的所有子节点 / 从根节点上选取 /bookstore 选取

python爬虫之requests+selenium+BeautifulSoup

前言: 环境配置:windows64.python3.4 requests库基本操作: 1.安装:pip install requests 2.功能:使用 requests 发送网络请求,可以实现跟浏览器一样发送各种HTTP请求来获取网站的数据. 3.命令集操作: import requests # 导入requests模块 r = requests.get("https://api.github.com/events") # 获取某个网页 # 设置超时,在timeout设定的秒数时间

Python爬虫常用模块,BeautifulSoup笔记

import urllib import urllib.request as request import re from bs4 import * #url = 'http://zh.house.qq.com/' url = 'http://www.0756fang.com/' html = request.urlopen(url).read().decode('utf-8') soup = BeautifulSoup(html,"html.parser") print(soup.h

python爬虫知识点三--解析豆瓣top250数据

一.利用cookie访问import requests headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'} cookies = {'cookie': 'bid=a3MhK2YEpZw; ll="108296"; ps=y; ue="[email prote