使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)(转)

 对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

import HTMLParser

  import urllib

  class parseLinks(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == ‘a‘:

  for name,value in attrs:

  if name == ‘href‘:

  print value

  print self.get_starttag_text()

  lParser = parseLinks()

  lParser.feed(urllib.urlopen("http://www.python.org/index.html").read())

处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子

import HTMLParser

  import urllib

  import sys

  #定义HTML解析器

  class parseLinks(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == ‘a‘:

  for name,value in attrs:

  if name == ‘href‘:

  print value

  print self.get_starttag_text()

  #创建HTML解析器的实例

  lParser = parseLinks()

  #打开HTML文件

  lParser.feed(urllib.urlopen( /

  "http://www.python.org/index.html").read())

  lParser.close()

  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

 import HTMLParser

  import urllib

  def getImage(addr):

  u = urllib.urlopen(addr)

  data = u.read()

  class parseImages(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == ‘img‘:

  for name,value in attrs:

  if name == ‘src‘:

  getImage(urlString + "/" + value)

  u = urllib.urlopen(urlString)

  lParser.feed(u.read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

import HTMLParser

  import urllib

  import sys

  urlString = "http://www.python.org"

  #把图像文件保存至硬盘

  def getImage(addr):

  u = urllib.urlopen(addr)

  data = u.read()

  splitPath = addr.split(‘/‘)

  fName = splitPath.pop()

  print "Saving %s" % fName

  f = open(fName, ‘wb‘)

  f.write(data)

  f.close()

  #定义HTML解析器

  class parseImages(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  if tag == ‘img‘:

  for name,value in attrs:

  if name == ‘src‘:

  getImage(urlString + "/" + value)

  #创建HTML解析器的实例

  lParser = parseImages()

  #打开HTML文件

  u = urllib.urlopen(urlString)

  print "Opening URL/n===================="

  print u.info()

  #把HTML文件传给解析器

  lParser.feed(u.read())

  lParser.close()

上述代码的运行结果如下所示:

  Opening URL

  ====================

  Date: Fri, 26 Jun 2009 10:54:49 GMT

  Server: Apache/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_ssl/2.2.9 OpenSSL/0.9.8g mod_wsgi/2.3 Python/2.5.2

  Last-Modified: Thu, 25 Jun 2009 09:44:54 GMT

  ETag: "105800d-46e7-46d29136f7180"

  Accept-Ranges: bytes

  Content-Length: 18151

  Connection: close

  Content-Type: text/html

  Saving python-logo.gif

  Saving trans.gif

  Saving trans.gif

  Saving afnic.fr.png

三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

  import HTMLParser

  import urllib

  class parseText(HTMLParser.HTMLParser):

  def handle_data(self, data):

  if data != ‘/n‘:

  urlText.append(data)

  lParser = parseText()

  lParser.feed(urllib.urlopen( /

  http://docs.python.org/lib/module-HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。 HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给 HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很 大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

  import HTMLParser

  import urllib

  urlText = []

  #定义HTML解析器

  class parseText(HTMLParser.HTMLParser):

  def handle_data(self, data):

  if data != ‘/n‘:

  urlText.append(data)

  #创建HTML解析器的实例

  lParser = parseText()

  #把HTML文件传给解析器

  lParser.feed(urllib.urlopen( /

  “http://docs.python.org/lib/module-HTMLParser.html” /

  ).read())

  lParser.close()

  for item in urlText:

  print item

上面代码的运行输出过长,在此略过

四、从HTML文档中提取Cookies

  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。

  import urllib2

  import cookielib

  from urllib2 import urlopen, Request

  cJar = cookielib.LWPCookieJar()

  opener=urllib2.build_opener( /

  urllib2.HTTPCookieProcessor(cJar))

  urllib2.install_opener(opener)

  r = Request(testURL)

  h = urlopen(r)

  for ind, cookie in enumerate(cJar):

  print "%d - %s" % (ind, cookie)

  cJar.save(cookieFile)

  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。

  import os

  import urllib2

  import cookielib

  from urllib2 import urlopen, Request

  cookieFile = "cookies.dat"

  testURL = ‘http://maps.google.com/‘

  #为cookie jar 创建实例

  cJar = cookielib.LWPCookieJar()

  #创建HTTPCookieProcessor的opener对象

  opener = urllib2.build_opener( /

  urllib2.HTTPCookieProcessor(cJar))

  #安装HTTPCookieProcessor的opener

  urllib2.install_opener(opener)

  #创建一个Request对象

  r = Request(testURL)

  #打开HTML文件

  h = urlopen(r)

  print "页面的头部/n======================"

  print h.info()

  print "页面的Cookies/n======================"

  for ind, cookie in enumerate(cJar):

  print "%d - %s" % (ind, cookie)

  #保存cookies

  cJar.save(cookieFile)

上述代码的运行结果如下所示:

  页面的头部

  ======================

  Cache-Control: private

  Content-Type: text/html; charset=ISO-8859-1

  Set-Cookie: PREF=ID=5d9692b55f029733:NW=1:TM=1246015608:LM=1246015608:S=frfx--b3xt73TaEA; expires=Sun, 26-Jun-2011 11:26:48 GMT; path=/; domain=.google.com

  Date: Fri, 26 Jun 2009 11:26:48 GMT

  Server: mfe

  Expires: Fri, 26 Jun 2009 11:26:48 GMT

  Transfer-Encoding: chunked

  Connection: close

  页面的Cookies

  ======================

  0 -

五、为HTML文档中的属性值添加引号

  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。

  import HTMLParser

  import urllib

  class parseAttrs(HTMLParser.HTMLParser):

  def handle_starttag(self, tag, attrs):

  . . .

  attrParser = parseAttrs()

  attrParser.init_parser()

  attrParser.feed(urllib.urlopen("test2.html").read())

这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。

  handle_starttag(tag, attrs)

  handle_charref(name)

  handle_endtag(tag)

  handle_entityref(ref)

  handle_data(text)

  handle_comment(text)

  handle_pi(text)

  handle_decl(text)

  handle_startendtag(tag, attrs)

  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:

  import HTMLParser

  import urllib

  import sys

  #定义HTML解析器

  class parseAttrs(HTMLParser.HTMLParser):

  def init_parser (self):

  self.pieces = []

  def handle_starttag(self, tag, attrs):

  fixedAttrs = ""

  #for name,value in attrs:

  for name, value in attrs:

  fixedAttrs += "%s=/"%s/" " % (name, value)

  self.pieces.append("<%s %s>" % (tag, fixedAttrs))

  def handle_charref(self, name):

  self.pieces.append("&#%s;" % (name))

  def handle_endtag(self, tag):

  self.pieces.append("" % (tag))

  def handle_entityref(self, ref):

  self.pieces.append("&%s" % (ref))

  def handle_data(self, text):

  self.pieces.append(text)

  def handle_comment(self, text):

  self.pieces.append("" % (text))

  def handle_pi(self, text):

  self.pieces.append("" % (text))

  def handle_decl(self, text):

  self.pieces.append("" % (text))

  def parsed (self):

  return "".join(self.pieces)

  #创建HTML解析器的实例

  attrParser = parseAttrs()

  #初始化解析器数据

  attrParser.init_parser()

  #把HTML文件传给解析器

  attrParser.feed(urllib.urlopen("test2.html").read())

  #显示原来的文件内容

  print "原来的文件/n========================"

  print open("test2.html").read()

  #显示解析后的文件

  print "解析后的文件/n========================"

  print attrParser.parsed()

  attrParser.close()

我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:

原来的文件
========================
<html>
<head>
<meta content="text/html; charset=utf-8"
http-equiv="content-type"/>
<title>Web页面</title>
</head>
<body>
<H1>Web页面清单</H1>
<a href=http://www.python.org>Python网站</a>
<a href=test.html>本地页面</a>
<img SRC=test.jpg>
</body>
</html>

解析后的文件
========================
<html>
<head >
<meta content="text/html; charset=utf-8"
http-equiv="content-type" ></meta>
<title >Web页面</title>
</head>
<body >
<h1 >Web页面清单</h1>
<a href="http://www.python.org" >Python网站</a>
<a href="test.html" >本地页面</a>
<img src="test.jpg" >
</body>
</html>

  六、小结

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来 迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本 文对您会有所帮助。

(转自:http://www.cnblogs.com/huangcong/archive/2011/08/31/2160747.html)

时间: 2024-10-26 10:27:11

使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)(转)的相关文章

Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)

对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档.本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块.在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接.图像和Cookie等.同时还会介绍如何规范HTML文件的格式标签

【python】使用HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies

一.从HTML文档中提取链接 模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁.高效地解析HTML文档. 处理HTML文档的时候,我们常常需要从其中提取出所有的链接.使用HTMLParser模块后,这项任务将变得易如反掌.首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值. 定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象.然后,就可以使用u

Python中的urlparse、urllib抓取和解析网页(一)

对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档.本文将详细介绍如何利用Python抓取和解析网页.首 先,我们介绍一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块,然后,我们论述如何使用Python模块来迅速解析在HTML文 件中的数据,从而处理特定的内容,如链接.图像和Cookie等.最后,

使用Python中的urlparse、urllib抓取和解析网页(一)(转)

对搜索引擎.文件索引.文档转换.数据检索.站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理.事实上,通过Python 语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档.本文将详细介绍如何利用Python抓取和解析网页.首 先,我们介绍一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块,然后,我们论述如何使用Python模块来迅速解析在HTML文 件中的数据,从而处理特定的内容,如链接.图像和Cookie等.最后,

Jsoup抓取、解析网页和poi存取excel综合案例——采集网站的联系人信息

需求:采集网站中每一页的联系人信息 一.创建maven工程,添加jsoup和poi的依赖包 <!-- https://mvnrepository.com/artifact/org.apache.poi/poi-ooxml --> <dependency> <groupId>org.apache.poi</groupId> <artifactId>poi-ooxml</artifactId> <version>3.16-be

python中用beautifulSoup+urlib2 安装、抓取和解析网页,以及解析shtml

安装 Beautiful Soup? 如果你用的是新版的Debain或ubuntu,那么可以通过系统的软件包管理来安装: $ apt-get install Python-bs4 Beautiful Soup 4 通过PyPi发布,所以如果你无法使用系统包管理安装,那么也可以通过 easy_install 或 pip 来安装.包的名字是beautifulsoup4 ,这个包兼容Python2和Python3. $ easy_install beautifulsoup4 $ pip install

python3在word文档中查找多行文字是否存在

工作中碰到这样一个情况:有多个关键词存在文本文档txt中,想查找下在某个较大的word文档中,这些关键词是否都含有,没有关键词的显示出来. 因为关键词比较多,并且这个工作还是经常会有的,这个情况我试着用Python3写代码解决. 分析后,需要用到的模块有:docx,另外还有txt文档的读取和字符串的匹配. 首先是安装docx模块  pip install python-docx 具体实现代码如下: import docxpath = "F:\\check\\source.docx" d

57 利用sed处理windows和Unix文档中的行结束符

UNIX和DOS/Windows系统的纯文本格式的换行方式是不同的,基于DOS/Windows的文本文件在每一行末尾有一个CR(回车)和LF(换行),而UNIX文本只有一个换行. 如果想将一个Unix文本转换为Windows文本,可以使用如下的sed命令行 sed -e 's/$/\r/' myunix.txt > mywin.txt 在该脚本中,'$'规则表达式将与行的末尾匹配,而'\r'告诉sed在其之前插入一个回车.在换行之前插入回车,立即,每一行就以CR/LF结束. 虽然很多程序不在乎D

详解xml文件描述,读取方法以及将对象存放到xml文档中,并按照指定的特征寻找的方案

主要的几个功能: 1.完成多条Emp信息的XML描述2.读取XML文档解析Emp信息3.将Emp(存放在List中)对象转换为XML文档4.在XML文档中查找指定特征的Emp信息 dom4j,jaxen 官网下载页面: http://sourceforge.net/projects/dom4j/files/dom4j-2.0.0-ALPHA-2/ 也可以在网盘上面下载:http://yunpan.cn/cwaNde7UYN83d  提取码 e247 1 完成多条Emp信息的XML描述 1.1 问