使用Jsoup解析html网页

一、   JSOUP简介

在以往用java来处理解析HTML文档或者片段时,我们通常会采用htmlparser(http://htmlparser.sourceforge.net/)这个开源类库。现在我们有了JSOUP,以后的处理HTML的内容只需要使用JSOUP就已经足够了,JSOUP有更快的更新,更方便的API等。

jsoup 是一款 Java 的HTML 解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据,可以看作是java版的jQuery。

jsoup的主要功能如下:

  • 从一个URL,文件或字符串中解析HTML;
  • 使用DOM或CSS选择器来查找、取出数据;
  • 可操作HTML元素、属性、文本;

jsoup是基于MIT协议发布的,可放心使用于商业项目。官方网站:http://jsoup.org/

二、   解析遍历HTML文档

Jsoup处理HTML文件是,是将用户输入的HTML文档,解析转换成一个Document对象进行处理。Jsoup一般支持以下几种来源内容的转换。

  • 解析一个html字符串
  • 解析一个body片段
  • 根据一个url地址加载Document对象
  • 根据一个文件加载Document对象

(一)解析一个html字符串

在处理一个html字符串。我们可能需要对其进行解析,并提取其内容,或校验其格式是否完整,或者想修改它。Jsoup可以帮助我们轻松的解决这些问题。

在Jsoup中有一个这样的静态方法Jsoup.parse(String html),可以将我们的html片段转换成Document对象。示例如下:

帮助


1

2

String html =
"<div><p align=\"center\"><img alt=\"\" width=\"660\" height=\"852\" src=\"/erp/UserFiles/Image/51.jpg\" />这是P元素的内容</p>"
;

Document document = Jsoup.parse(html);

使用上面的方法,就可以将html字符串,转换成Document对象,一旦有了Document对象,我们就可以使用其中适当的方法根据需求处理问题。我们可以看到这里转换的html片段并不是一个合法的html片段,里面的div标签没有闭合。这对于Jsoup来说不是问题,它可以很好的处理这类问题。

(二)  解析body片段

假如我们现在有一个HTML片断 (比如. 一个 div 包含一对 p 标签; 一个不完整的HTML文档) 想对它进行解析。这个HTML片断可以是用户提交的一条评论或在一个CMS页面中编辑body部分。我们可以使用使用Jsoup.parseBodyFragment(String html)方法。

示例如下:

帮助


1

2

String html =
"<div><p align=\"center\"><img alt=\"\" width=\"660\" height=\"852\" src=\"/erp/UserFiles/Image/51.jpg\" />这是P元素的内容</p>"
;

Document document = Jsoup.parseBodyFragment(html);

看到这里可能会有疑问,这个和上面的html片段是一样的嘛。没错是一样的,parseBodyFragment 方法创建一个空壳的文档,并插入解析过的HTML到body元素中。假如使用正常的 Jsoup.parse(String html) 方法,通常也可以得到相同的结果,但是明确将用户输入作为 body片段处理,以确保用户所提供的任何糟糕的HTML都将被解析成body元素。

Document.body() 方法能够取得文档body元素的所有子元素,与doc.getElementsByTag("body")相同。

(三) 根据一个URL地址加载Document对象

有时候我们可能希望通过一个url地址,然后提取里面的内容,转换成document对象。我们以前可能是使用http client等模拟一个请求,然后取得返回内容等,使用Jsoup方便简单的解决这个问题。示例如下:

帮助


1

2

3

Document document = Jsoup.connect(
"http://www.baidu.com"
).get();

String title = document.title();

String text = document.text();

connect(String url) 方法创建一个新的 Connection, 和 get() 取得和解析一个HTML文件。如果从该URL获取HTML时发生错误,便会抛出 IOException,应适当处理。

Connection 接口还提供一个方法链来解决特殊请求,具体如下:

帮助


1

Document doc = Jsoup.connect(
"http://test.com"
).data(
"query"
,
"Java"
).userAgent(
"Mozilla"
).cookie(
"auth"
,
"token"
).timeout(
3000
).post();

可以向链接地址post参数,设置userAgent,cookie,timeout等,而且这里是采用的链接操作很方便(熟悉jQuery的应该很熟悉这样的链接操作)。

(四)根据文件加载document

有时候我们要处理的html内容,可能是存在硬盘上的某个文件里面,我们需要从中提取或者解析某些内容出来,我们可以通过Jsoup来这样处理。示例代码如下:

帮助


1

2

File input =
new
File(
"d:/input.html"
);

Document doc = Jsoup.parse(input,
"UTF-8"
,
"http://test.com/"
);

看到这里可能有一个疑问,第一个参数是文件,第二是编码,第三个是什么呢?第三个参数是baseUrl,使用他我们可以方便的处理相对路径问题,如果不需要可以不传,这是一个多态方法,在前面的三个部分里面,都可以再加一个这样的baseUrl,后面会详细讲述。

三、   数据抽取

(一) 使用Dom方法遍历文档

通过第二章我们可以获取一个document的对象,我们可以通过这个对象来遍历文档,如:

帮助


1

2

3

4

5

6

7

Document doc = Jsoup.parse(input,
"UTF-8"
,
"http://test.com/"
);

Element content = doc.getElementById(
"content"
);

Elements links = content.getElementsByTag(
"a"
);

for
(Element link : links) {

String linkHref = link.attr(
"href"
);

String linkText = link.text();

}

这里我们可以方便的使用Doument对象的方法来获取内容。常用方法如下:

查找元素

元素数据

操作HTML和文本

(二) 使用选择器来查找元素

使用jQuery时,我们无不为其强大的选择器叹服,jsoup有同样的强大的选择器,可以方便我们的对文档进行处理。示例代码如下:

帮助


1

2

3

4

5

6

Elements links = doc.select(
"a[href]"
);
//带有<span style="text-decoration: underline;">href</span>属性的a元素

Elements pngs = doc.select(
"img[src$=.png]"
);

//扩展名为.<span style="text-decoration: underline;">png</span>的图片

Element masthead = doc.select(
"div.masthead"
).first();

//class等于<span style="text-decoration: underline;">masthead</span>的<span style="text-decoration: underline;">div</span>标签

Elements resultLinks = doc.select(
"h3.r > a"
);
//在h3元素之后的a元素

jsoup elements对象支持类似于CSS (或jquery)的选择器语法,来实现非常强大和灵活的查找功能。.

这个select 方法在DocumentElement,或Elements对象中都可以使用。且是上下文相关的,因此可实现指定元素的过滤,或者链式选择访问。

Select方法将返回一个Elements集合,并提供一组方法来抽取和处理结果。

(三) 从元素中抽取属性和文档

使用Jsoup抽取属性,一般方法如下:

示例如下:

帮助


01

02

03

04

05

06

07

08

09

10

11

String html =
"<p>An <a href=‘http://example.com/‘><b>example</b></a> link.</p>"
;

Document doc = Jsoup.parse(html);
//解析HTML字符串返回一个Document实现

Element link = doc.select(
"a"
).first();
//查找第一个a元素</pre>

String text = doc.body().text();
// "An example link"//取得字符串中的文本

String linkHref = link.attr(
"href"
);
// "http://example.com/"//取得链接地址

String linkText = link.text();
// "example""//取得链接地址中的文本</pre>

String linkOuterH = link.outerHtml();

// "<a href="http://example.com"><b>example</b></a>"

String linkInnerH = link.html();
// "<b>example</b>"//取得链接内的html内容

(四) URL处理

我们在处理HTML内容时,可能经常会遇到这种问题,需要将html页面里面的链接地址从相对地址转换成绝对地址,jsoup有一个方法用来解决此问题。我们前面对到的baseurl,就是用来解决此问题的。示例代码如下:

帮助


1

2

3

4

5

Document doc = Jsoup.connect(
"http://www.baidu.com/"
).get();

Element link = doc.select(
"a"
).first();

String relHref = link.attr(
"href"
);
// == "/"

String absHref = link.attr(
"abs:href"
);

// "http://www.baidu.com/gaoji/preferences.html"

在HTML元素中,URLs经常写成相对于文档位置的相对路径: <a href="/download">...</a>. 当你使用Node.attr(String key) 方法来取得a元素的href属性时,它将直接返回在HTML源码中指定定的值。

假如你需要取得一个绝对路径,需要在属性名前加 abs: 前缀。这样就可以返回包含根路径的URL地址attr("abs:href")

因此,在解析HTML文档时,定义base URI非常重要。如果你不想使用abs: 前缀,还有一个方法能够实现同样的功能Node.absUrl(String key)。

四、   数据修改

(一)  设置属性值

在处理html时,我们有时候可能需要修改里面的属性值,如图片地址、class名称等各种属性。

可以使用属性设置方法 Element.attr(String key, String value), 和 Elements.attr(String key, String value).

假如你需要修改一个元素的 class 属性,可以使用 Element.addClass(String className) 和Element.removeClass(String className) 方法。

Elements 提供了批量操作元素属性和class的方法,比如:要为div中的每一个a元素都添加一个rel="nofollow" 
可以使用如下方法:

帮助


1

doc.select(
"div.comments a"
).attr(
"rel"
,
"nofollow"
);

这里的jsoup方法同样支持链接操作,如下:

帮助


1

doc.select(
"div.masthead"
).attr(
"title"
,
"jsoup"
).addClass(
"round-box"
);

(二)  设置元素的html内容

我们需要向html里面添加html片段等内容时可以如下操作:

帮助


1

2

3

4

5

6

7

8

9

Element div = doc.select(
"div"
).first();
// <div></div>

div.html(
"<p>lorem ipsum</p>"
);
// <div><p>lorem ipsum</p></div>

div.prepend(
"<p>First</p>"
);
//在div前添加html内容

div.append(
"<p>Last</p>"
);
//在div之后添加html内容

// 添完后的结果: <div><p>First</p><p>lorem ipsum</p><p>Last</p></div>

Element span = doc.select(
"span"
).first();
// <span>One</span>

span.wrap(
"<li><a href=‘http://example.com/‘></a></li>"
);

//对元素包裹一个外部HTML内容添完后的结果:

//<li><a href="http://example.com"><span>One</span></a></li>

(三) 设置元素的文本内容

如果我们需要修改元素内的文本内容,可以如下操作:

帮助


1

2

3

4

5

Element div = doc.select(
"div"
).first();
// <div></div>

div.text(
"five > four"
);
// <div>five &gt; four</div>

div.prepend(
"First "
);

div.append(
" Last"
);

// now: <div>First five &gt; four Last</div>

说明

文本设置方法与 HTML setter 方法一样:

Element.text(String text) 将清除一个元素中的内部HTML内容,然后提供的文本进行代替

Element.prepend(String first) 和 Element.append(String last) 将分别在元素的内部html前后添加文本节点。

对于传入的文本如果含有像 <, > 等这样的字符,将以文本处理,而非HTML。

时间: 2024-08-04 15:40:04

使用Jsoup解析html网页的相关文章

【转载】使用Jsoup解析html网页

一.   JSOUP简介 在以往用java来处理解析HTML文档或者片段时,我们通常会采用htmlparser(http://htmlparser.sourceforge.net/)这个开源类库.现在我们有了JSOUP,以后的处理HTML的内容只需要使用JSOUP就已经足够了,JSOUP有更快的更新,更方便的API等. jsoup 是一款 Java 的HTML 解析器,可直接解析某个URL地址.HTML文本内容.它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来

HtmlUnit、httpclient、jsoup爬取网页信息并解析

HtmlUnit(底层也是采用httpclient)和jsoup  API package com.yuanhai.test; import java.io.IOException; import java.net.MalformedURLException; import org.jsoup.Connection; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; i

Android解析HTML网页数据 第一个方法Jsoup(一)

最近发现一些无聊的东西,就是抓取网页上的数据,然后使用安卓原生代码显示出来,或者说借用网页数据,用自定义的View显示. 借助jsoup-1.10.2.jar库,获取并解析数据.(Jsoup百度云下载地址:http://pan.baidu.com/s/1nvSFKyl) jsoup官方文档:https://jsoup.org/cookbook/ 中文文档:http://www.open-open.com/jsoup/ 应用场景: 我需要获取博客园网页上的数据,如图中标记的文字标题,链接,文本简介

Jsoup解析网页获取信息

毕设需要使用网页上的数据,然后就用到了JSOUP. Jsoup官网 既然是解析Html,首先要做的就是获取html这个页面,也就是要成功链接url. 就拿我做的举个例子,我需要解析获取我们学校官网上的新闻,链接地址为:http://www.chzu.edu.cn/s/1/t/1152/p/3/list.htm 界面如下: 首先创建一个java项目,引入jsoup包,我用的是jsoup-1.6.1.jar 然后就是写代码连接url Document doc; doc = Jsoup.connect

利用jsoup解析天气预报

java的一个开源的解析Html的程序jsoup将html进行解析,并且让我们可以像对css操作一样来获取解析之后的内容,本文即利用其特性进行解析 jsoup的开源jar包请自行下载 public class WeatherInfo {     /**      * @param args      */     public static void main(String[] args) {         getCityWeatherInfo();         //getCityAndU

Java 爬虫工具Jsoup解析

Jsoup是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址.HTML 文本内容.它提供了一套非常省力的 API,可通过 DOM,CSS 以及类似于 jQuery 的操作方法来取出和操作数据. jsoup 的主要功能如下: 1. 从一个 URL,文件或字符串中解析 HTML: 2. 使用 DOM 或 CSS 选择器来查找.取出数据: 3. 可操作 HTML 元素.属性.文本: jsoup 是基于 MIT 协议发布的,可放心使用于商业项目. jsoup 可以从包括字符串.URL

java中用jsoup抓取网页源码,并批量下载图片

一.导入jsoup的核心jar包jsoup-xxx.jar jar包下载地址:jsoup-1.8.2.jar 中文API地址:http://www.open-open.com/jsoup/parsing-a-document.htm 二.java中用jsoup抓取网页源码,并批量下载图片 package com.dgh.test; import java.io.File; import java.io.FileOutputStream; import java.io.IOException; i

jsoup抓取网页+详细讲解

jsoup抓取网页+详细讲解 Java 程序在解析 HTML 文档时,相信大家都接触过 htmlparser 这个开源项目,我曾经在 IBM DW 上发表过两篇关于 htmlparser 的文章,分别是:从 HTML 中攫取你所需的信息和 扩展 HTMLParser 对自定义标签的处理能力.但现在我已经不再使用 htmlparser 了,原因是 htmlparser 很少更新,但最重要的是有了 jsoup . jsoup 是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址.HT

利用jsoup解析电影天堂资源的应用程序包含源码

大家好!2014年的年尾,心血来潮利用一点点时间利用jsoup解析网页技术解析了“电影天堂”网站的视频资源.其中主要涉及到的技术有jsoup解 析,imageloader加载图片.android侧滑和简单的UI布局.但是有个缺陷是获取了所有的下载地址,但是没有实线下载的功能,有兴趣的朋友 可以接着实现该功能,或者利用手机迅雷进行下载. 下载地址为: http://pan.baidu.com/s/1hq1n6Oc#0-qzone-1-91781-d020d2d2a4e8d1a374a433f596