使用Jsoup库解析HTML、XML或URL链接中的DOM节点

soup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。

Jsoup的使用例子

<span style="font-size:14px;">import java.io.IOException;
import java.io.InputStream;

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import android.app.Activity;
import android.os.Bundle;
import android.util.Log;

public class MainActivity extends Activity {
	private String url = "http://mobile.csdn.net/";

	@Override
	protected void onCreate(Bundle savedInstanceState) {
		super.onCreate(savedInstanceState);
		setContentView(R.layout.activity_main);
		new Thread(new Runnable() {

			@Override
			public void run() {
//				 parseHtml();
				parseEpub();
			}
		}).start();
	}

	private void parseEpub() {
		try {
			InputStream is = getAssets().open("fb.ncx");
			int size = is.available();
			byte[] buffer = new byte[size];
			is.read(buffer);
			is.close();
			String epubText = new String(buffer, "utf-8");
			Document doc = Jsoup.parse(epubText);
			String docTitle = doc.getElementsByTag("docTitle").first().text();
			Log.i("info", docTitle);
			Elements elements = doc.getElementsByTag("navPoint");
			for (Element ele : elements) {
				String title = ele.text();
				String href = ele.getElementsByTag("content").first()
						.attr("src");
				Log.i("info", title + ":" + href);
			}

		} catch (IOException e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
		}
	}

	private void parseHtml() {
		try {
			Document doc = Jsoup.connect(url).get();
			Elements elements = doc.select("div.unit");
			for (Element ele : elements) {
				String title = ele.getElementsByTag("h1").first().text();
				String href = ele.getElementsByTag("h1").first()
						.getElementsByTag("a").first().attr("href");
				Log.i("info", title + ":" + href);
				System.out.println("Title:"+title+", href:"+href);
			}
		} catch (IOException e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
		}

	}

}</span><span style="font-size:24px;">
</span>

代码的下载地址如下:http://download.csdn.net/detail/adayabetter/8947361

jsoup的主要功能如下:

1. 从一个URL,文件或字符串中解析HTML;

2. 使用DOM或CSS选择器来查找、取出数据;

3. 可操作HTML元素、属性、文本;

jsoup是基于MIT协议发布的,可放心使用于商业项目。

jsoup 的主要类层次结构如下图所示:

接下来我们专门针对几种常见的应用场景举例说明jsoup 是如何优雅的进行HTML 文档处理的。

文档输入

jsoup 可以从包括字符串、URL地址以及本地文件来加载HTML 文档,并生成Document 对象实例。

下面是相关代码:

// 直接从字符串中输入HTML 文档

String html = "<html><head><title>开源中国社区</title></head>"

+"<body><p>这里是jsoup 项目的相关文章</p></body></html>";

Document doc = Jsoup.parse(html);

// 从URL直接加载HTML 文档

Document doc =Jsoup.connect("网址/").get();

String title = doc.title();

Document doc =Jsoup.connect("网址/")

.data("query", "Java") //请求参数

.userAgent("I’mjsoup") //设置User-Agent

.cookie("auth", "token") //设置cookie

.timeout(3000) //设置连接超时时间

.post(); //使用POST方法访问URL

// 从文件中加载HTML 文档

File input = new File("D:/test.html");

Document doc = Jsoup.parse(input,"UTF-8","网址/");

请大家注意最后一种HTML 文档输入方式中的parse 的第三个参数,为什么需要在这里指定一个网址呢(虽然可以不指定,如第一种方法)?因为HTML 文档中会有很多例如链接、图片以及所引用的外部脚本、css文件等,而第三个名为baseURL 的参数的意思就是当HTML 文档使用相对路径方式引用外部文件时,jsoup会自动为这些URL
加上一个前缀,也就是这个baseURL。

例如<a href=/project>开源软件</a> 会被转换成<a href=网址>开源软件</a>。

解析并提取HTML 元素

这部分涉及一个HTML 解析器最基本的功能,但jsoup使用一种有别于其他开源项目的方式——选择器,我们将在最后一部分详细介绍jsoup选择器,本节中你将看到jsoup是如何用最简单的代码实现。

不过jsoup也提供了传统的DOM 方式的元素解析,看看下面的代码:

File input = new File("D:/test.html");

Document doc = Jsoup.parse(input, "UTF-8","网址/");

Element content =doc.getElementById("content");

Elements links = content.getElementsByTag("a");

for (Element link : links) {

String linkHref =link.attr("href");

String linkText =link.text();

}

你可能会觉得jsoup的方法似曾相识,没错,像getElementById 和getElementsByTag 方法跟JavaScript 的方法名称是一样的,功能也完全一致。你可以根据节点名称或者是HTML 元素的id 来获取对应的元素或者元素列表。

与htmlparser 项目不同的是,jsoup 并没有为HTML 元素定义一个对应的类,一般一个HTML 元素的组成部分包括:节点名、属性和文本,jsoup 提供简单的方法供你自己检索这些数据,这也是jsoup保持瘦身的原因。

而在元素检索方面,jsoup 的选择器简直无所不能,

File input = new File("D:\test.html");

Document doc =Jsoup.parse(input,"UTF-8","网址");

Elements links = doc.select("a[href]"); // 具有href 属性的链接

Elements pngs = doc.select("img[src$=.png]");//所有引用png图片的元素

Element masthead =doc.select("div.masthead").first();

// 找出定义了class=masthead 的元素

Elements resultLinks = doc.select("h3.r >a"); // direct a after h3

这是jsoup 真正让我折服的地方,jsoup使用跟jQuery 一模一样的选择器对元素进行检索,以上的检索方法如果换成是其他的HTML 解释器,至少都需要很多行代码,而jsoup 只需要一行代码即可完成。

jsoup 的选择器还支持表达式功能,我们将在最后一节介绍这个超强的选择器。

修改数据

在解析文档的同时,我们可能会需要对文档中的某些元素进行修改,例如我们可以为文档中的所有图片增加可点击链接、修改链接地址或者是修改文本等。

下面是一些简单的例子:

doc.select("div.commentsa").attr("rel", "nofollow");

//为所有链接增加rel=nofollow 属性

doc.select("div.commentsa").addClass("mylinkclass");

//为所有链接增加class=mylinkclass 属性

doc.select("img").removeAttr("onclick");//删除所有图片的onclick属性

doc.select("input[type=text]").val("");//清空所有文本输入框中的文本

道理很简单,你只需要利用jsoup 的选择器找出元素,然后就可以通过以上的方法来进行修改,除了无法修改标签名外(可以删除后再插入新的元素),包括元素的属性和文本都可以修改。

修改完直接调用Element(s) 的html() 方法就可以获取修改完的HTML 文档。

HTML 文档清理

jsoup 在提供强大的API 同时,人性化方面也做得非常好。在做网站的时候,经常会提供用户评论的功能。有些用户比较淘气,会搞一些脚本到评论内容中,而这些脚本可能会破坏整个页面的行为,更严重的是获取一些机要信息,例如XSS 跨站点攻击之类的。

jsoup 对这方面的支持非常强大,使用非常简单。看看下面这段代码:

String unsafe = "<p><a href=‘网址‘ onclick=‘stealCookies()‘>开源中国社区</a></p>";

String safe = Jsoup.clean(unsafe, Whitelist.basic());

// 输出:

// <p><ahref="网址" rel="nofollow">开源中国社区</a></p>

jsoup 使用一个Whitelist 类用来对HTML 文档进行过滤,该类提供几个常用方法:

如果这五个过滤器都无法满足你的要求呢,例如你允许用户插入flash 动画,没关系,Whitelist提供扩展功能,例如whitelist.addTags("embed","object","param","span","div");也可调用addAttributes 为某些元素增加属性。

jsoup 的过人之处——选择器

前面我们已经简单的介绍了jsoup是如何使用选择器来对元素进行检索的。本节我们把重点放在选择器本身强大的语法上。下表是jsoup选择器的所有语法详细列表。

基本用法

以上是最基本的选择器语法,这些语法也可以组合起来使用,下面是jsoup支持的组合用法:

除了一些基本的语法以及这些语法进行组合外,jsoup 还支持使用表达式进行元素过滤选择。下面是jsoup支持的所有表达式一览表:

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-08-19 03:27:47

使用Jsoup库解析HTML、XML或URL链接中的DOM节点的相关文章

js获取url链接中的参数

js获取url链接中的参数:url传递参数这是常识,这里就不多介绍了,既然传递参数就要获取参数的值,下面就介绍一下如何实现此功能.代码如下: function request(paras){ var url="softwhy.com?a=1&b=2"; var paraString=url.substring(url.indexOf("?")+1,url.length).split("&"); var paraObj={} for

iOS解析新浪微博的@##以及URL链接并展示

最近在做一个跟微博相关的应用.其中涉及到了对微博中@.##以及URL链接的解析与展示.分享一下个人处理的方式,希望对需要的人有所帮助. 最终的展现效果: 首先,第一步是你得从纯文本中找到它们.毫无疑问,采用正则表达式匹配是最佳的方式.我采用的是RegexKitLite库. 解析这三种格式的正则表达式如下: [plain] view plaincopyprint? /*****************************regular expressions******************

URL链接中的utm_source,utm_medium简析

工作中须要分析一些链接,统计分析一些信息.比方例如以下的链接: http://lightapplication.xxxx.com/?utm_source=ucweb&utm_medium=cpt&utm_term=zhilian&utm_content=textlink&utm_campaign=nov 这个链接中带有一些參数,这些參数是什么意思呢.一直非常好奇,如今须要用到这些信息了.对于站点主,这些參数信息非常实用,能够统计用户的来源. 在google中搜索utm_so

URL链接中 / ? &amp; #含义

exp: https://baike.baidu.com/item/RESTful/4406165?fr=aladdin#1 https://www.baidu.com/s?wd=restful%20python&oq=restful /:资源的目录路径 ?: 路径与变量链接符 &:变量与变量之间间隔符 #:锚点 原文地址:https://www.cnblogs.com/ldw3432/p/8393174.html

截取URL链接中字段的方法

第一个页面像第二个页面传参方法 location.href = "poster.html?" + "name=" + name + "&time=" + time + "&department=" + department; 第二个页面获取参数方法  截取字段 转码即可 //截取链接中的字段 var GetQueryString = function(key) { var reg = new RegExp(&q

ElKstack-解决nginx日志url链接包含中文logstash报错问题

logstash报错现象 Trouble parsing json {:source=>"message", :raw=>"{\"@timestamp\":\"2016-05-30T14:51:27+08:00\",\"host\":\"10.139.48.166\",\"clientip\":\"180.109.110.203\",\"

[CareerCup] 10.6 Find Duplicate URLs 找重复的URL链接

10.6 You have 10 billion URLs. How do you detect the duplicate documents? In this case, assume that "duplicate" means that the URLs are identical. 这道题让我们在一百亿个URL链接中寻找相同项,看这数据量简直吓尿了,如果每个URL链接平均100个字符的话,每个字符是4个字节,那么总共需要占4TB的空间,我们无法在内存中导入这么大的数据量.假如

Xcode GData库解析XML

@import url(http://i.cnblogs.com/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css); @import url(http://i.cnblogs.com/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css); Xcode IOS GData

Jsoup库使用完全解析

之前写过一篇文章android 项目实战--打造超级课程表一键提取课表功能,里面用到了这个库,但是在那篇文章里,jsoup的使用几乎是没有讲到,因此,此篇文章补上. jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址.HTML文本内容.它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据 开始讲一大堆语法,如果你不敢兴趣,大可跳过这部分,直接看代码实战部分. Jsoup可以解析和遍历一个文档,一个文档的对象模型是由以下几部分组成.