使用HtmlParser提取网页中的链接

关于HtmpParser的基本内容请见 HtmlParser基础教程

本文示例用于提取HTML文件中的链接

[java] view plaincopy

  1. package org.ljh.search.html;
  2. import java.util.HashSet;
  3. import java.util.Set;
  4. import org.htmlparser.Node;
  5. import org.htmlparser.NodeFilter;
  6. import org.htmlparser.Parser;
  7. import org.htmlparser.filters.NodeClassFilter;
  8. import org.htmlparser.filters.OrFilter;
  9. import org.htmlparser.tags.LinkTag;
  10. import org.htmlparser.util.NodeList;
  11. import org.htmlparser.util.ParserException;
  12. //本类创建用于HTML文件解释工具
  13. public class HtmlParserTool {
  14. // 本方法用于提取某个html文档中内嵌的链接
  15. public static Set<String> extractLinks(String url, LinkFilter filter) {
  16. Set<String> links = new HashSet<String>();
  17. try {
  18. // 1、构造一个Parser,并设置相关的属性
  19. Parser parser = new Parser(url);
  20. parser.setEncoding("gb2312");
  21. // 2.1、自定义一个Filter,用于过滤<Frame >标签,然后取得标签中的src属性值
  22. NodeFilter frameNodeFilter = new NodeFilter() {
  23. @Override
  24. public boolean accept(Node node) {
  25. if (node.getText().startsWith("frame src=")) {
  26. return true;
  27. } else {
  28. return false;
  29. }
  30. }
  31. };
  32. //2.2、创建第二个Filter,过滤<a>标签
  33. NodeFilter aNodeFilter = new NodeClassFilter(LinkTag.class);
  34. //2.3、净土上述2个Filter形成一个组合逻辑Filter。
  35. OrFilter linkFilter = new OrFilter(frameNodeFilter, aNodeFilter);
  36. //3、使用parser根据filter来取得所有符合条件的节点
  37. NodeList nodeList = parser.extractAllNodesThatMatch(linkFilter);
  38. //4、对取得的Node进行处理
  39. for(int i = 0; i<nodeList.size();i++){
  40. Node node = nodeList.elementAt(i);
  41. String linkURL = "";
  42. //如果链接类型为<a />
  43. if(node instanceof LinkTag){
  44. LinkTag link = (LinkTag)node;
  45. linkURL= link.getLink();
  46. }else{
  47. //如果类型为<frame />
  48. String nodeText = node.getText();
  49. int beginPosition = nodeText.indexOf("src=");
  50. nodeText = nodeText.substring(beginPosition);
  51. int endPosition = nodeText.indexOf(" ");
  52. if(endPosition == -1){
  53. endPosition = nodeText.indexOf(">");
  54. }
  55. linkURL = nodeText.substring(5, endPosition - 1);
  56. }
  57. //判断是否属于本次搜索范围的url
  58. if(filter.accept(linkURL)){
  59. links.add(linkURL);
  60. }
  61. }
  62. } catch (ParserException e) {
  63. e.printStackTrace();
  64. }
  65. return links;
  66. }
  67. }

程序中的一些说明:

(1)通过Node#getText()取得节点的String。

(2)node instanceof TagLink,即<a/>节点,其它还有很多的类似节点,如tableTag等,基本上每个常见的html标签均会对应一个tag。官方文档说明如下:

org.htmlparser.nodes The nodes package has the concrete node implementations.
org.htmlparser.tags The tags package contains specific tags.

因此可以通过此方法直接判断一个节点是否某个标签内容。

其中用到的LinkFilter接口定义如下:

[java] view plaincopy

  1. package org.ljh.search.html;
  2. //本接口所定义的过滤器,用于判断url是否属于本次搜索范围。
  3. public interface LinkFilter {
  4. public boolean accept(String url);
  5. }

测试程序如下:

[java] view plaincopy

  1. package org.ljh.search.html;
  2. import java.util.Iterator;
  3. import java.util.Set;
  4. import org.junit.Test;
  5. public class HtmlParserToolTest {
  6. @Test
  7. public void testExtractLinks() {
  8. String url = "http://www.baidu.com";
  9. LinkFilter linkFilter = new LinkFilter(){
  10. @Override
  11. public boolean accept(String url) {
  12. if(url.contains("baidu")){
  13. return true;
  14. }else{
  15. return false;
  16. }
  17. }
  18. };
  19. Set<String> urlSet = HtmlParserTool.extractLinks(url, linkFilter);
  20. Iterator<String> it = urlSet.iterator();
  21. while(it.hasNext()){
  22. System.out.println(it.next());
  23. }
  24. }
  25. }

输出结果如下:

http://www.hao123.com
http://www.baidu.com/
http://www.baidu.com/duty/
http://v.baidu.com/v?ct=301989888&rn=20&pn=0&db=0&s=25&word=
http://music.baidu.com
http://ir.baidu.com
http://www.baidu.com/gaoji/preferences.html
http://news.baidu.com
http://map.baidu.com
http://music.baidu.com/search?fr=ps&key=
http://image.baidu.com
http://zhidao.baidu.com
http://image.baidu.com/i?tn=baiduimage&ct=201326592&lm=-1&cl=2&nc=1&word=
http://www.baidu.com/more/
http://shouji.baidu.com/baidusearch/mobisearch.html?ref=pcjg&from=1000139w
http://wenku.baidu.com
http://news.baidu.com/ns?cl=2&rn=20&tn=news&word=
https://passport.baidu.com/v2/?login&tpl=mn&u=http%3A%2F%2Fwww.baidu.com%2F
http://www.baidu.com/cache/sethelp/index.html
http://zhidao.baidu.com/q?ct=17&pn=0&tn=ikaslist&rn=10&word=&fr=wwwt
http://tieba.baidu.com/f?kw=&fr=wwwt
http://home.baidu.com
https://passport.baidu.com/v2/?reg&regType=1&tpl=mn&u=http%3A%2F%2Fwww.baidu.com%2F
http://v.baidu.com
http://e.baidu.com/?refer=888
;
http://tieba.baidu.com
http://baike.baidu.com
http://wenku.baidu.com/search?word=&lm=0&od=0
http://top.baidu.com
http://map.baidu.com/m?word=&fr=ps01000

时间: 2024-10-21 17:55:50

使用HtmlParser提取网页中的链接的相关文章

[爬虫学习笔记]用于提取网页中所有链接的 Extractor 模块

        Extractor的工作是从下载的网页中将它包含的所有URL提取出来.这是个细致的工作,你需要考虑到所有可能的url的样式,比如网页中常常会包含相对路径的url,提取的时候需要将它转换成绝对路径.这里我们选择使用正则表达式来完成链接的提取.        html标签中的链接地址通常会出现在href属性或者src属性中,所以我们采用两个正则表达式来匹配网页中的所有链接地址.   网页链接提取器Extractor类: using System; using System.Colle

Python Show-Me-the-Code 第 0009 题 提取网页中的超链接

第 0009 题:一个HTML文件,找出里面的链接. 思路:对于提取网页中的超链接,先把网页内容读取出来,然后用beautifulsoup来解析是比较方便的.但是我发现一个问题,如果直接提取a标签的href,就会包含javascript:xxx和#xxx之类的,所以要对这些进行特殊处理. 0009.提取网页中的超链接.py #!/usr/bin/env python #coding: utf-8 from bs4 import BeautifulSoup import urllib import

利用htmlparser提取网页纯文本的例子

import org.htmlparser.Node; import org.htmlparser.NodeFilter; import org.htmlparser.Parser; importorg.htmlparser.filters.TagNameFilter; import org.htmlparser.tags.TableTag; import org.htmlparser.util.NodeList; /** * 标题:利用htmlparser提取网页纯文本的例子 */ publi

使用Jsoup解决网页中图片链接问题

在做Facebook和WhatsApp分享的时候,分享出去的谷歌短链,Facebook获取不到大图,和竞品展示的不一样,WhatsApp分享出去的短链没有图片和描述. WhatsApp: 分析竞品UCNews,发现他们分享出去的WhatsApp链接指向的网页,在meat标签中添加了相关的属性,然后在自己的站中加入相关标签,问题解决. <meta property="og:image" content="http://img.masala-sg.goldenmob.com

一次性设置网页中所有链接均在新窗口中打开的代码? - 落叶的星空的日志 - 网易博客

这是设置在新窗口中打开的代码:target=_blank   设置单个连接加在herf前 如: <a href="网站地址">共享空间</a>如果要点了这个文字以后重新打开一个窗口的话,代码是:<a href="网站地址"target="_blank">共享空间</a> 方法一: 在代码视图的<head></head>之间加入<base target="bla

一个用来提取网页中图片的小工具

public Array MatchHtml(string html,string com) { List<string> urls = new List<string>(); html = html.ToLower(); //获取SRC标签中的URL Regex regexSrc = new Regex("src=\"[^\"]*[(.jpg)(.png)(.gif)(.bmp)(.ico)]\""); foreach(Match

python学习笔记——爬虫中提取网页中的信息

1 数据类型 网页中的数据类型可分为结构化数据.半结构化数据.非结构化数据三种 1.1 结构化数据 常见的是MySQL,表现为二维形式的数据 1.2 半结构化数据 是结构化数据的一种形式,并不符合关系型数据库或其他数据表的形式关联起来的数据模型结构,但包含相关标记,用来分隔语义元素以及对记录和字段进行分层.因此,它也被称为自描述的结构.常见的半结构数据有HTML,XML和JSON等,实际上是以树或者图的结构来存储的. <person> <name>A</name> &l

基础算法7:使用正则提取网页中a标签的链接和标题

先放出测试代码,然后再对几个关键点进行简单解释 package test; import java.util.regex.Matcher; import java.util.regex.Pattern; public class Test1 { public static void main(String[] args) { String str1 = "<a href=\"http://www.zifangsky.cn/2015/10/hello-world/\" t

python提取网页中json数据

用法示例: 相对于python解析XML来说,我还是比较喜欢json的格式返回,现在一般的api返回都会有json与XML格式的选择,json的解析起来个人觉得相对简单些 先看一个简单的豆瓣的图书查询的api返回 http://api.douban.com/v2/book/isbn/9787218087351 {"rating":{"max":10,"numRaters":79,"average":"9.1"