Android Jsoup 爬取网页数据

一不小心一个月又过去了,其实最近还是小忙小忙的,废话不多说,直接进入今天的主题吧。

Jsoup – Java HTML Parser, with best of DOM, CSS, and jquery.,看这个介绍就知道,这个就是方便咱们 JavaAndroid 来解析 HTML 的。

HTML 标签

要去爬别人的 HTML 标签的话,首先你肯定得有一定的 HTML 的基础知识吧。比如说常用的标签,标签的相关属性,这个就不多说了,有相关问题都可以在 www.w3school.com.cn 的网站解决一下。

加载网页

最简单的,直接加载一个网页:

  Document document = Jsoup.connect("https://www.google.com").get();

那看到最后的 get() 方法聪明滴你一定就猜到还有一个对应的 post() 方法了吧。另外,http 请求的相关操作都是可以设置的,包括 header 请求参数,请求超时等等。除此之外,本地的文件(IO流)等都是可以直接解析的哈。

Document document = Jsoup.connect("https://android-arsenal.com")
        .timeout(5000)
        .cookie("cookie", "cxxx")
        .header("xx", "xx")
        .userAgent("")
        .get();

基本标签解析

之后咱们就得到了一个 Document 的对象了。这个对象就是对整个请求网页的封装,相关内容都可以在里面获取。

来吧,加入我们有下面一段html标签需要解析:


RendererRecyclerViewAdapter
            Recycler Views
        

        Free
        New

A single adapter for the whole project.
  • Now you do not need to implement adapters for RecyclerView.
  • You can easily use several types of cells in a single list.
  • Using this library will protect you from the appearance of any business logic in an adapter.
Mar 17, 2017 " data-snippet-id="ext.8586638da0117b735369be55f34e6d37" data-snippet-saved="false" data-codota-status="done"><div class="project-info clearfix"> <div class="header"> <div class="title"> <a href="/details/1/5442">RendererRecyclerViewAdapter</a> <a class="tags" href="/tag/199">Recycler Views</a> </div> <a class="badge free" href="/free">Free</a> <a class="badge new" href="/recent">New</a> </div> <div class="desc"> <p>A single adapter for the whole project.</p> <ul> <li>Now you do not need to implement adapters for RecyclerView.</li> <li>You can easily use several types of cells in a single list.</li> <li>Using this library will protect you from the appearance of any business logic in an adapter.</li> </ul> </div> <div class="ftr l"><i class="fa fa-calendar"></i> Mar 17, 2017</div> </div>

Jsoup 里面对于标签的寻找使用的方法是 select() 方法,这个方法不要太强大了。咱们一步一步的来。

比如我们要在茫茫标签中找到 <div class="project-info clearfix"> 的话,拿这里就是应该 findElementByClass() ,那么在 Jsoup 中是怎么定义这一块的呢?

哈哈,很easy嘛,那就是 document.select("div.project-info clearfix") 咯,当然不是这样子的,等等 class 属性里面这个空格是什么意思啊?是不是一脸懵逼?这里最终的写法是 document.select("div.project-info.clearfix") 空格需要用 . 来处理。

      Elements select = document.select("div.project-info.clearfix");

这里得到是一个集合。我们接下来就需要遍历这个集合,然后把里面的每一个标签都拔出来。

title 部分的解析,这里是一个 <div> 里面嵌套了一个 <a> 的标签。这里就涉及到了解析 <a> 标签了。这里我们需要对应的 href,也需要对应的 textJsoup 提供了对应的两个方法 attr()text()

Elements elements = e.select("div.title");
if (!elements.isEmpty()) {
    for (Element tittle : elements) {
        Element first = tittle.select("a[href]").first();
        if (first != null) {
            title = first.text();
            titleUrl = first.attr("href");
            System.out.println("名称:" + title);
            System.out.println("具体地址:" + titleUrl);
        }

        Elements select1 = tittle.select("a.tags");
        if (!select1.isEmpty()) {
            tag = select1.text();
            tagUrl = select1.attr("href");
            System.out.println("tags:" + tag);
            System.out.println("tagUrl:" + tagUrl);
        }
    }
}

嵌套解析

到这里, <div><a> 标签的介绍基本搞定,接下来就是 <div class="desc"> 的解析了。

<div class="desc">
    <p>A single adapter for the whole project.</p>
    <ul>
    <li>Now you do not need to implement adapters for RecyclerView.</li>
    <li>You can easily use several types of cells in a single list.</li>
    <li>Using this library will protect you from the appearance of any business logic in an adapter.</li>
    </ul>
</div>

这里又多了 <ul><li> 了,其实道理是差不多的,但是这里它们既没有 class 也没有 id ,那这个我们应该这么去解析呢?

这里还是要回到 select() 方法,这里就需要使用到指定层级的方法了。

        Elements select1 = e.select("div.desc > p");
        String s = select1.toString();

对于 <dt> <dd> 相关的标签,就可以使用 + 相关的连接符了。例如我想要只解析 Tag 下面的对应的 Tag 名称和相关的 url,这个应该怎么写呢?

<dt>Tag</dt>
<dd><a href="/tag/9">Background Processing</a></dd>
<dt>License</dt>
<dd><a href="http://opensource.org/licenses/Apache-2.0" rel="nofollow" target="_blank">Apache License, Version 2.0</a>
</dd>

代码就是这样的,这里一不小心就又引出了 select() 方法的嵌套高级写法。

 Elements select4 = element.select("dt:contains(Tag) + dd");

其实不用太多解释啦,截图里面描述的很清楚了。最后一个是可以支持正则的匹配。

同级相邻解析

还有一种情况就是我们需要的标签没有具体的 id 或者 class,并且它没有直接对应的父标签或者某种固定的嵌套关系,例如下面这种情况:


ImmediateLooperScheduler

" data-snippet-id="ext.2bc5ebe9840f0e244465396f590a3cf3" data-snippet-saved="false" data-codota-status="done"><a id="favoriteButton" href="#" class="fa fa-star-o favorite tshadow" title="Add to favorites"></a>
<a href="/details/1/5244">ImmediateLooperScheduler</a> <div id="githubInfoValue">

这里我们只需要解析到第二个 <a> 标签,那么需要怎么处理呢?这里就需要使用到 nextElementSibling() 的方法了。

Element ssa = h1.select("a#favoriteButton").first();
Element element = ssa.nextElementSibling();
String title = element.text();

模糊解析

有时候我们只知道这个 <div> 是以 什么开头或者是以什么结尾或者又是里面包含了某个单词的,那么这个时候就需要使用模糊查找了。

Jsoup 中定义了这些情况的相关 select() 写法,其中,以什么开头,是使用 a[href^=http] ,以什么结尾使用 a[href$=.jpg] ,包含什么就是使用 a[href*=/search/]

javascript 解析

刚刚说的都是普通标签及其内容,如果我要获取js相关的标签以及内容呢?其实也不难,只是最后不是使用text()的方法,而是使用data()的方法了。

就是 Jsoup 最主要的就是写好这个 select() 方法,

final Elements script = document.select("script");

String js = script.first().data();

相关实战

Android-Arsenal 这个网站不造大家伙儿有听说过没?这里给我们Android开发者提供了了一个信息交流展示平台,实时更新一些Android相关的App,开发库、以及Demo。然后,我看到它也有自己的客户端,所以一时好奇也打算下载下来看看,结果,客户端就是直接加载的网页,关键是广告满天飞。这个就让人不好受了(话说回来,人家不打广告赚点儿钱做这个平台干嘛呢。)

所以灵机一动,为什么我不自己搞一个 Android-Arsenal 的客户端呢?这样方便在手机上看到最新的东西嘛。所以就做了一个客户端,而使用的就是Jsoup 来爬去的对应的网页。然后就把对应 ads 的标签都过滤了,所以是很清爽的啦。当然功能也只是先实现了一部分。喜欢的朋友可以点个星星或者下载使用哟!

最后来一波效果图:

项目地址:https://github.com/lovejjfg/Android-Arsenal

—- Edit By Joe At 2017 03 18 —-

时间: 2024-12-28 02:07:05

Android Jsoup 爬取网页数据的相关文章

python之爬取网页数据总结(一)

今天尝试使用python,爬取网页数据.因为python是新安装好的,所以要正常运行爬取数据的代码需要提前安装插件.分别为requests    Beautifulsoup4   lxml  三个插件. 因为配置了环境变量,可以cmd命令直接安装.假如电脑上有两个版本的python,建议进入到目录安装. 安装的命令为 pip install requests(Beautifulsoup4   /lxml  ) 三条分别执行. 安装结束,可以尝试网上一些简单的例子,明白了解 Beautifulso

用puppeteer爬取网页数据初体验

用puppeteer爬取网页数据 业务需求,页面需要显示很多链接列表,像这样的. 我问项目经理要字典表,他笑咪咪地拍着我的肩膀说:"这边有点忙,要不按照这个自己抄一下吧". emmm- 我看了一下,数据大概有七八百条,一个一个录入,那不得搞到地老天荒.海枯石烂. 心口一股燥热,差点就要口吐莲花,舌吐芬芳了- 转念一想,做人要儒雅随和,念在平时没少蹭吃蹭喝的份上,咱先弄一下吧. 可是怎么弄呢? 一个一个输入是不可能的,我们需要录入每个组的标题.标题下的名称和链接,这是需要看网页源码,效率

python爬虫——爬取网页数据和解析数据

1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序.只要浏览器能够做的事情,原则上,爬虫都能够做到. 2.网络爬虫的功能   图2 网络爬虫可以代替手工做很多事情,比如可以用于做搜索引擎,也可以爬取网站上面的图片,比如有些朋友将某些网站上的图片全部爬取下来,集中进行浏览,同时,网络爬虫也可以用于金融投资领域,比如可以自动爬取一些金融信息,并进行投资分析等. 有时,我们比较喜欢的新闻网站可能有几个,每次

03:requests与BeautifulSoup结合爬取网页数据应用

1.1 爬虫相关模块命令回顾 1.requests模块 1. pip install requests 2. response = requests.get('http://www.baidu.com/ ')            #获取指定url的网页内容 3. response.text                                                                                #获取文本文件 4. response.cont

爬虫爬取网页数据

public static void Main(string[] args) { string url = "https://ly.esf.fang.com/house-a010204-b012374/";//所需要爬取网站地址 string data = GetWebContent(url); var htmlDoc = new HtmlDocument(); htmlDoc.LoadHtml(data);//加载数据流 HtmlNodeCollection htmlNodes =

爬取网页数据基础

代码如下: package com.tracker.offline.tools; import com.alibaba.fastjson.JSONObject; import com.google.common.collect.Lists; import com.tracker.common.utils.StringUtil; import com.tracker.coprocessor.utils.JsonUtil; import org.apache.commons.lang.StringU

pycharm爬取网页数据

1 python环境的配置 1.1 安装python文件包,放到可以找到的位置 1.2 右键计算机->属性->高级环境设置->系统变量->Path->编辑->复制python路径位置 1.3 管理员身份打开cmd,输入python,测试环境是否安装成功 2 安装pycharm 2.1 安装pycharm文件包,放到可以找到的位置 2.2 新建文件夹,需要设置环境 2.3 File->Setting->project ...->add->找到pyt

python爬取网页数据

python时间戳 将时间戳转为日期 #!/usr/bin/python # -*- coding: UTF-8 -*- # 引入time模块 import time #时间戳 timeStamp = 1581004800 timeArray = time.localtime(timeStamp) #转为年-月-日形式 otherStyleTime = time.strftime("%Y-%m-%d ", timeArray) print(otherStyleTime) python爬

【推荐】oc解析HTML数据的类库(爬取网页数据)

TFhpple是一个用于解析html数据的第三方库,本人感觉功能还算可以,只不过在使用前必须配置项目. 配置 1.导入libxml2.tbd 2.设置编译路径 使用 这里使用一个例子来说明 http://so.gushiwen.org/guwen/book_2.aspx 1.创建TFHpple对象,data为网站返回的数据 TFHpple *htmlParser = [[TFHpple alloc] initWithHTMLData:data]; 2.使用searchWithXPathQuery