java 网页页面抓取标题和正文

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.MalformedURLException;
import java.net.URL;
import java.util.ArrayList;
import java.util.HashMap;
import java.util.List;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

public class WebContent
{
 /**
  * 读取一个网页全部内容
  */
 public String getOneHtml(final String htmlurl) throws IOException
 {
  URL url;
  String temp;
  final StringBuffer sb = new StringBuffer();
  try
  {
   url = new URL(htmlurl);
   final BufferedReader in = new BufferedReader(new InputStreamReader(url.openStream(), "utf-8"));// 读取网页全部内容
   while ((temp = in.readLine()) != null)
   {
    sb.append(temp);
   }
   in.close();
  }
  catch (final MalformedURLException me)
  {
   System.out.println("你输入的URL格式有问题!请仔细输入");
   me.getMessage();
   throw me;
  }
  catch (final IOException e)
  {
   e.printStackTrace();
   throw e;
  }
  return sb.toString();
 }

 /**
  *
  * @param s
  * @return 获得网页标题
  */
 public String getTitle(final String s)
 {
  String regex;
  String title = "";
  final List<String> list = new ArrayList<String>();
  regex = "<title>.*?</title>";
  final Pattern pa = Pattern.compile(regex, Pattern.CANON_EQ);
  final Matcher ma = pa.matcher(s);
  while (ma.find())
  {
   list.add(ma.group());
  }
  for (int i = 0; i < list.size(); i++)
  {
   title = title + list.get(i);
  }
  return outTag(title);
 }

 /**
  *
  * @param s
  * @return 获得链接
  */
 public List<String> getLink(final String s)
 {
  String regex;
  final List<String> list = new ArrayList<String>();
  regex = "<a[^>]*href=(\"([^\"]*)\"|\‘([^\‘]*)\‘|([^\\s>]*))[^>]*>(.*?)</a>";
  final Pattern pa = Pattern.compile(regex, Pattern.DOTALL);
  final Matcher ma = pa.matcher(s);
  while (ma.find())
  {
   list.add(ma.group());
  }
  return list;
 }

 /**
  *
  * @param s
  * @return 获得脚本代码
  */
 public List<String> getScript(final String s)
 {
  String regex;
  final List<String> list = new ArrayList<String>();
  regex = "<script.*?</script>";
  final Pattern pa = Pattern.compile(regex, Pattern.DOTALL);
  final Matcher ma = pa.matcher(s);
  while (ma.find())
  {
   list.add(ma.group());
  }
  return list;
 }

 /**
  *
  * @param s
  * @return 获得CSS
  */
 public List<String> getCSS(final String s)
 {
  String regex;
  final List<String> list = new ArrayList<String>();
  regex = "<style.*?</style>";
  final Pattern pa = Pattern.compile(regex, Pattern.DOTALL);
  final Matcher ma = pa.matcher(s);
  while (ma.find())
  {
   list.add(ma.group());
  }
  return list;
 }

 /**
  *
  * @param s
  * @return 去掉标记
  */
 public String outTag(final String s)
 {
  return s.replaceAll("<.*?>", "");
 }

 /**
  *
  * @param s
  * @return 获取雅虎知识堂文章标题及内容
  */
 public HashMap<String, String> getFromYahoo(final String s)
 {
  final HashMap<String, String> hm = new HashMap<String, String>();
  final StringBuffer sb = new StringBuffer();
  String html = "";
  System.out.println("\n------------------开始读取网页(" + s + ")--------------------");
  try
  {
   html = getOneHtml(s);
  }
  catch (final Exception e)
  {
   e.getMessage();
  }
  // System.out.println(html);
  System.out.println("------------------读取网页(" + s + ")结束--------------------\n");
  System.out.println("------------------分析(" + s + ")结果如下--------------------\n");
  String title = outTag(getTitle(html));
  title = title.replaceAll("_雅虎知识堂", "");
  // Pattern pa=Pattern.compile("<div
  // class=\"original\">(.*?)((\r\n)*)(.*?)((\r\n)*)(.*?)</div>",Pattern.DOTALL);
  final Pattern pa = Pattern.compile("<div class=\"original\">(.*?)</p></div>", Pattern.DOTALL);
  final Matcher ma = pa.matcher(html);
  while (ma.find())
  {
   sb.append(ma.group());
  }
  String temp = sb.toString();
  temp = temp.replaceAll("(<br>)+?", "\n");// 转化换行
  temp = temp.replaceAll("<p><em>.*?</em></p>", "");// 去图片注释
  hm.put("title", title);
  hm.put("original", outTag(temp));
  return hm;

 }

 /**
  *
  * @param args
  *            测试一组网页,针对雅虎知识堂
  */
 public static void main(final String args[])
 {
  String url = "";
  final List<String> list = new ArrayList<String>();
  System.out.print("输入URL,一行一个,输入结束后输入 go 程序开始运行:   \n");
  /*
   * http://ks.cn.yahoo.com/question/1307121201133.html
   * http://ks.cn.yahoo.com/question/1307121101907.html
   * http://ks.cn.yahoo.com/question/1307121101907_2.html
   * http://ks.cn.yahoo.com/question/1307121101907_3.html
   * http://ks.cn.yahoo.com/question/1307121101907_4.html
   * http://ks.cn.yahoo.com/question/1307121101907_5.html
   * http://ks.cn.yahoo.com/question/1307121101907_6.html
   * http://ks.cn.yahoo.com/question/1307121101907_7.html
   * http://ks.cn.yahoo.com/question/1307121101907_8.html
   */
  final BufferedReader br = new BufferedReader(new InputStreamReader(System.in));
  try
  {
   while (!(url = br.readLine()).equals("go"))
   {
    list.add(url);
   }
  }
  catch (final Exception e)
  {
   e.getMessage();
  }
  final WebContent wc = new WebContent();
  HashMap<String, String> hm = new HashMap<String, String>();
  for (int i = 0; i < list.size(); i++)
  {
   hm = wc.getFromYahoo(list.get(i));
   System.out.println("标题: " + hm.get("title"));
   System.out.println("内容: \n" + hm.get("original"));
  }
  /*
   * String htmlurl[] = {
   * "http://ks.cn.yahoo.com/question/1307121201133.html",
   * "http://ks.cn.yahoo.com/question/1307121101907.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_2.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_3.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_4.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_5.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_6.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_7.html",
   * "http://ks.cn.yahoo.com/question/1307121101907_8.html" }; WebContent
   * wc = new WebContent(); HashMap<String, String> hm = new HashMap<String,
   * String>(); for (int i = 0; i < htmlurl.length; i++) { hm =
   * wc.getFromYahoo(htmlurl[i]); System.out.println("标题: " +
   * hm.get("title")); System.out.println("内容: \n" + hm.get("original")); }
   */
  /*
   * String html=""; String link=""; String sscript=""; String content="";
   * System.out.println(htmlurl+" 开始读取网页内容:");
   * html=wc.getOneHtml(htmlurl); System.out.println(htmlurl+"
   * 读取完毕开始分析……"); html=html.replaceAll("(<script.*?)((\r\n)*)(.*?)((\r\n)*)(.*?)(</script>)","
   * ");//去除脚本 html=html.replaceAll("(<style.*?)((\r\n)*)(.*?)((\r\n)*)(.*?)(</style>)","
   * ");//去掉CSS html=html.replaceAll("<title>.*?</title>"," ");//除去页面标题
   * html=html.replaceAll("<a[^>]*href=(\"([^\"]*)\"|\‘([^\‘]*)\‘|([^\\s>]*))[^>]*>(.*?)</a>","
   * ");//去掉链接 html=html.replaceAll("(\\s){2,}?"," ");//除去多余空格
   * html=wc.outTag(html);//多余标记 System.out.println(html);
   */

  /*
   * String s[]=html.split(" +"); for(int i=0;i<s.length;i++){
   * content=(content.length()>s[i].length())?content:s[i]; }
   * System.out.println(content);
   */

  // System.out.println(htmlurl+"网页内容结束");
  /*
   * System.out.println(htmlurl+"网页脚本开始:"); List
   * script=wc.getScript(html); for(int i=0;i<script.size();i++){
   * System.out.println(script.get(i)); }
   * System.out.println(htmlurl+"网页脚本结束:");
   *
   * System.out.println(htmlurl+"CSS开始:"); List css=wc.getCSS(html);
   * for(int i=0;i<css.size();i++){ System.out.println(css.get(i)); }
   * System.out.println(htmlurl+"CSS结束:");
   *
   * System.out.println(htmlurl+"全部链接内容开始:"); List list=wc.getLink(html);
   * for(int i=0;i<list.size();i++){ link=list.get(i).toString(); }
   * System.out.println(htmlurl+"全部链接内容结束:");
   *
   * System.out.println("内容"); System.out.println(wc.outTag(html));
   */
 }
}

  

java 网页页面抓取标题和正文

时间: 2024-10-22 09:20:43

java 网页页面抓取标题和正文的相关文章

Java HTML页面抓取实例

import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.io.UnsupportedEncodingException; import java.net.HttpURLConnection; import java.net.MalformedURLException; import java.net.URL; public class Url

java网页数据抓取实例

网页上面数据如下: 如果想要过去上图所示网页的数据,代码如下: (1)调度类,主要调用工具类中的方法获取数据并入库 package com.jointsky.jointframe.weather.jobservice; import java.util.HashMap; import java.util.List; import java.util.Map; import org.apache.commons.lang.StringUtils; import org.springframewor

Java写的抓取任意网页中email地址的小程序

/* * 从网页中抓取邮箱地址 * 正则表达式:java.util.regex.Pattern * 1.定义好邮箱的正则表达式 * 2.对正则表达式预编译 * 3.对正则和网页中的邮箱格式进行匹配 * 4.找到匹配结果 * 5.通过网络程序,打通机器和互联网的一个网站的连接 */ import java.net.*; import java.util.regex.*; import java.io.*; public class EmailAddressFetch { public static

java中用jsoup抓取网页源码,并批量下载图片

一.导入jsoup的核心jar包jsoup-xxx.jar jar包下载地址:jsoup-1.8.2.jar 中文API地址:http://www.open-open.com/jsoup/parsing-a-document.htm 二.java中用jsoup抓取网页源码,并批量下载图片 package com.dgh.test; import java.io.File; import java.io.FileOutputStream; import java.io.IOException; i

爬虫---selenium动态网页数据抓取

动态网页数据抓取 什么是AJAX: AJAX(Asynchronouse JavaScript And XML)异步JavaScript和XML.过在后台与服务器进行少量数据交换,Ajax 可以使网页实现异步更新.这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新.传统的网页(不使用Ajax)如果需要更新内容,必须重载整个网页页面.因为传统的在传输数据格式方面,使用的是XML语法.因此叫做AJAX,其实现在数据交互基本上都是使用JSON.使用AJAX加载的数据,即使使用了JS,将数

第四章爬虫进阶之动态网页数据抓取

动态网页数据抓取 什么是AJAX: AJAX(Asynchronouse JavaScript And XML)异步JavaScript和XML.过在后台与服务器进行少量数据交换,Ajax 可以使网页实现异步更新.这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新.传统的网页(不使用Ajax)如果需要更新内容,必须重载整个网页页面.因为传统的在传输数据格式方面,使用的是XML语法.因此叫做AJAX,其实现在数据交互基本上都是使用JSON.使用AJAX加载的数据,即使使用了JS,将数

Android登录客户端,验证码的获取,网页数据抓取与解析,HttpWatch基本使用

大家好,我是M1ko.在互联网时代的今天,如果一个App不接入互联网,那么这个App一定不会有长时间的生命周期,因此Android网络编程是每一个Android开发者必备的技能,博主是在校大学生,自学Android一年半多,正好通过一个模拟登录校园网软件,来给大家演示如何在网页上抓取我们想要的数据,以及将数据Post给服务器.如果有什么错误或改进欢迎大家指正=-= ,如果想交流博主qq 136057505 好的废话不多说看一下我们的重点 Httpwatch等软件抓取Post请求 如何获取验证码

网页中抓取数据

下面写个例子,实现从网页中抓取数据. 这个例子中,只是从网页中获取了数据,但是没有进行任何处理,只是将数据保存到一个txt文件中. 该例子是在android工程中写的. package com.example.creepertest; import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.File; import java.io.FileOutputStream; import java.io.I

简述php关于网页元素抓取方面的技术

对于php抓取网页的内容,可能比较难的就是dom解析这一部分了,这儿的话有几种技术推荐给大家,具体使用哪种就看自己的喜欢了 1.php自带的xpath解析技术 xpath的话具体可以百度一下他的用法,我只举几个简单的例子,废话不多说,代码如下 <?php error_reporting(0); $url='http://www.baidu.com';//此处写抓取的网页的网址,我随便写的 $html=file_get_contents($url); $dom=new DOMDocument; $