Lucene的例子

lucene爬数据库中的数据无非也是查询数据。所有我们用lucene搜索数据主要有下面几个步骤:(代码紧供参考)
       一  ,  从数据库中查数据 ====爬数据  -------------1

public ArrayList<BaseItem> getDate(String sql) throws SQLException {
  ArrayList<BaseItem> item = new ArrayList<BaseItem>();
  ConnBase dataConn = new ConnBase();//数据库连接
  conn = dataConn.DBconn();
  ps = conn.prepareStatement(sql);
  rs = ps.executeQuery();
  // jdbcTemplate.execute(sql);
  while (rs.next()) {
   BaseItem i = new BaseItem();
   i.setTitle(rs.getString("title")); // 对应你的Blog表里的title
   i.setContent(rs.getString("content")); // 取表里的博客内容
   i.setUr("SingleArticle_lucene.action?id=" + rs.getInt("blogId")); // 如 a. action ?id=8
   item.add(i);
  } // 把数据库里的数据取出来
  return item;
 }
   二 , // 建立索引存放的位置 ------本方法是创建 在C盘--------------------2

public void CreateFileIndex(String dir) {
  try {
   /* 这里放索引文件的位置 */
   File indexDir = new File("c:\\" + dir); // 存放 检索文件的路径
   if (!indexDir.exists()) {
    indexDir.mkdirs();
   }
   // 创建标准文本分析器, 标准的是可以支持的中文的

Analyzer luceneAnalyzer = new StandardAnalyzer();
   indexWriter = new IndexWriter(indexDir, luceneAnalyzer, true);
   // 可以说是创建一个新的写入工具
   // 第一个参数是要索引建立在哪个目录里
   // 第二个参数是新建一个文本分析器,这里用的是标准的大家也可以自己写一个
   // 第三个参数如果是true,在建立索引之前先将c: \\index目录清空
   indexWriter.setMaxFieldLength(100000);
   indexWriter.optimize();
  } catch (IOException e) {
   System.out.println("建立索引失败!!!");
   e.printStackTrace();
  }
 }

三 , // 添加数据到索引里去-----------------3

public String createIndex(String title, String url, String content) {
  try {
   
   // 增加document到索引去
   // document对象,相当于数据库中一条记录
   Document document = new Document();
   // Field对象,相当于数据库中字段
   Field FiledTitle = new Field("title", title, Field.Store.YES,
     Field.Index.ANALYZED);// Field.Index.ANALYZED 这就能进行索引了, 如果设置为NO的话就不能检索
   Field FiledContent = new Field("content", content, Field.Store.YES,
     Field.Index.ANALYZED);
   Field FieldBody = new Field("url", url, Field.Store.YES,
     Field.Index.NO); 
   document.add(FieldBody);
   document.add(FiledContent);
   document.add(FiledTitle);
   indexWriter.addDocument(document);
  } catch (IOException e) {
   e.printStackTrace();
   
   return "建立索引失败!!!!!!";
  }
  return "建立索引成功!!!!!!!";
 }

四 , // 关闭索引================================== 4

public void close() throws IOException {
  this.indexWriter.close();    // 这里非常的重要,不关闭直接导致你的索引创建不成功
 }

五  , // 查询索引的方法 ===============================5

public ArrayList<Document> getQueryDate(String info)
   throws CorruptIndexException, IOException,
   org.apache.lucene.queryParser.ParseException {
  ArrayList<Document> doc = new ArrayList<Document>();
  String queryString = info;
//   Hits hits = null;
//   Query query = null;
//   QueryParser qp = null;
//   String dir = "c:\\hujiong"; // 一定要跟你建索引的位置 一致
//  
//   // 建立索引检索对象
//   IndexSearcher searcher = new IndexSearcher(dir);
//   // 分词器
//   Analyzer analyzer = new StandardAnalyzer();
//   qp = new QueryParser("content", analyzer);// 这里上面只写了一个按Content查找.
//   下面添加的是title, 查找
//   query = qp.parse(queryString);
//  
//   if (searcher != null) {
//   hits = searcher.search(query);
//   doc = new ArrayList<Document>();
//   for (int i = 0; i < hits.length(); i++) {
//   doc.add(hits.doc(i));
//   }
//   }

IndexSearcher searcher = new IndexSearcher("c:\\hujiong");
  Analyzer analyzer = new StandardAnalyzer();
  Query query = null;
  if (searcher != null) {
   // 合并你搜索的字段, 增强你的搜索能力!!
   BooleanClause.Occur[] clauses = { BooleanClause.Occur.SHOULD,
     BooleanClause.Occur.SHOULD };
   query = MultiFieldQueryParser.parse(queryString, new String[] {
     "title", "content" }, clauses, analyzer);  // 这里就是在两个范围内进行收索 , 不过这些索引的字段必须要在添加数据到索引的时候设置它
   
   TopDocCollector collector = new TopDocCollector(5); // 设置返回的最大数目,就返回前100条
   
   searcher.search(query, collector);
   ScoreDoc[] hits1 = collector.topDocs().scoreDocs;
           // 返回的结果他是一个数组
   if (hits1.length > 0) {
    for (int i = 0; i < hits1.length; i++) {
     Document doc1 = searcher.doc(hits1[i].doc); 
               // 这是从这个返回的数组里面迭代每一个数据,  它的值是Document
     doc.add(doc1);
     System.out.println(doc1.get("title") + "-----title");
     System.out.println(doc1.get("content") + "-------content");
    }
   } else {
    System.out.println("没有数据");
   }
  }
  return doc;

}

//上面注释的一段代码是紧对单个field查询, 下面是支持多个field查询  
//上面的例子只需要改变第一步,就可以查多个表的数据, 你只需在getDate(String sql)中的sql语句改变为你要查询的表的sql语句,
//该方法中  
while (rs.next()) {
   BaseItem i = new BaseItem();
   i.setTitle(rs.getString("title")); // 对应你的Blog表里的title
   i.setContent(rs.getString("content")); // 取表里的博客内容
   i.setUr("SingleArticle_lucene.action?id=" + rs.getInt("blogId")); // 如 a. action ?id=8
   item.add(i);
  } // 把数据库里的数据取出来
也要和你查询的表的字段对应就可以。。。

package phz;
 
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.queryParser.MultiFieldQueryParser;
import org.apache.lucene.search.BooleanClause;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.MultiSearcher;
import org.apache.lucene.search.Query;
 
/**
 * 这个实例包含了lucene所有核心用法
 *
 * @author panhuizi
 *
 */
public class LuceneTest {
 
    public static void main(String[] args) {
        try {
            LuceneTest luceneTest = new LuceneTest();
            // 创建索引
            luceneTest.index();
            // 在索引所在目录下搜索"中国 金牌"
            luceneTest.search("中国 金牌");
        } catch (Exception e) {
            e.printStackTrace();
        }
        System.out.println("ok");
    }
 
    public void index() throws Exception {
        /* 创建索引初始化,执行这些语句将创建或清空d:\\save\\目录下所有索引 */
        IndexWriter writer1 = new IndexWriter("d:\\save\\",
                new StandardAnalyzer(), true);
        writer1.close();
 
        /*
         * 往创建的初始化索引中添加索引内容,StandardAnalyzer表示用lucene自带的标准分词机制,
         * false表示不覆盖原来该目录的索引,细心的读者可能已经发现, 这句话和上面的那句就这个false不一样
         */
        IndexWriter writer2 = new IndexWriter("d:\\save\\",
                new StandardAnalyzer(), false);
        /* 创建一份文件 */
        Document doc1 = new Document();
        /*
         * 创建一个域ArticleTitle,并往这个域里面添加内容 "Field.Store.YES"表示域里面的内容将被存储到索引
         * "Field.Index.TOKENIZED"表示域里面的内容将被索引,以便用来搜索
         */
        Field field1 = new Field("ArticleTitle", "北京2008年奥运会", Field.Store.YES,
                Field.Index.TOKENIZED);
        /* 往文件里添加这个域 */
        doc1.add(field1);
        /* 同理:创建另外一个域ArticleText,并往这个域里面添加内容 */
        Field field2 = new Field("ArticleText", "这是一届创造奇迹、超越梦想的奥运会.......",
                Field.Store.YES, Field.Index.TOKENIZED);
        doc1.add(field2);
        // 在这里还可以添加其他域
        /* 添加这份文件到索引 */
        writer2.addDocument(doc1);
 
        /* 同理:创建第二份文件 */
        Document doc2 = new Document();
        field1 = new Field("ArticleTitle", "中国获得全球赞誉", Field.Store.YES,
                Field.Index.TOKENIZED);
        doc2.add(field1);
        field2 = new Field("ArticleText", "中国所取得的金牌总数排行榜的榜首........",
                Field.Store.YES, Field.Index.TOKENIZED);
        doc2.add(field2);
 
        writer2.addDocument(doc2);
 
        // 在这里可以添加其他文件
 
        /* 关闭 */
        writer2.close();
    }
 
    public void search(String serchString) throws Exception {
        /* 创建一个搜索,搜索刚才创建的d:\\save\\目录下的索引 */
        IndexSearcher indexSearcher = new IndexSearcher("d:\\save\\");
        /* 在这里我们只需要搜索一个目录 */
        IndexSearcher indexSearchers[] = { indexSearcher };
        /* 我们需要搜索两个域"ArticleTitle", "ArticleText"里面的内容 */
        String[] fields = { "ArticleTitle", "ArticleText" };
        /* 下面这个表示要同时搜索这两个域,而且只要一个域里面有满足我们搜索的内容就行 */
        BooleanClause.Occur[] clauses = { BooleanClause.Occur.SHOULD,
                BooleanClause.Occur.SHOULD };
        /*
         * MultiFieldQueryParser表示多个域解析,
         * 同时可以解析含空格的字符串,如果我们搜索"中国 金牌",根据前面的索引,显然搜到的是第二份文件
         */
        Query query = MultiFieldQueryParser.parse(serchString, fields, clauses,
                new StandardAnalyzer());
        /* Multisearcher表示多目录搜索,在这里我们只有一个目录 */
        MultiSearcher searcher = new MultiSearcher(indexSearchers);
        /* 开始搜索 */
        Hits h = searcher.search(query);
        /* 把搜索出来的所有文件打印出来 */
        for (int i = 0; i < h.length(); i++) {
            /* 打印出文件里面ArticleTitle域里面的内容 */
            System.out.println(h.doc(i).get("ArticleTitle"));
            /* 打印出文件里面ArticleText域里面的内容 */
            System.out.println(h.doc(i).get("ArticleText"));
        }
        /* 关闭 */
        searcher.close();
    }
}

在Lucene里面没有update方法,我查了文档,我们只能删除以前的索引,然后增加新的索引。

具体步骤是,根据关键词,比如url这个唯一的东西,找到已经存在的索引项,然后删除它,

下面是我的一个根据网页URL删除索引的方法,里面主要使用了Item里面保存的一个docId的int类型的参数 
这个数字是lucene内部每个索引的顺序号,类似于rowid

@SuppressWarnings("unchecked")
public synchronized void deleteByUrl(String url) {
    synchronized (indexPath) {
      try {
        IndexReader indexReader = IndexReader.open(indexPath);
        Iterator it = searchUrl(url).iterator();
        while (it.hasNext()) {
          indexReader.deleteDocument(((LuceneItem) it.next()).getDocId());
        }
        indexReader.close();
      } catch (IOException e) {
        System.out.println(e);
      }
    }
}

/**
   * Lucene 2.4 搜索一个关键字的方法(Lucene Hits deprecated的解决方法)
   * 
   * @param url
   * @return
   */
public List<Item> searchUrl(String url) {
    try {
      // 替换一些特殊字符,比如冒号等
      url = StrTools.encodeURLForLucene(url);

IndexSearcher isearcher = new IndexSearcher(indexPath);
      QueryParser parser = new QueryParser(FIELD_URL, getAnalyzer());

Query query = parser.parse(url);
      // 下面的这个方法已经不推荐使用了。
      // Hits hits = isearcher.search(query);
      // 改为如下的方式
      TopDocCollector collector = new TopDocCollector(10);
      isearcher.search(query, collector);
      ScoreDoc[] hits = collector.topDocs().scoreDocs;

List<Item> rtn = new LinkedList<Item>();
      LuceneItem o;
      for (int i = 0; i < hits.length; i++) {
        Document doc = isearcher.doc(hits[i].doc);
        o = new LuceneItem();
        o.setDocId(hits[i].doc);
        o.setUrl(doc.get(FIELD_URL));

o.setAuthor(doc.get(FIELD_AUTHOR));
        o.setTitle(doc.get(FIELD_TITLE));
        o.setDatetimeCreate(doc.get(FIELD_DATETIMECREATE));
        o.setBody(doc.get(FIELD_BODY));
        rtn.add(o);
      }
      isearcher.close();
      return rtn;
    } catch (Exception e) {
      e.printStackTrace();
      return null;
    }
}

然后在增加索引的地方,先调用deleteByUrl方法删除可能已经存在的数据,然后再增加数据

public synchronized void IndexSingle(Item item) {
    synchronized (indexPath) {
      try {
        // 先删除以前的数据
        deleteByUrl(item.getUrl());

// 增加数据
        IndexWriter writer = getIndexWriter();
        writer.setMaxFieldLength(10000000);
        Date start = new Date();
        Document doc = new Document();// 一个文档相当与表的一条记录
        doc.add(new Field(FIELD_URL, item.getUrl(), Field.Store.YES, Field.Index.ANALYZED));
        doc.add(new Field(FIELD_AUTHOR, item.getAuthor(), Field.Store.YES, Field.Index.ANALYZED));
        doc.add(new Field(FIELD_TITLE, item.getTitle(), Field.Store.YES, Field.Index.ANALYZED));
        doc.add(new Field(FIELD_DATETIMECREATE, item.getDatetimeCreate(), Field.Store.YES, Field.Index.ANALYZED));
        doc.add(new Field(FIELD_BODY, item.getBody(), Field.Store.YES, Field.Index.ANALYZED));
        writer.addDocument(doc);
        // writer.optimize();// 优化
        writer.close();// 一定要关闭,否则不能把内存中的数据写到文件
        Date end = new Date();
        System.out.println("索引建立成功!!!!" + "用时" + (end.getTime() - start.getTime()) + "毫秒");
      } catch (IOException e) {
        System.out.println(e);
      }
    }
}

时间: 2024-10-28 19:05:37

Lucene的例子的相关文章

Lucene小例子

package org.itat.test; import java.io.File; import java.io.FileReader; import java.io.IOException; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; impor

Lucene实例教程

Lucene是apache组织的一个用java实现全文搜索引擎的开源项目. 其功能非常的强大,api也很简单.总得来说用Lucene来进行建立 和搜索和操作数据库是差不多的(有点像),Document可以看作是 数据库的一行记录,Field可以看作是数据库的字段.用lucene实 现搜索引擎就像用JDBC实现连接数据库一样简单. Lucene2.0,它与以前广泛应用和介绍的Lucene 1.4.3并不兼容. Lucene2.0的下载地址是http://apache.justdn.org/luce

Lucene教程(转)

Lucene教程 1 lucene简介1.1 什么是lucene    Lucene是一个全文搜索框架,而不是应用产品.因此它并不像www.baidu.com 或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品.2 lucene的工作方式    lucene提供的服务实际包含两部分:一入一出.所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除:所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源.2.1写入流程    源字符

lucene.net 3.0.3、结合盘古分词进行搜索的小例子(转)

lucene.net 3.0.3.结合盘古分词进行搜索的小例子(分页功能) 添加:2013-12-25 更新:2013-12-26 新增分页功能. 更新:2013-12-27 新增按分类查询功能,调整索引行新增记录的图片字段. //封装类 [csharp] view plaincopyprint? using System; using System.Collections.Generic; using System.Linq; using System.Web; using Lucene.Ne

Lucene第一个入门学习例子

看Lucene in Action的时候,练习的一个入门例子. 在使用Lucene进行文本内容搜索前,需要先对指定的目录下的文件进行建立索引,代码如下: import java.io.File; import java.io.FileFilter; import java.io.FileReader; import java.io.IOException; import org.apache.lucene.analysis.standard.StandardAnalyzer; import or

lucene 例子,lucene demo, lucene 教程

查了很多lucene资料,就纳闷为啥不能分享个简单的例子,我在这里自己写了一个 lucene实现其实很简单,先建立索引,在进行搜索,easy! 下载jar包,链接在这里:http://download.csdn.net/detail/dannor2010/8183641   项目中导入lib即可,不多说了. 前期:创建两个txt文件, C:\\source C:\\index source 中建立txt文件,输入你想要测试搜索的String类型内容. 1.建立索引,代码如下 package co

lucene.net 3.0.3、结合盘古分词进行搜索的小例子(分页功能)

转自:http://blog.csdn.net/pukuimin1226/article/details/17558247 添加:2013-12-25 更新:2013-12-26 新增分页功能. 更新:2013-12-27 新增按分类查询功能,调整索引行新增记录的图片字段. 最新盘古分词dll和词典管理工具下载:http://pangusegment.codeplex.com/ 词典下载:http://pangusegment.codeplex.com/releases/view/47411 L

lucene 前后端简单使用例子

lucene他只是一个插件,一般使用是嵌套在项目里面的.直接看代码 需要的jar包截图分词工具很多选择一个支持中文的即可 工具类代码 1 package com.chn.supervision.util; 2 3 import java.io.File; 4 import java.io.IOException; 5 import java.util.ArrayList; 6 import java.util.HashMap; 7 import java.util.List; 8 import

[Elasticsearch] 控制相关度 (二) - Lucene中的PSF(Practical Scoring Function)与查询期间提升

本章翻译自Elasticsearch官方指南的Controlling Relevance一章. Lucene中的Practical Scoring Function 对于多词条查询(Multiterm Queries),Lucene使用的是布尔模型(Boolean Model),TF/IDF以及向量空间模型(Vector Space Model)来将它们结合在一起,用来收集匹配的文档和对它们进行分值计算. 像下面这样的多词条查询: GET /my_index/doc/_search { "que