1 Lucene卡发包结构分析
包名 |
功能 |
org.apache.lucene.analysis |
Analysis提供自带的各种Analyzer |
org.apache.lucene.collation |
包含collationKeyFilter和collationKeyAnalyzer两个相同功能的类,将所有token转为CollationKey,与IndexableBinaryStringTools一起存为term |
org.apache.lucene.document |
Document包中是Document相关各种数据结构,如Document类,Field类等 |
org.apache.lucene.index |
index包中是索引的读写操作类,常用的是对索引文件的segment进行写、合并和优化的IndexWriter类和对索引进行读取和删除操作的IndexReader类 |
org.apache.lucene.queryParser |
queryParser包中是解析查询语句相关的类(常用的是QueryParser类) |
org.apache.lucene.search |
检索管理,根据查询条件,检索得到结果search包中是从索引中进行搜索的各种不同的Query类(如TermQuery、BooleanQuery等)和搜索结果集Hits类 |
org.apache.lucene.store |
store包中是索引的存储相关类,如Directory类定义了索引文件的存储结构,FSDirectory是存储在文件系统(即磁盘)中的索引存储类,RAMDirectory为存储在内存中的索引存储类 |
org.apache.lucene.util |
util包中是公共工具类,例如时间和字符串之间的转换工具 |
2 Director
索引操作目录
FSDirectory :磁盘路径,在磁盘中创建文件索引库
RAMDirectory:内存路径,指在内存中创建文件索引库
//当前工程index目录,相对路径 FSDirectory.open(new //绝对路径 FSDirectory.open(new //在类路径下创建 FSDirectory.open(new //内存路径 RAMDirectory |
3
分词器(主要要完全搜索的不要分词,比如当查询书的书号时不分词)
Analyzer 分词器
new StandardAnalyzer(Version.LUCENE_36); //建立标准分词器,对于汉子采用单自分词
4
Document索引中文对象,Field文档内部数据信息
每个数据对象,对应一个Document对象
对应一个属性,对应一个Field对象
newField(fieldname,value,Store,Index);
将数据建立索引库Field,Store决定是否存储,Index决定是否索引分词
Store.YES 存储 、Store.NO 不存储 Index.NO Index.ANALYZED Index.NOT_ANALYZED Index.ANALYZED_NO_NORMS Index.NOT_ANALYZED_NO_NORMS |
Document document = new Document(); document.add(new Index.NOT_ANALYZED));//对于id通常不分词的 document.add(newField("title",article.getTitle(),Store.YES,Index.ANALYZED)); document.add(new |
@Test // public // String queryString = "Lucene"; // // // Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_36); QueryParser queryParser = new QueryParser(Version.LUCENE_36, analyzer); Query query = queryParser.parse(queryString); // // Directory directory = FSDirectory.open(new IndexSearcher indexSearcher = new IndexSearcher( IndexReader.open(directory)); // TopDocs topDocs = indexSearcher.search(query, 100); System.out.println("满足结果记录条数:" // ScoreDoc[] scoreDocs = topDocs.scoreDocs; for (int // int docID = scoreDocs[i].doc; Document document = indexSearcher.doc(docID); System.out.println("得分:" System.out.println("id:" System.out.println("title:" System.out.println("content:" } indexSearcher.close(); } |
运行结果: |
是否分词, 根据业务查找条件决定 是否存储, norm是按照词频计算的 问题:Index.ANALYZED 和 Index.ANALYZED_NO_NORMS 区别 Index.ANALYZED 会保存权重信息 Index.ANALYZED_NO_NORMS 不会保存权重信息 权重会影响得分,得分计算排名, * * norm index.ANALYZED_NO_NORMS |
4
索引创建过程
分词器Analyzer
目录Directory
进入索引写入,必须使用IndexWriter,但是在初始化IndexWriter过程中,对目标索引库加锁。
当试图对一个索引库创建多个IndexWriter时,报异常
org.apache.lucene.util.SetOnce$AlreadySetException:The object cannot be set twice!
*使用同一 indexWriterConfig
两次
org.apache.lucene.store.LockObtainFailedException:Lock obtain timed out:[email protected]:\work\javaee20130408\lucene3_day1\index\write.lock
*试图创建第二个IndexWriter
,第一个IndexWriter
还没有关闭,锁文件还在
问题:如果两个线程同时对一个索引库操作怎么办?---解决办法:只能使用同一个IndexWriter对象