基于lucene.net 和ICTCLAS2014的站内搜索的实现2

分词系统建立完毕,这是基础也是核心,后面我们建立索引要用到分词系统。

下面依次讲解索引的建立,索引的查找。

分词系统建立完毕,这是基础也是核心,后面我们建立索引要用到分词系统。下面依次讲解索引的建立,索引的查找。

索引的建立采用的是倒排序,原理就是遍历所有的文本,对其进行分词,然后把分的词汇建立索引表。形式类似如下:

词汇          出现词汇的篇章1,篇章2,篇章3……

建立索引的时候要注意这样的Document,Field这俩术语。Document代表的是一个文档,它里面包含一个或者多个Filed,Field表示的就是一种域,你可以在一个Document里面添加各种各样的域,名字自己起,但是关于文档的内容一定要加进去,方式如下所示:

doc.Add(new
Field("contents", str,
Field.Store.YES,
Field.Index.ANALYZED,Field.TermVector.WITH_POSITIONS_OFFSETS));

整个索引的建立如下所示:

using System;
using System.Collections.Generic;
using System.Linq;
using System.Web;
using System.IO;
using Lucene.Net.Analysis;
using Lucene.Net.Analysis.Standard;
using Lucene.Net.Index;
using Lucene.Net.Documents;
using Lucene.Net.Search;
using Lucene.Net.Analysis.DChinese;

using Version = Lucene.Net.Util.Version;
using FSDirectory = Lucene.Net.Store.FSDirectory;
using NativeFSLockFactory = Lucene.Net.Store.NativeFSLockFactory;

namespace WebApplication6
{
    public class IndexFiles
    {

        public static bool CreateIndexFromFile(DirectoryInfo docDir, DirectoryInfo IndexDir)
        {
            string strUserDicPath = System.AppDomain.CurrentDomain.BaseDirectory;
            string strTestDic = strUserDicPath;
            HashSet<string> lstStopWords = new HashSet<string>();

            strUserDicPath = strUserDicPath + "UserDictionary\\StopWords.txt";
            string[] strs = null;

            StreamWriter sw = new StreamWriter(strTestDic + "UserDictionary\\StopTest.txt");
            using (StreamReader strReader = new StreamReader(strUserDicPath))
            {
                string strLine;
                while ((strLine = strReader.ReadLine()) != null)
                {
                    strLine = strLine.Trim();
                    strs = strLine.Split();
                    foreach (string str in strs)
                    {
                        lstStopWords.Add(str);
                        sw.WriteLine(str);

                    }
                }
                strReader.Close();
                sw.Close();
            }

            bool bExist = File.Exists(docDir.FullName) || Directory.Exists(docDir.FullName);
            if (!bExist)
            {
                return false;
            }

            //using (IndexWriter writer = new IndexWriter(FSDirectory.Open(IndexDir), new DChineseAnalyzer(Version.LUCENE_30), true, IndexWriter.MaxFieldLength.LIMITED) )
            //IndexWriter writer = new IndexWriter(fsDirrctory, new StandardAnalyzer(Version.LUCENE_30), true, IndexWriter.MaxFieldLength.LIMITED);

            FSDirectory fsDirrctory = FSDirectory.Open(IndexDir, new NativeFSLockFactory());
            Analyzer analyzer = new DChineseAnalyzer(Version.LUCENE_30,lstStopWords);
            IndexWriter writer = new IndexWriter(fsDirrctory, analyzer, true, IndexWriter.MaxFieldLength.LIMITED);
            try
            {
                IndexDirectory(writer, docDir);
                writer.Optimize();
                writer.Commit();
            }
            finally
            {
                writer.Dispose();
                fsDirrctory.Dispose();
            }

            return true;
        }

        internal static void IndexDirectory(IndexWriter writer, DirectoryInfo directory)
        {
            foreach (var subDirectory in directory.GetDirectories())
                IndexDirectory(writer, subDirectory);

            foreach (var file in directory.GetFiles())
                IndexDocs(writer, file);
        }

        internal static void IndexDocs(IndexWriter writer, FileInfo file)
        {
            Console.Out.WriteLine("adding " + file);

            try
            {
                writer.AddDocument(Document(file));
            }
            catch (FileNotFoundException)
            {
                // At least on Windows, some temporary files raise this exception with an
                // "access denied" message checking if the file can be read doesn't help.
            }
            catch (UnauthorizedAccessException)
            {
                // Handle any access-denied errors that occur while reading the file.
            }
            catch (IOException)
            {
                // Generic handler for any io-related exceptions that occur.
            }
        }

        public static Document Document(FileInfo f)
        {

            // make a new, empty document
            Document doc = new Document();

            // Add the path of the file as a field named "path".  Use a field that is
            // indexed (i.e. searchable), but don't tokenize the field into words.
            doc.Add(new Field("path", f.FullName, Field.Store.YES, Field.Index.NOT_ANALYZED));

            // Add the last modified date of the file a field named "modified".  Use
            // a field that is indexed (i.e. searchable), but don't tokenize the field
            // into words.
            doc.Add(new Field("modified", DateTools.TimeToString(f.LastWriteTime.Millisecond, DateTools.Resolution.MINUTE), Field.Store.YES, Field.Index.NOT_ANALYZED));

            // Add the contents of the file to a field named "contents".  Specify a Reader,
            // so that the text of the file is tokenized and indexed, but not stored.
            // Note that FileReader expects the file to be in the system's default encoding.
            // If that's not the case searching for special characters will fail.

            string str = File.ReadAllText(f.FullName);
            //doc.Add(new Field("contents", new StreamReader(f.FullName, System.Text.Encoding.UTF8)));
            doc.Add(new Field("contents", str, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS));

            // return the document
            return doc;
        }
    }
}

查找的实现:

Lucene.net中有多种多样的查找类,但是如果要实现多条件查询就要使用PhraseQuery

类。通过搜索函数把搜索结果放到容器里面。

最后结果的呈现时候,我们把搜索结果放到列表里面,如果还要显示关键词加亮,那么就需要做一点额外的工作。在这里我是通过ColorWord这个类实现的。具体的搜索代码如下所示:

using System;
using System.Collections.Generic;
using System.Linq;
using System.Web;
using System.IO;
using Lucene.Net.Analysis;
using Lucene.Net.Analysis.DChinese;
using Lucene.Net.Documents;
using Lucene.Net.QueryParsers;
using Lucene.Net.Index;
using Lucene.Net.Search;

using FSDirectory = Lucene.Net.Store.FSDirectory;
using NoLockFactory = Lucene.Net.Store.NoLockFactory;
using Version = Lucene.Net.Util.Version;

namespace WebApplication6
{
    public static class SearchFiles
    {
        public static List<ItemList> SearchIndex(DirectoryInfo dirIndex, List<string> termList)
        {
            FSDirectory     dirFS    = FSDirectory.Open(dirIndex, new NoLockFactory());
            IndexReader     reader   = IndexReader.Open(dirFS,true);
            IndexSearcher   searcher = new IndexSearcher(reader);
            Analyzer        analyzer = new DChineseAnalyzer(Version.LUCENE_30);
            PhraseQuery     query    = new PhraseQuery();

            foreach (string word in termList)
            {
                query.Add( new Term("contents",word) );
            }
            query.Slop = 100;

            TopScoreDocCollector collector = TopScoreDocCollector.Create(1000, true);
            searcher.Search(query,collector);
            ScoreDoc[] hits = collector.TopDocs().ScoreDocs;
            List<ItemList> lstResult = new List<ItemList>();
            for (int i = 0; i < hits.Length; i++)
            {
                Document doc = new Document();
                doc = searcher.Doc(hits[i].Doc);
                ItemList item = new ItemList();
                //item.ItemContent = doc.Get("contents");
                item.ItemContent = ColorWord.addColor(doc.Get("contents"),termList);
                item.ItemPath = doc.Get("path");
                lstResult.Add(item);
            }
            return lstResult;
        }
    }
}

最终的效果展示如下所示:

最终的代码下载地址:下载

基于lucene.net 和ICTCLAS2014的站内搜索的实现2,布布扣,bubuko.com

时间: 2024-10-19 21:08:26

基于lucene.net 和ICTCLAS2014的站内搜索的实现2的相关文章

基于lucene.net 和ICTCLAS2014的站内搜索的实现1

Lucene.net是一个搜索引擎的框架,它自身并不能实现搜索,需要我们自己在其中实现索引的建立,索引的查找.所有这些都是根据它自身提供的API来实现.Lucene.net本身是基于java的,但是经过翻译成.ne版本的,可以在ASP.net中使用这个来实现站内搜索. 要实现基于汉语的搜索引擎,首先的要实现汉语的分词.目前网上大部分都是利用已经有的盘古分词来实现的分词系统,但是盘古分词效果不太好.在这里我把最新的ICTCLAS2014嵌入到Lucene.net中.Lucene.net中所有的分词

Lucene.Net 站内搜索

Lucene.Net 站内搜索 一  全文检索: like查询是全表扫描(为性能杀手)Lucene.Net搜索引擎,开源,而sql搜索引擎是收费的Lucene.Net只是一个全文检索开发包(只是帮我们存数据取数据,并没有界面,可以看作一个数据库,只能对文本信息进行检索)Lucene.Net原理:把文本切词保存,然后根据词汇表的页来找到文章 二  分词算法: //一元分词算法(引用Lucene.Net.dll)  一元分词算法 //二元分词算法(CJK:China Japan Korean 需要再

使用Lucene.NET实现站内搜索

使用Lucene.NET实现站内搜索 导入Lucene.NET 开发包 Lucene 是apache软件基金会一个开放源代码的全文检索引擎工具包,是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎.Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎.Lucene.Net 是 .NET 版的Lucene. 你可以在这里下载到最新的Lucene.NET 创建索引.更新索引.删除索引 搜索

Lucene.net站内搜索1——SEO优化简介

声明:在这里,所谈的一切关于SEO的技术主要针对于我们开发人员. SEO (搜索引擎优化) SEO(搜索引擎优化)的目的(很多人都是通过搜索引擎找到我们的网站)是让搜索引擎更多的收录网站的页面,让被收录页面的权重更靠前,让更多的人能够通过搜索引擎进入这个网站 原理:蜘蛛会定时抓取网站的内容,发现网站内容变化.发现新增内容就反映到搜索引擎中 蜘蛛(spider) 爬网站:就是向网站发http get请求的客户端. SEO(搜索引擎优化*):让网站排名靠前,让网站更多的页面被搜索引擎收录.链接(外链

一步步开发自己的博客 .NET版(5、Lucenne.Net 和 必应站内搜索)

前言 这次开发的博客主要功能或特点:    第一:可以兼容各终端,特别是手机端.    第二:到时会用到大量html5,炫啊.    第三:导入博客园的精华文章,并做分类.(不要封我)    第四:做个插件,任何网站上的技术文章都可以转发收藏 到本博客. 所以打算写个系类:<一步步搭建自己的博客> 一步步开发自己的博客  .NET版(1.页面布局.blog迁移.数据加载) 一步步开发自己的博客  .NET版(2.评论功能) 一步步开发自己的博客  .NET版(3.注册登录功能) 一步步开发自己

B2C商城关键技术点总结(站内搜索、定时任务)

1.站内搜索 1.1Lucene.Net建立信息索引 1 string indexPath = @"E:\xxx\xxx";//索引保存路径 2 FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory()); 3 bool isUpdate = IndexReader.IndexExists(directory); 4 if (isUpdate) 5 {

利用Solr服务建立的界面化站内搜索---solr2

继上次匆匆搭建起结合solr和nutch的所谓站内搜索引擎之后,虽当时心中兴奋不已,可是看了看百度,再只能看看我的控制台的打印出每个索引项的几行文字,哦,好像差距还是有点大…… 简陋的信息显示环境最起码给了我一个信号,这条路没有走错,好吧,让我们来继续探索搜索引擎的奥秘吧. 上期回顾:上次主要是介绍了solrj,通过solrj的api与solr服务器进行通信,获取服务器上的索引数据以及在编写程序中遇到的一些问题和解决方法.本期主要是建立与solr服务器的通信,提供搜索界面输入关键字或搜索规则,根

使用swiftype实现站内搜索

本人博客opiece.me,欢迎访问. 前言 首先,以下的内容是基于最新的swifytpe的教程,应该是2.0.0. 站内搜索顾名思义就是将范围限定在你的网站内,以此范围进行关键字搜索. 常见的站内搜索是google和baidu的,但是现在google需要翻墙,因此不予考虑,所以主要考虑百度的,我自己试过百度的站内搜索,感觉不是很好用,主要是新博客,收录的内容很少速度很慢.后来找到了一款名为swiftype的工具,感觉还不错,就使用了swiftype进行站内搜索. 效果图 首先,看一下swift

利用Solr服务建立的站内搜索雏形

最近看完nutch后总感觉像好好捯饬下solr,上次看到老大给我展现了下站内搜索我便久久不能忘怀.总觉着之前搭建的nutch配上solr还是有点呆板,在nutch爬取的时候就建立索引到solr服务下,然后在solr的管理界面中选择query,比如在q选项框中将"*:*"改写为"title:安徽",则在管理界面中就能看到搜索结果,可是这个与搜索引擎的感觉差远了,总感觉这些结果是被solr给套在他的管理界面中了,于是自己在网上搜索,也想整个站内搜索一样的东西,就算整不到