Elasticsearch安装IK中文分词插件

一,从github上下载最新的Ik分词源码到本地

git clone https://github.com/medcl/elasticsearch-analysis-ik

clone到本地后,将elasticsearch-analysis-ik目录中的 config/ik/ 整个目录拷贝到Elasticsearch安装目录的config目录下。

二,将elasticsearch-analysis-ik目录下的config中的elasticsearch.yml文件覆盖Elasticsearch安装目录下的config目录中的elasticsearch.yml文件。

三,进入到刚clone的elasticsearch-analysis-ik目录中,执行maven命令打包:

mvn clean package

如果没有安装maven工具的话,需要先安装一下maven工具,具体的安装参考 官网的具体安装步骤。

执行上述命令之后,IK的分词包已经准备好了,下面就开始安装了。

四, 运行Elasticsearch安装路径下的bin目录中的plugin命令安装刚刚编译好的分词包:

plugin —install analysis-ik —url file:///#{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-1.4.0.zip

这样IK中文分词就安装好了。

时间: 2024-08-27 13:29:54

Elasticsearch安装IK中文分词插件的相关文章

es5.4安装head、ik中文分词插件

安装maven打包工具 wget http://mirror.bit.edu.cn/apache/maven/maven-3/3.3.9/binaries/apache-maven-3.3.9-bin.tar.gz tar -xf apache-maven-3.3.9-bin.tar.gz mv apache-maven-3.3.9 /usr/local/data/apache-maven vim /etc/profile export MAVEN_HOME=/usr/local/data/ap

在ElasticSearch中使用 IK 中文分词插件

我这里集成好了一个自带IK的版本,下载即用, https://github.com/xlb378917466/elasticsearch5.2.include_IK 添加了IK插件意味着你可以使用ik_smart(最粗粒度的拆分)和ik_max_word(最细粒度的拆分)两种analyzer. 你也可以从下面这个地址获取最新的IK源码,自己集成, https://github.com/medcl/elasticsearch-analysis-ik, 里面还提供了使用说明,可以很快上手. 一般使用

ElasticSearch使用IK中文分词---安装步骤记录

提示:必须保证之前的ES中不存在index, 否则ES集群无法启动, 会提示red! 1.下载IK字典配置文件 http://download.csdn.net/detail/xxx0624/8464751 然后解压该文件(可以得到一个ik文件夹)并把它放到ES的config文件夹下. 2.下载 ik.jar http://download.csdn.net/detail/xxx0624/8464743 下载后直接放到lib文件夹中 3.修改elasticsearch.yml(config文件夹

30.IK中文分词器的安装和简单使用

在之前我们学的都是英文,用的也是英文的standard分词器.从这一节开始,学习中文分词器.中国人基本上都是中文应用,很少是英文的,而standard分词器是没有办法对中文进行合理分词的,只是将每个中文字符一个一个的切割开来,比如说中国人 --> 中 国 人 在中方搜索引擎领域,比较成熟和流行的,就是ik分词器. 一.在elasticsearch中安装ik中文分词器 (1)git clone https://github.com/medcl/elasticsearch-analysis-ik (

Elasticsearch安装中文分词插件ik

Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词.例如: curl -XPOST "http://localhost:9200/userinfo/_analyze?analyzer=standard&pretty=true&text=我是中国人" 我们会得到这样的结果: { tokens: [ { token: text start_offset: 2 end_offset: 6 type: <ALPHANUM>

Elasticsearch 中文分词插件 jcseg 安装 (Ubuntu 14.04 下)

搜索可以说是开发中很常见的场景了,同样这次也一样... 之前的组合多数是选择 Mysql + Sphinx ,这次因为工作原因不再使用这种组合,虽然是老牌组合,但是确实限制诸多,而且每次配环境也是个问题,挺烦的...这次就尝试使用 Elasticsearch + Jcseg ,因为在文档检索方面 elasticsearch 做的相当不错,但是对中文环境来说就差一个很好的中文分词器,还好,国内好的中文分词器也有蛮多,但是我个人还是比较推荐 Jcseg . 好了,废话不多扯. 版本说明: elast

ES1.4 中文分词插件ik

ES 官方只支持smartcn这个中文分词插件,是按照单个字进行索引.前端产品搜索时,凡是带这个关键字的都会被索引到.打个比方:搜索"苹果"关键词,凡是包含"苹"和"果"的title都会被索引到.所以为了这个需求,找一个第三方的中文分词插件.看了一下,国内有几款中分分词插件:ik.ansj和mmseg.最后我选择使用了ik. ES1.4 下安装ik,碰到了不少坑.最后终于搞定,所以分享一下ik的安装步骤. 1. 下载es源代码,然后进行编译,将相

Centos7 Elasticsearch+IK中文分词+Kibana

一.关于elasticsearch.ik.kibana安装包的下载: 1.ik中文分词的下载地址为:https://github.com/medcl/elasticsearch-analysis-ik/releases 查看和下载对应的ik版本 2.elasticsearch.kibana安装包的而下载地址: https://www.elastic.co/downloads/past-releases 下载与ik对应版本的elasticsearch.kibana 二.安装和配置elasticse

ElasticSearch速学 - IK中文分词器远程字典设置

前面已经对"IK中文分词器"有了简单的了解:  但是可以发现不是对所有的词都能很好的区分,比如:  逼格这个词就没有分出来. 词库 实际上IK分词器也是根据一些词库来进行分词的,我们可以丰富这个词库. IK分词器(IK Analysis for Elasticsearch)给了我们一个基本的配置: https://github.com/medcl/elasticsearch-analysis-ik  修改我们es实例中ik插件的配置: cd elasticsearch-5.3.0/pl