IK分词器安装

简介:

一、下载zip包。

下面有附件链接【ik-安装包.zip】,下载即可。

二、上传zip包。

下载后解压缩,如下图。

打开修改修改好后打成zip包。

# ‘elasticsearch.version‘ version of elasticsearch compiled against# You will have to release a new version of the plugin for each new# elasticsearch release. This version is checked when the plugin# is loaded so Elasticsearch will refuse to start in the presence of# plugins with the incorrect elasticsearch.version.#把这个版本号改成你对应的版本即可,如你的版本是2.2.0,就改成2.2.0elasticsearch.version=2.0.0
/elasticsearch-2.0.0/plugins

在plugins/目录下上传,并且解压缩。此处注意目录结构必须是这样,如下图:

三、启动测试

呃,我们发现报错了。

[[email protected] elasticsearch-2.0.0]$ ./bin/elasticsearch[2016-03-01 10:32:02,958][INFO ][node                     ] [Landslide] version[2.0.0], pid[11109], build[de54438/2015-10-22T08:09:48Z][2016-03-01 10:32:02,959][INFO ][node                     ] [Landslide] initializing ...Exception in thread "main" java.lang.IllegalStateException: Unable to initialize pluginsLikely root cause: java.nio.file.FileSystemException: /home/elasticsearch/es/elasticsearch-2.0.0/plugins/ik.zip/plugin-descriptor.properties: Not a directory        at sun.nio.fs.UnixException.translateToIOException(UnixException.java:91)        at sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:102)        at sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:107)        at sun.nio.fs.UnixFileSystemProvider.newByteChannel(UnixFileSystemProvider.java:214)        at java.nio.file.Files.newByteChannel(Files.java:317)        at java.nio.file.Files.newByteChannel(Files.java:363)        at java.nio.file.spi.FileSystemProvider.newInputStream(FileSystemProvider.java:380)        at java.nio.file.Files.newInputStream(Files.java:108)        at org.elasticsearch.plugins.PluginInfo.readFromProperties(PluginInfo.java:86)        at org.elasticsearch.plugins.PluginsService.getPluginBundles(PluginsService.java:306)        at org.elasticsearch.plugins.PluginsService.(PluginsService.java:112)        at org.elasticsearch.node.Node.(Node.java:144)        at org.elasticsearch.node.NodeBuilder.build(NodeBuilder.java:145)        at org.elasticsearch.bootstrap.Bootstrap.setup(Bootstrap.java:170)        at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:270)        at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:35)

一看我们就知道,他去找plugins/ik.zip 下的配置文件对吧。

解决方案是把这个ZIP包删除即可。

删除后再次启动。

[[email protected] elasticsearch-2.0.0]$ ./bin/elasticsearch[2016-03-01 10:32:02,958][INFO ][node                     ] [Landslide] version[2.0.0], pid[11109], build[de54438/2015-10-22T08:09:48Z][2016-03-01 10:32:02,959][INFO ][node                     ] [Landslide] initializing ...Exception in thread "main" java.lang.IllegalStateException: Unable to initialize pluginsLikely root cause: java.nio.file.FileSystemException: /home/elasticsearch/es/elasticsearch-2.0.0/plugins/ik.zip/plugin-descriptor.properties: Not a directory        at sun.nio.fs.UnixException.translateToIOException(UnixException.java:91)        at sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:102)        at sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:107)        at sun.nio.fs.UnixFileSystemProvider.newByteChannel(UnixFileSystemProvider.java:214)        at java.nio.file.Files.newByteChannel(Files.java:317)        at java.nio.file.Files.newByteChannel(Files.java:363)        at java.nio.file.spi.FileSystemProvider.newInputStream(FileSystemProvider.java:380)        at java.nio.file.Files.newInputStream(Files.java:108)        at org.elasticsearch.plugins.PluginInfo.readFromProperties(PluginInfo.java:86)        at org.elasticsearch.plugins.PluginsService.getPluginBundles(PluginsService.java:306)        at org.elasticsearch.plugins.PluginsService.(PluginsService.java:112)        at org.elasticsearch.node.Node.(Node.java:144)        at org.elasticsearch.node.NodeBuilder.build(NodeBuilder.java:145)        at org.elasticsearch.bootstrap.Bootstrap.setup(Bootstrap.java:170)        at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:270)        at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:35)

我们从启动就看的出来,IK分词器安装成功。

[2016-03-01 10:34:28,803][INFO ][plugins                  ] [Big Wheel] loaded [analysis-ik], sites [head]

测试:

http://123.57.163.79:9200/_analyze?analyzer=ik&pretty=true&text=sojson在线工具真好用
{  "tokens" : [ {    "token" : "sojson",    "start_offset" : 0,    "end_offset" : 6,    "type" : "ENGLISH",    "position" : 0  }, {    "token" : "在线",    "start_offset" : 6,    "end_offset" : 8,    "type" : "CN_WORD",    "position" : 1  }, {    "token" : "工具",    "start_offset" : 8,    "end_offset" : 10,    "type" : "CN_WORD",    "position" : 2  }, {    "token" : "真好",    "start_offset" : 10,    "end_offset" : 12,    "type" : "CN_WORD",    "position" : 3  }, {    "token" : "好用",    "start_offset" : 11,    "end_offset" : 13,    "type" : "CN_WORD",    "position" : 4  } ]}

得出Over 。

分词器下载地址:http://down.51cto.com/data/2323000

时间: 2024-10-14 09:16:42

IK分词器安装的相关文章

Elasticsearch5.1.1+ik分词器安装小记

一.安装elasticsearch 1.首先需要安装好java,并配置好环境变量,详细教程请看 http://tecadmin.net/install-java-8-on-centos-rhel-and-fedora/# 2.安装ElasticSearch,下载rpm包: wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.1.1.rpm rpm -ivh elasticsearch-5.1.1.rp

elasticsearch入门 (三 ik 分词器安装)

ik git 地址 https://github.com/medcl/elasticsearch-analysis-ik readme 包含各个版本ik对应的 es 版本 下载对应的ikzip包 命令如下 https://github.com/medcl/elasticsearch-analysis-ik/archive/v1.5.0.zip 解压后 执行maven打包命令(默认系统已经安装maven) mvn package 编译成功后进入target下有一个编译好的elasticsearch

elasticsearch ik分词器安装

1.下载? ? 官方网站?https://github.com/medcl/elasticsearch-analysis-ik, 告诉你,可以下载源码,然后自己去编译,这样比较麻烦,可以直接它的版本库中下载编译好的历史版本 https://github.com/medcl/elasticsearch-analysis-ik/releases? 注意要下载编译好的包,而不是源码包 ? 例如得到包?elasticsearch-analysis-ik-1.9.5.zip 进入elasticsearch

docker之es+es-head+kibana+ik分词器安装

一.es 第一步:搜索docker search elasticsearch第二步:下载镜像第三步:创建数据文件夹和配置文件宿主服务器创建文件夹mkdir -p /docker/es1/datavim /docker/es1/es.yml输入配置内容:http.host: 0.0.0.0#集群名称 所有节点要相同cluster.name: "es01"##本节点名称node.name: master##作为master节点node.master: true##是否存储数据node.da

Elasticsearch入门之从零开始安装ik分词器

起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷.我们来看个实例: POST http://192.168.80.133:9200/my_index_name/my_type_name/_search { "size": 0, "query" : { "range" : { "time": { "

elasticsearch安装ik分词器(极速版)

简介:下面讲有我已经打包并且编辑过的zip包,你可以在下面下载即可. 1.下载zip包.elasticsearch-analysis-ik-1.8.0.jar下面有附件链接[ik-安装包.zip],下载即可.(内有做好的elasticsearch-analysis-ik-1.8.0.jar) 2.上传zip包.下载ik.zip文件后解压缩,如下图. 修改plugin-descriptor.properties文件,将elasticsearch.version=2.2.0改成自己的elastics

如何开发自己的搜索帝国之安装ik分词器

 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,我是中国人 不能简单的分成一个个字,我们更希望 “中国人”,“中国”,“我”这样的分词,这样我们就需要安装中文分词插件,ik就是实现这个功能的. elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 现在开始安装ik分词器,安装之前,先说明一些变化: 之前可以在node节点上配置index默认的分词器,如果是多节点,那么在每个节点上都配置就行了.这个有点不灵活,

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一.

在这里一下讲解着三个的安装和配置, 是因为solr需要使用tomcat和IK分词器, 这里会通过图文教程的形式来详解它们的安装和使用.注: 本文属于原创文章, 如若转载,请注明出处, 谢谢.关于设置IK分词器的文章 IK分词器: http://www.cnblogs.com/wang-meng/p/5814798.html 1, 解压tar文件首先我们在根目录下建立一个solr目录(使用命令: mkdir /solr):  然后查看目录是否生成成功:  解压solr/tomcat/IK 到sol

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例二.

为了更好的排版, 所以将IK分词器的安装重启了一篇博文,  大家可以接上solr的安装一同查看.[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一: http://www.cnblogs.com/wang-meng/p/5814798.html 8, 打开浏览器查看solr可视化界面 到了这里solr就配置好了, 可是我们的IK 分词器还没有配置呢, 如果不配IK分词器的话 它是怎样分词的呢? 我们就来先看一下:  每个字都分成了一个词, 这当然不是我们想要的结果