Elasticsearch5.1.1+ik分词器安装小记

一、安装elasticsearch

1.首先需要安装好java,并配置好环境变量,详细教程请看

http://tecadmin.net/install-java-8-on-centos-rhel-and-fedora/#

2.安装ElasticSearch,下载rpm包:

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.1.1.rpm

rpm -ivh elasticsearch-5.1.1.rpm

3.修改elasticsearch的配置文件:

 vi /etc/elasticsearch/elasticsearch.yml

修改其中的network.host为本机ip,http.port为9200

4.安装成功后,启动elasticsearch:

systemctl daemon-reload 
    systemctl enable elasticsearch.service (设置开机自启动)
    systemctl start elasticsearch.service (开启服务) 
    systemctl status elasticsearch.service (查看服务状态)

检查是否成功:curl http://*****:9200

二、安装ik分词器

1、进入https://github.com/medcl/elasticsearch-analysis-ik/,找到ik分词器对应的版本为5.1.1,直接下载其release的版本(避免maven打包);

2、在/usr/share/elasticsearch/plugins下建立ik目录:

mkdir /usr/share/elasticsearch/plugins/ik

3、复制文件至elasticsearch的plugins文件夹的ik文件夹下:

cp  elasticsearch-analysis-ik-5.1.1.zip  /usr/share/elasticsearch/plugins/ik

4.解压文件:

unzip elasticsearch-analysis-ik-5.1.1.zip

时间: 2024-10-09 22:55:45

Elasticsearch5.1.1+ik分词器安装小记的相关文章

IK分词器安装

简介: 当前讲解的IK分词器 包的 version 为1.8. 一.下载zip包. 下面有附件链接[ik-安装包.zip],下载即可. 二.上传zip包. 下载后解压缩,如下图. 打开修改修改好后打成zip包. # 'elasticsearch.version' version of elasticsearch compiled against# You will have to release a new version of the plugin for each new# elastics

elasticsearch入门 (三 ik 分词器安装)

ik git 地址 https://github.com/medcl/elasticsearch-analysis-ik readme 包含各个版本ik对应的 es 版本 下载对应的ikzip包 命令如下 https://github.com/medcl/elasticsearch-analysis-ik/archive/v1.5.0.zip 解压后 执行maven打包命令(默认系统已经安装maven) mvn package 编译成功后进入target下有一个编译好的elasticsearch

elasticsearch ik分词器安装

1.下载? ? 官方网站?https://github.com/medcl/elasticsearch-analysis-ik, 告诉你,可以下载源码,然后自己去编译,这样比较麻烦,可以直接它的版本库中下载编译好的历史版本 https://github.com/medcl/elasticsearch-analysis-ik/releases? 注意要下载编译好的包,而不是源码包 ? 例如得到包?elasticsearch-analysis-ik-1.9.5.zip 进入elasticsearch

docker之es+es-head+kibana+ik分词器安装

一.es 第一步:搜索docker search elasticsearch第二步:下载镜像第三步:创建数据文件夹和配置文件宿主服务器创建文件夹mkdir -p /docker/es1/datavim /docker/es1/es.yml输入配置内容:http.host: 0.0.0.0#集群名称 所有节点要相同cluster.name: "es01"##本节点名称node.name: master##作为master节点node.master: true##是否存储数据node.da

Elasticsearch入门之从零开始安装ik分词器

起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷.我们来看个实例: POST http://192.168.80.133:9200/my_index_name/my_type_name/_search { "size": 0, "query" : { "range" : { "time": { "

elasticsearch安装ik分词器(极速版)

简介:下面讲有我已经打包并且编辑过的zip包,你可以在下面下载即可. 1.下载zip包.elasticsearch-analysis-ik-1.8.0.jar下面有附件链接[ik-安装包.zip],下载即可.(内有做好的elasticsearch-analysis-ik-1.8.0.jar) 2.上传zip包.下载ik.zip文件后解压缩,如下图. 修改plugin-descriptor.properties文件,将elasticsearch.version=2.2.0改成自己的elastics

如何开发自己的搜索帝国之安装ik分词器

 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,我是中国人 不能简单的分成一个个字,我们更希望 “中国人”,“中国”,“我”这样的分词,这样我们就需要安装中文分词插件,ik就是实现这个功能的. elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 现在开始安装ik分词器,安装之前,先说明一些变化: 之前可以在node节点上配置index默认的分词器,如果是多节点,那么在每个节点上都配置就行了.这个有点不灵活,

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一.

在这里一下讲解着三个的安装和配置, 是因为solr需要使用tomcat和IK分词器, 这里会通过图文教程的形式来详解它们的安装和使用.注: 本文属于原创文章, 如若转载,请注明出处, 谢谢.关于设置IK分词器的文章 IK分词器: http://www.cnblogs.com/wang-meng/p/5814798.html 1, 解压tar文件首先我们在根目录下建立一个solr目录(使用命令: mkdir /solr):  然后查看目录是否生成成功:  解压solr/tomcat/IK 到sol

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例二.

为了更好的排版, 所以将IK分词器的安装重启了一篇博文,  大家可以接上solr的安装一同查看.[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一: http://www.cnblogs.com/wang-meng/p/5814798.html 8, 打开浏览器查看solr可视化界面 到了这里solr就配置好了, 可是我们的IK 分词器还没有配置呢, 如果不配IK分词器的话 它是怎样分词的呢? 我们就来先看一下:  每个字都分成了一个词, 这当然不是我们想要的结果