Windows上安装ElasticSearch7的IK分词器

首先IK分词器和ES版本一定要严格对应,下面是版本对照表

IK分词器下载地址

https://github.com/medcl/elasticsearch-analysis-ik/releases

我安装的是ES7.3.2(Windows上安装ElasticSearch7),所以下载IK分词器V7.3.2

在Windows上安装,所以下载.zip

下载完后解压:

在ES安装目录下的plugins文件夹下创建analysis-ik文件夹

将elasticsearch-analysis-ik-7.3.2文件夹下的所有文件

拷贝到analysis-ik文件夹下

转到es安装目录下双击elasticsearch.bat启动es

说明已加载IK分词器

现在支持ik_smart与ik_max_word两种分词

在elasticsearch-head上查看分词效果

Ik_smart分词效果如下

Ik_max_word分词效果

说明ik_max_word分词比ik_smart分词粒度更细

原文地址:https://www.cnblogs.com/java-spring/p/11766450.html

时间: 2024-07-31 07:54:48

Windows上安装ElasticSearch7的IK分词器的相关文章

【Docker系列】认识ELK,docker安装ELK和IK分词器

1.ELK简介 ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件.新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具. Elasticsearch是个开源分布式搜索引擎,提供搜集.分析.存储数据三大功能.它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据

Windows上安装ElasticSearch7

安装JDK1.8(包括)以上版本 安装ElasticSearch ElasticSearch下载地址: https://www.elastic.co/downloads/elasticsearch 双击elasticsearch.bat http://localhost:9200 以windows服务启动 elasticsearch-service.bat install 查看任务管理器,找到elastcisearch右击选中开始,就能把服务启动了 安装Grunt 下载NodeJS 下载地址:

Docker容器中的Elasticsearch中离线安装IK分词器

Elasticsearch自带的分词器对中文分词不是很友好,所以我们下载开源的IK分词器来解决这个问题.首先进入到plugins目录中下载分词器,下载完成后然后解压,再重启es即可.具体步骤如下: 注意:elasticsearch的版本和ik分词器的版本需要保持一致,不然在重启的时候会失败.可以在这查看所有版本,选择合适自己版本的右键复制链接地址即可.在该链接中找到符合自己版本的:https://github.com/medcl/elasticsearch-analysis-ik/release

ElasticSearch、IK分词器、Head Master安装-----Windows

ElasticSearch安装运行前提条件:配置好Jdk Head-Master运行前提条件:node 一.下载 地址:https://www.elastic.co/cn/downloads/elasticsearch 历史版本:找到下面这句话 然后双击 Not the version you're looking for? View past releases. 二.IK分词器下载 地址:https://github.com/medcl/elasticsearch-analysis-ik/re

如何开发自己的搜索帝国之安装ik分词器

 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,我是中国人 不能简单的分成一个个字,我们更希望 “中国人”,“中国”,“我”这样的分词,这样我们就需要安装中文分词插件,ik就是实现这个功能的. elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 现在开始安装ik分词器,安装之前,先说明一些变化: 之前可以在node节点上配置index默认的分词器,如果是多节点,那么在每个节点上都配置就行了.这个有点不灵活,

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例二.

为了更好的排版, 所以将IK分词器的安装重启了一篇博文,  大家可以接上solr的安装一同查看.[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一: http://www.cnblogs.com/wang-meng/p/5814798.html 8, 打开浏览器查看solr可视化界面 到了这里solr就配置好了, 可是我们的IK 分词器还没有配置呢, 如果不配IK分词器的话 它是怎样分词的呢? 我们就来先看一下:  每个字都分成了一个词, 这当然不是我们想要的结果

IK分词器安装

简介: 当前讲解的IK分词器 包的 version 为1.8. 一.下载zip包. 下面有附件链接[ik-安装包.zip],下载即可. 二.上传zip包. 下载后解压缩,如下图. 打开修改修改好后打成zip包. # 'elasticsearch.version' version of elasticsearch compiled against# You will have to release a new version of the plugin for each new# elastics

elasticsearch1.7.2安装ik分词器

网上试了很多种方案都不灵! 最后准于被我使出来了.记录下来,希望能帮到其他的人! ik分词器地址:https://github.com/medcl/elasticsearch-analysis-ik 1.下载 elasticsearch-analysis-ik-1.4.1.zip 2.解压,进入目录:命令行执行:mvn compile package (确保机器上安装了maven) 3.进入target\releases将elasticsearch-analysis-ik-1.4.1.zip这个

Elasticsearch入门之从零开始安装ik分词器

起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷.我们来看个实例: POST http://192.168.80.133:9200/my_index_name/my_type_name/_search { "size": 0, "query" : { "range" : { "time": { "