Centos7 Elasticsearch+IK中文分词+Kibana

一、关于elasticsearch、ik、kibana安装包的下载:

1.ik中文分词的下载地址为:https://github.com/medcl/elasticsearch-analysis-ik/releases

查看和下载对应的ik版本

2.elasticsearch、kibana安装包的而下载地址:

https://www.elastic.co/downloads/past-releases

下载与ik对应版本的elasticsearch、kibana

二、安装和配置elasticsearch、ik、kibana

将下载好的安装包存放在/opt/package的目录下

安装elasticsearch

解压elasticsearch-6.4.0.tar.gz到/opt/apps/目录

elasticsearch不能使用root用户运行,需要使用普通用户运行

创建普通用户

useradd elasticsearch

解压elasticsearch-analysis-ik-6.4.0.zip

给文件赋予普通用户权限

进入/elasticsearch-6.4.0/bin目录,给elasticsearch执行文件添加权限

需用以普通用户的身份启动,登录普通用户

su elasticsearch

在进入/elasticsearch-6.4.0/bin目录启动执行文件:./ elasticsearch,启动成功

ES部署完毕,接下来安装IK

安装IK

重新打开一个master命令界面窗口,并进入root模式,把解压好的elasticsearch-analysis-ik-6.4.0移动到/opt/apps/elasticsearch-6.4.0/目录下,不可放在plugins目录下,否则会提示错误,并重命名为ik

如果不配置集群,实现外网访问,需要修改如下:

cd /opt/apps/elasticsearch-6.4.0/config

vim elasticsearch.yml

如果配置集群

在master上配置

在slave1上配置

实现开机重启

到etc/rc.d/目录下,创建sh文件夹:mkdir sh

touch /etc/rc.d/sh

vim /etc/rc.d/sh/es.sh

vim /etc/rc.d/rc.local

为rc.loacl添加可执行权限

下载安装elasticsearch-head,放在/opt/apps/elasticsearch-6.4.0目录下,并重新命名为es-head.

elasticsearch-head的下载连接为https://github.com/mobz/elasticsearch-head

安装nodejs

添加nodejs源

curl --silent --location https://rpm.nodesource.com/setup | bash -

安装 nodejs,命令:

yum install –y nodejs

进入es-head文件夹

cd  /opt/apps/elasticsearch-6.4.0/es-head

安装grunt,安装命令:

npm install -g grunt –cli

安装pathomjs,安装命令:

npm install

以上即安装完所有插件

执行grunt server 命令即可启动elasticsearch-head

在浏览器中输入:localhost:9100浏览web网页

目前elasticsearch-head无法连接elasticsearch服务器

需要修改 elasticsearch中/config/elasticsearch.yml配置文件,添加如下参数:

vim
elasticsearch/config/elasticsearch.yml

安装kibana

将/opt/package目录下的kibana-6.4.0-linux-x86_64.tar.gz解压到/opt/apps/目录下

tar
-zxvf kibana-6.4.0-linux-x86_64.tar.gz -C /opt/apps/

到/opt/apps/kibana-6.4.0-linux-x86_64/config目录下修改kibana.yml文件

在master上配置

在slave1上配置

到/opt/apps/kibana-6.4.0-linux-x86_64/bin目录下启动kibana

启动命令:./kibana

三、在配置过程中,可能会遇到各种坑,下面推荐几个博客自行参考

1. https://blog.csdn.net/xingchen690606313/article/details/79152989

2. https://blog.csdn.net/zhang89xiao/article/details/68925294

3. https://blog.csdn.net/u013641234/article/details/80792416

原文地址:https://www.cnblogs.com/zjkf8686/p/10347345.html

时间: 2024-08-08 02:27:21

Centos7 Elasticsearch+IK中文分词+Kibana的相关文章

elasticsearch IK中文分词

1. analysis-ik安装 1). 从 https://github.com/medcl/elasticsearch-analysis-ik ,下载 elasticsearch-analysis-ik-master.zip 2). 解压后, cd  elasticsearch-analysis-ik-master /usr/local/maven/bin/mvn package .... wait  5-6分钟 编译成功后, 拿到target/releases/下的zip包,上传到服务器上

ElasticSearch的中文分词器ik

一.前言   为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用. 二.IK分词器的安装和使用 2.1.安装ik    我们可以从官方github上下载该插件,我们下载对应于我们使用的es的版本的ik,并且我们能够看到具体的安装步骤,可以有两种安装方法.      这里我们选择第一种方式:    重启es,我们就可以使用ik这个中文分词器了. 2.2.使用ik中文分词器  

Elasticsearch安装IK中文分词插件

一,从github上下载最新的Ik分词源码到本地 git clone https://github.com/medcl/elasticsearch-analysis-ik clone到本地后,将elasticsearch-analysis-ik目录中的 config/ik/ 整个目录拷贝到Elasticsearch安装目录的config目录下. 二,将elasticsearch-analysis-ik目录下的config中的elasticsearch.yml文件覆盖Elasticsearch安装

ElasticSearch速学 - IK中文分词器远程字典设置

前面已经对"IK中文分词器"有了简单的了解:  但是可以发现不是对所有的词都能很好的区分,比如:  逼格这个词就没有分出来. 词库 实际上IK分词器也是根据一些词库来进行分词的,我们可以丰富这个词库. IK分词器(IK Analysis for Elasticsearch)给了我们一个基本的配置: https://github.com/medcl/elasticsearch-analysis-ik  修改我们es实例中ik插件的配置: cd elasticsearch-5.3.0/pl

Elasticsearch之中文分词器插件es-ik

前提 什么是倒排索引? Elasticsearch之分词器的作用 Elasticsearch之分词器的工作流程 Elasticsearch之停用词 Elasticsearch之中文分词器 Elasticsearch之几个重要的分词器 elasticsearch官方默认的分词插件 1.elasticsearch官方默认的分词插件,对中文分词效果不理想. 比如,我现在,拿个具体实例来展现下,验证为什么,es官网提供的分词插件对中文分词而言,效果差. [[email protected] elasti

Elasticsearch之中文分词器插件es-ik的热更新词库

前提 Elasticsearch之中文分词器插件es-ik的自定义词库 先声明,热更新词库,需要用到,web项目和Tomcat.不会的,请移步 Eclipse下Maven新建项目.自动打依赖jar包(包含普通项目和Web项目) Tomcat *的安装和运行(绿色版和安装版都适用) Tomcat的配置文件详解 1: 部署 http 服务在这使用 tomcat7 作为 web 容器, 先下载一个 tomcat7, 然后上传到某一台服务器上(192.168.80.10).再执行以下命令 tar -zx

为Elasticsearch添加中文分词,对比分词器效果

http://keenwon.com/1404.html Elasticsearch中,内置了很多分词器(analyzers),例如standard (标准分词器).english(英文分词)和chinese (中文分词).其中standard 就是无脑的一个一个词(汉字)切分,所以适用范围广,但是精准度低:english 对英文更加智能,可以识别单数负数,大小写,过滤stopwords(例如"the"这个词)等:chinese 效果很差,后面会演示.这次主要玩这几个内容:安装中文分词

为Elasticsearch添加中文分词

Elasticsearch的中文分词很烂,所以我们需要安装ik.首先从github上下载项目,解压: cd /tmp wget https://github.com/medcl/elasticsearch-analysis-ik/archive/master.zip unzip master.zip cd elasticsearch-analysis-ik/ 然后使用mvn package 命令,编译出jar包 elasticsearch-analysis-ik-1.4.0.jar. mvn p

30.IK中文分词器的安装和简单使用

在之前我们学的都是英文,用的也是英文的standard分词器.从这一节开始,学习中文分词器.中国人基本上都是中文应用,很少是英文的,而standard分词器是没有办法对中文进行合理分词的,只是将每个中文字符一个一个的切割开来,比如说中国人 --> 中 国 人 在中方搜索引擎领域,比较成熟和流行的,就是ik分词器. 一.在elasticsearch中安装ik中文分词器 (1)git clone https://github.com/medcl/elasticsearch-analysis-ik (