【Docker系列】认识ELK,docker安装ELK和IK分词器

1.ELK简介

ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。

Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。
Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
Filebeat隶属于Beats。目前Beats包含四种工具: Packetbeat(搜集网络流量数据),Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据),Filebeat(搜集文件数据),Winlogbeat(搜集 Windows 事件日志数据)
2.安装logstash

1.拉取镜像

docker pull logstash:5.6.11
2.创建目录

mkdir /docker/logstash
cd /docker/logstash
3.创建配置文件

touch logstash.config
文件内容:
input
{
udp
{
port => 8888
codec => json
}
}
output
{
elasticsearch{
hosts => "192.168.186.129:9200"
index => "indextest"
}
stdout{
codec => rubydebug
}
}
4.创建,启动logstash容器

docker run -p 8888:8888/udp -d -v /docker/logstash:/config-dir logstash:5.6.11 -f /config-dir/logstash.conf
3.安装elasticsearch

1.拉取镜像

docker pull elasticsearch:5.6.11

2.创建数据目录

mkdir /docker/es && mkdir /docker/es/data

3.创建ES容器并启动

docker run -d -p 9200:9200 -p 9300:9300 \
-v /docker/es/data:/usr/share/elasticsearch/data \
elasticsearch:5.6.11

4.测试

图片描述(最多50字)

5.启动问题排查

默认启动ES分配2G内存,如提示内存不足,可进行修改

find /var/lib/docker/overlay/ -name jvm.options

查到如下结果:

/var/lib/docker/overlay2/1fb59070a037d02dccfc33e15d6e24cf9127882cc19521a1654192d3d3b1c7ec/diff/etc/logstash/jvm.options
/var/lib/docker/overlay2/d2b9e8e913dff7c015cbb27b34ca4b9921bdd43869a1bfb1413af468cb14465e/diff/etc/elasticsearch/jvm.options
/var/lib/docker/overlay2/dd2634a4b14f8ef455ae969466af25d147f508c0e9785bb3e7703eb933675ecf/merged/etc/logstash/jvm.options

修改elasticsearch/jvm.options


-Xms2g 改为 -Xms512m
-Xmx2g 改为 -Xmx512m

6.安装IK分词器

a.docker exec -it 容器ID
b.elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v5.6.11/elasticsearch-analysis-ik-5.6.11.zip
重启容器加载IK分词器时候会保存,IK分词器下缺少配置文件,没搞明白为什么5.6.11安装的IK插件缺少了,宿主机下载了解压后Copy到容器中
docker cp ik/config 容器ID:/usr/share/elasticsearch/plugins/analysis-ik
重启容器

测试安装的分词器:

GET _analyze?pretty
{
"analyzer": "ik_smart",
"text": "×××国歌"
}

4.安装kibana

1.拉取kibana镜像

docker pull kibana:5.6.11

2.创建kibana容器并启动

docker run -p 5601:5601 -e ELASTICSEARCH_URL=http://192.168.186.129:9200 -d kibana:5.6.11

3.测试

图片描述(最多50字)

原文地址:http://blog.51cto.com/14028890/2320229

时间: 2024-10-29 09:25:11

【Docker系列】认识ELK,docker安装ELK和IK分词器的相关文章

Windows上安装ElasticSearch7的IK分词器

首先IK分词器和ES版本一定要严格对应,下面是版本对照表 IK分词器下载地址 https://github.com/medcl/elasticsearch-analysis-ik/releases 我安装的是ES7.3.2(Windows上安装ElasticSearch7),所以下载IK分词器V7.3.2 在Windows上安装,所以下载.zip 下载完后解压: 在ES安装目录下的plugins文件夹下创建analysis-ik文件夹 将elasticsearch-analysis-ik-7.3

Docker容器中的Elasticsearch中离线安装IK分词器

Elasticsearch自带的分词器对中文分词不是很友好,所以我们下载开源的IK分词器来解决这个问题.首先进入到plugins目录中下载分词器,下载完成后然后解压,再重启es即可.具体步骤如下: 注意:elasticsearch的版本和ik分词器的版本需要保持一致,不然在重启的时候会失败.可以在这查看所有版本,选择合适自己版本的右键复制链接地址即可.在该链接中找到符合自己版本的:https://github.com/medcl/elasticsearch-analysis-ik/release

使用Docker 安装Elasticsearch、Elasticsearch-head、IK分词器 和使用

原文:使用Docker 安装Elasticsearch.Elasticsearch-head.IK分词器 和使用 Elasticsearch的安装 一.elasticsearch的安装 1.镜像拉取 docker pull elasticsearch:tag 2.启动 docker run -it -e "discovery.type=single-node" --name="es" -p 9200:9200 -p 9300:9300 elasticsearch 3

Elasticsearch入门之从零开始安装ik分词器

起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷.我们来看个实例: POST http://192.168.80.133:9200/my_index_name/my_type_name/_search { "size": 0, "query" : { "range" : { "time": { "

如何开发自己的搜索帝国之安装ik分词器

 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,我是中国人 不能简单的分成一个个字,我们更希望 “中国人”,“中国”,“我”这样的分词,这样我们就需要安装中文分词插件,ik就是实现这个功能的. elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 现在开始安装ik分词器,安装之前,先说明一些变化: 之前可以在node节点上配置index默认的分词器,如果是多节点,那么在每个节点上都配置就行了.这个有点不灵活,

Elasticsearch5.1.1+ik分词器安装小记

一.安装elasticsearch 1.首先需要安装好java,并配置好环境变量,详细教程请看 http://tecadmin.net/install-java-8-on-centos-rhel-and-fedora/# 2.安装ElasticSearch,下载rpm包: wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.1.1.rpm rpm -ivh elasticsearch-5.1.1.rp

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一.

在这里一下讲解着三个的安装和配置, 是因为solr需要使用tomcat和IK分词器, 这里会通过图文教程的形式来详解它们的安装和使用.注: 本文属于原创文章, 如若转载,请注明出处, 谢谢.关于设置IK分词器的文章 IK分词器: http://www.cnblogs.com/wang-meng/p/5814798.html 1, 解压tar文件首先我们在根目录下建立一个solr目录(使用命令: mkdir /solr):  然后查看目录是否生成成功:  解压solr/tomcat/IK 到sol

[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例二.

为了更好的排版, 所以将IK分词器的安装重启了一篇博文,  大家可以接上solr的安装一同查看.[Linux]Linux下安装和配置solr/tomcat/IK分词器 详细实例一: http://www.cnblogs.com/wang-meng/p/5814798.html 8, 打开浏览器查看solr可视化界面 到了这里solr就配置好了, 可是我们的IK 分词器还没有配置呢, 如果不配IK分词器的话 它是怎样分词的呢? 我们就来先看一下:  每个字都分成了一个词, 这当然不是我们想要的结果

IK分词器安装

简介: 当前讲解的IK分词器 包的 version 为1.8. 一.下载zip包. 下面有附件链接[ik-安装包.zip],下载即可. 二.上传zip包. 下载后解压缩,如下图. 打开修改修改好后打成zip包. # 'elasticsearch.version' version of elasticsearch compiled against# You will have to release a new version of the plugin for each new# elastics