centos 7搭建ELK日志分析系统

一、ELK的组成

ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成,其官方网站为https://www.elastic.co/cn

  • Elasticsearch:是个开源分布实时分析搜索引擎,建立在全文搜索引擎库Apache Lucens基础上,同时隐藏了Apache Luces的复杂性。Elasticsearch将所有的功能打包成一个独立的服务,并提供了一个简单的RESTful API接口,它具有分布式、零配置、自动发现、索引自动分片、索引副本机制、RESTful风格接口、多数据源、自动搜索负载等特点;
  • Logstash:是一个完全开源的工具,主要用于日志收集,同时可以对数据处理,并输出给Elasticsearch;
  • Kibana:也是一个开源和免费的工具,Kibana可以为Logstash和Elasticsearch提供图形化的日志分析Web界面,可以汇总、分析和搜索重要数据日志;

1、ELK的工作原理如下图:


Logstash收集APPServer产生的Log,并存放到Elasticsearch群集中,而Kibana则从ES群集中查询数据生成图表,在返回给Browser。

简单来说,进行日志处理分析,一般需要经过以下几个步骤:

  • 将日志进行集中化管理;
  • 将日志格式化(Logstash)并输出到Elasticsearch;
  • 对格式化后的数据进行索引和存储(Elasticsearch);
  • 前端数据的展示(Kibana);

2、Elasticsearch简述

Elasticsearch是一个基于Lucene的搜索服务器,它稳定、可靠、快速,而且具有比较好的水平扩展能力、为分布式环境设计、在云计算中被广泛应用。Elasticsearch提供了一个分布式多用户能力的全文搜索引擎,基于RESTful Web接口。通过该接口,用户可以通过浏览器和Elasticsearch通信。Elasticsearch使用Java开发的,并作为Apache许可条款下的开放源码分布。Wikipedia、Stack、Overflow、GitHub等基于Elasticsearch来构建搜索引擎,所以具有实时搜索、稳定、可靠、快速、安装使用方便等特点。

3、Elasticsearch的基础核心概念

  • 接近实时(NRT):Elasticsearch是一个搜索速度接近实时的搜索凭条,相应速度非常快,从搜索一个文档直到这个文档能够被搜索到只有一个轻微的延迟(一般情况下是1s);
  • 群集(cluster):群集就是由一个或多个节点组织在一起,在所有的节点上存放用户数据,并一起提供索引和搜索功能,通过选举产生主节点,并提供跨节点的联合索引和搜索的功能。每个群集都有一个标示的名称,默认是Elasticsearch,每个节点是居于群集名字加入到其群集中的,一个群集可以只有一个节点,为了具备更好的容错性,通常配置多个节点,在配置群集时,建议配置为群集模式;
  • 节点(node):是指一台单一的服务器,多个节点组织为一个群集,每个节点都存储数据并参与群集的索引和搜索功能。和群集一样,节点也是通过名字来标识的,默认情况下,在节点启动时会随机分配字符名,也可自定义。通过指定群集名称,节点可以加入到群集中。默认情况下,每个节点都可以加入Elasticsearch群集。如果群集中有多个节点,它们将会自动组建一个名为Elasticsearch的群集;
  • 索引(Index):类似于关系型数据库的中的“库”。当索引一个文档后,就可以使用Elasticsearch搜索到该文档,也可以简单地将索引理解为存储数据的地方,可以方便地进行全文索引。在index下面包含存储数据库的类型(Type),TYPE类似于关系型数据库中的“表”,用来存放具体数据,而Type下面包含文档(Document),文档相当Yui关系型数据库的“记录”,一个文档是一个可被索引的基础信息单元;
  • 分片和副本:Elasticsearch将索引分为若干部分,每个部分称为一个分片,每个分片就是一个全功能的独立的索引。分片的数量一般在索引创建前指定,且创建索引后不能更改;分片的两个最主要的原因:
  • 水平分割扩展,增大存储量;
  • 分布式并行跨分片操作,提高性能和吞吐量;
    一个好的数据存储方案要求无论何种故障(如节点不可用)下数据都可用,并且具有较高的存储效率。为此,Elasticsearch将索引分片复制一份或多份,称为副本。副本是索引的另一个备份,用于数据冗余以及负载分担。默认情况下Elasticsearch自动对索引请求进行负载分担。

总之,索引可以将分为若干个分片。这些分片也可以被复制0次(没有复制)或多次,当有副本存在是,作为复制源的分片称为主分片,而作为复制目标的分片称为复制分片。分片和副本的数量可以在索引创建时指定。在索引创建后,可以改变副本的数量,但是不能改变分片的数量。默认情况,Elasticsearch中的每个索引被分片为5个主分片和1个副本。在两个节点的场景下,每个索引都将会有5个主分片和另外5个副本分片,每个索引总共就有10个分片。

4、Logstash介绍

Logstash有JRuby语言编写,运行在Java虚拟机(JVM)上,是一款强大的数据处理工具,可以实现数据传输、格式处理、格式化输出。Logstash具有强大的插件功能,常用于日志处理。Logstash可配置单一的代理端,与其他开源软件结合,实现不同的功能。

Logstash的理念很简单,它只做三件事:数据输入、数据加工(如过滤、改写等)以及数据输出。通过组合输入和输出,可以实现锁种需求。Logstash处理日志时,典型的部署架构图如下:

Logstash的主要组件:

  • Shipper:日志收集者。负责监控本地日志文件的变化,及时收集最新的日志文件内容。通常,远程代理端(agent)只需要运行这个组件即可;
  • Indexer:日志存储者。负责接收日志并写入到本地文件;
  • Broker:日志Hub。负责连接多个Shipper和Indexer;
  • Search and Stronage:允许对事件进行搜索和存储;
  • Web Interface:基于Web的展示界面;

正是由于以上组件在Logstash架构中可独立部署,才提供了更好的群集扩展性。
Logstash使用管道方式进行日志的搜集处理和输出,优点类似Linux系统的管道命令,将前一个流程的处理结构发送到后一个流程继续处理。在Logstash中,包括了三个阶段,分别是输入(input)、处理(Filter,非必需)和输出(output),三者的关系如图:

如图中,整个流程为Input收集数据,Filter处理数据、Output输出数据。每个阶段也可以指定多种方式,如输出既可以输出到Elasticsearch中,也可以指定到stdout在控制台打印。这种插件式的组织方式,使得Logstash的扩展和定制非常方便。

5、Kibana介绍

Kibana是一个针对Elasticsearch的开源分析及可视化平台,主要设计用来和Elasticsearch一起工作,可以搜索、查看存储在Elasticsearch索引中的数据,并通过各种图表进行高级数据分析和展示。Kibana可以让数据看起来一目了然。它的操作十分简单,基于浏览器的用户界面可以让用户在任何位置都可以实时浏览。Kibana可以快速创建仪表板实时显示查询动态。Kibana使用非常简单,只需添加索引就可以检测Elasticsearch索引数据。

1)Kibana的主要功能

  • Elasticsearch无缝之集成:Kibana架构是为了Elasticsearch定制的,可以将任何(结构化和非结构化)数据加入Elasticsearch索引。Kibana还充分李永乐Elasticsearch强大的搜索和分析功能;
  • 整合数据:Kibana可以让海量数量变得更容易理解,根据数据内容可以创建形象的柱形图、折线图、散点图、直方图、饼图和地图等,以便用户查看;
  • 复杂数据分析:Kibana提升了Elasticsearch的分析能力,能够更加智能地分析数据,执行数据转换并且根据要求对数据切割分块;
  • 让更多团队成员受益:强大的数据库可视化接口让各业务岗位都能够从数据集合受益;
  • 接口灵活,分享更容易:使用Kibana可以更加方便地创建、保存、分享数据,并将可视化数据快速交流;
  • 配置简单:Kibana的配置和启用非常简单,用户体验非常友好。Kibana自带Web服务器,可以快速启动运行;
  • 可视化多数据源:Kibana可以非常方便地把来自Logstash、ES-Hadoop、Beats多第三方技术的数据整合到Elasticsearch,支持的第三方技术包括Apache、Flume、Fluentd等;

简单数据导出:Kibana可以方便地导出感兴趣的数据,与其他数据集合并融合后快速建模分析,发现新结果;

二、搭建ELK平台

案例环境如下:

准备安装环境:
准备三台服务器,分别根据上述环境表配置网络参数,我这里是192.168.100.10-30。其次关闭防火墙和Selinux。其中Centos01和Centos02节点分配4GB(>2GB)内存,Apache节点分配1GB内存。此案例自行连接广域网。

本案例实现功能如下:

  • 配置ELK日志分析群集;
  • 使用Logsttash收集日志;
  • 使用Kibana查看分析日志;

本案例用到的所有程序包请访问:https://pan.baidu.com/s/1OK49eAIwbvwIV5swe0-8-w
提取码:yiad

1、centos01基础环境配置

[[email protected] ~]# hostnamectl set-hostname centos01
[[email protected] ~]# bash
[[email protected] ~]#
[[email protected] ~]# vim /etc/hosts
192.168.100.10 centos01
192.168.100.20 centos02
[[email protected] ~]# java -version
openjdk version "1.8.0_131"
OpenJDK Runtime Environment (build 1.8.0_131-b12)
OpenJDK 64-Bit Server VM (build 25.131-b12, mixed mode)
[[email protected] ~]# vim /etc/sysconfig/selinux
SELINUX=disabled
[[email protected] ~]# systemctl stop firewalld
[[email protected] ~]# reboot

2、centos02基础环境配置

[[email protected] ~]# hostnamectl set-hostname centos02
[[email protected] ~]# bash
[[email protected] ~]#
[[email protected] ~]# vim /etc/hosts
192.168.100.10 centos01
192.168.100.20 centos02
[[email protected] ~]# java -version
openjdk version "1.8.0_131"
OpenJDK Runtime Environment (build 1.8.0_131-b12)
OpenJDK 64-Bit Server VM (build 25.131-b12, mixed mode)
[[email protected] ~]# vim /etc/sysconfig/selinux
SELINUX=disabled
[[email protected] ~]# systemctl stop firewalld
[[email protected] ~]# reboot

3、centos01安装Elasticsearch软件

[[email protected] ~]# ls            <!--通过rz命令上传elasticsearch包-->
anaconda-ks.cfg  elasticsearch-5.6.16.rpm  initial-setup-ks.cfg
[[email protected] ~]# yum -y install elasticsearch-5.6.16.rpm   <!--安装elasticsearch程序-->
[[email protected] ~]# vim /etc/elasticsearch/elasticsearch.yml <!--修改elasticsearch配置文件-->
cluster.name: ELK        <!--定义群集名称-->
node.name: centos01      <!--定义节点名称-->
network.host: 192.168.100.10          <!--提供服务绑定的IP地址-->
http.port: 9200                                                        <!--服务监听端口为9200-->
discovery.zen.ping.unicast.hosts: ["centos01", "centos02"] <!--群集发现通过单播的方式-->
[[email protected] ~]# systemctl daemon-reload <!--配置以守护进程方式运行elasticsearch-->
[[email protected] ~]# /etc/init.d/elasticsearch start       <!--启动elasticsearch服务-->
[[email protected] ~]# systemctl start elasticsearch        <!--启动elasticsearch服务-->
[[email protected] ~]# systemctl enable elasticsearch       <!--设置开机自动启动-->
[[email protected] ~]# netstat -anptu | grep 9200
            <!--监听elasticsearch服务是否启动成功(需要耐心等待几秒才可以监听到)-->
tcp6       0      0 192.168.100.10:9200     :::*                    LISTEN      1557/java  

4、centos02安装Elasticsearch软件

[[email protected] ~]# ls            <!--通过rz命令上传elasticsearch包-->
anaconda-ks.cfg  elasticsearch-5.6.16.rpm  initial-setup-ks.cfg
[[email protected] ~]# yum -y install elasticsearch-5.6.16.rpm   <!--安装elasticsearch程序-->
[[email protected] ~]# vim /etc/elasticsearch/elasticsearch.yml <!--修改elasticsearch配置文件-->
cluster.name: ELK        <!--定义群集名称-->
node.name: centos02      <!--定义节点名称-->
network.host: 192.168.100.20          <!--提供服务绑定的IP地址-->
http.port: 9200                                                        <!--服务监听端口为9200-->
discovery.zen.ping.unicast.hosts: ["centos01", "centos02"] <!--群集发现通过单播的方式-->
[[email protected] ~]# systemctl daemon-reload <!--配置以守护进程方式运行elasticsearch-->
[[email protected] ~]# /etc/init.d/elasticsearch start       <!--启动elasticsearch服务-->
[[email protected] ~]# systemctl start elasticsearch        <!--启动elasticsearch服务-->
[[email protected] ~]# systemctl enable elasticsearch       <!--设置开机自动启动-->
[[email protected] ~]# netstat -anptu | grep 9200
            <!--监听elasticsearch服务是否启动成功(需要耐心等待几秒才可以监听到)-->
tcp6       0      0 192.168.100.20:9200     :::*                    LISTEN      1557/java  

5、通过客户端访问两个节点

配置客户端IP地址通过浏览器访问centos01

配置客户端IP地址通过浏览器访问centos02

6、安装elasticsearch-head图形化管理ELK工具

1)centos01节点

<!--上传node压缩包,解压缩安装到/usr/local/中 -->
[[email protected] ~]# ls
anaconda-ks.cfg  elasticsearch-5.6.16.rpm  initial-setup-ks.cfg  node-v4.2.2-linux-x64.tar.gz
[[email protected] ~]# tar zxvf node-v4.2.2-linux-x64.tar.gz -C /usr/local/   <!---->
[[email protected] local]# mv node-v4.2.2-linux-x64/ node   <!--修改名字为node-->
[[email protected] local]# ln -s /usr/local/node/bin/npm /usr/local/bin/npm<!--连接管理命令-->
[[email protected] local]# ln -s /usr/local/node/bin/node /usr/local/bin/node<!--连接管理命令-->
[[email protected] ~]# vim /etc/profile       <!--配置环境变量加载node-->
export NODE_HOME=/usr/local/node
export PATH=$PATH:$NODE_HOME/bin
export BODE_PATH=$NODE_HOME/lib/node_modules/
[[email protected] ~]# source /etc/profile  <!--刷新环境变量-->
[[email protected] ~]# vim /etc/elasticsearch/elasticsearch.yml
                   <!--修改elasticsearch连接elasticsearch-head-->
http.cors.enabled: true
http.cors.allow-origin: "*" 

<!--接下来安装elasticsearch-head-->

[[email protected] ~]# git clone git://github.com/mobz/elasticsearch-head.git   <!--配置安装源-->
[[email protected] ~]# ls
anaconda-ks.cfg  elasticsearch-5.6.16.rpm  elasticsearch-head  initial-setup-ks.cfg  node-v4.2.2-linux-x64.tar.gz
[[email protected] ~]# mv elasticsearch-head /usr/local/<!--修改elasticsearch-head安装位置-->
[[email protected] ~]# cd /usr/local/elasticsearch-head/
[[email protected] elasticsearch-head]# npm install -g grunt-cli    <!--安装grunt-cli程序-->
[[email protected] elasticsearch-head]# grunt -version    <!--检查grunt是否安装成功-->
grunt-cli v1.3.2
[[email protected] ~]# vim /usr/local/elasticsearch-head/Gruntfile.js
                       <!--修改elasticsearch-head的Gruntfile.js配置文件-->
99                                         keepalive: true,
100                                         hostname: "*
[[email protected] ~]# vim /usr/local/elasticsearch-head/_site/app.js
                         <!--修改elasticsearch-head的app.js配置文件-->
4374                         this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri")
|| "http://192.168.100.10:9200";    <!--将http后面的localhost改为此服务器IP地址-->
<!--接下来开始安装npm-->
[[email protected] ~]# cd /usr/local/elasticsearch-head/    <!---->
[[email protected] elasticsearch-head]# npm install     <!--安装npm -->
[[email protected] elasticsearch-head]# grunt server&<!--启动grunt服务,将服务运行在后台-->
[[email protected] ~]# /etc/init.d/elasticsearch restart    <!--重启elasticsearch服务-->
[[email protected] ~]# netstat -anptu | grep 9200    <!--监听elasticsearch服务是否启动-->
tcp6       0      0 192.168.100.10:9200     :::*                    LISTEN      1557/java
[[email protected] ~]# netstat -anptu | grep 9100    <!--监听grunt服务是否启动-->
tcp6       0      0 :::9100                 :::*                    LISTEN      3400/grunt

centos02节点和centos01节点配置相同,就是改一下IP地址即可,参考centos01节点自行配置即可。

现在就可以通过浏览器访问http://192.168.100.10:9100 去查看群集信息了

7、安装logstash

<!--上传logstash压缩包到服务器 -->
[[email protected] ~]# ls
anaconda-ks.cfg  elasticsearch-5.6.16.rpm  initial-setup-ks.cfg  logstash-5.5.1.rpm  node-v4.2.2-linux-x64.tar.gz
[[email protected] ~]# rpm -ivh logstash-5.5.1.rpm    <!--安装logstash-->
[[email protected] ~]# ln -s /usr/share/logstash/bin/logstash /usr/local/bin/<!--优化安装命令-->
[[email protected] ~]# mkdir -p /usr/share/logstash/config   <!--创建存储数据目录-->
[[email protected] ~]# ln -s /etc/logstash/* /usr/share/logstash/config/<!--配置存储数据目录-->
[[email protected] ~]# systemctl start logstash    <!--启动logstash服务-->
[[email protected] ~]# systemctl enable logstash   <!--设置开机自动启动-->
[[email protected] ~]# logstash -e ‘input { stdin {} } output { stdout {} }‘
             <!--写入测试数据,测试日志服务器-->
The stdin plugin is now waiting for input:
www.baidu.com         <!--自行输入,完成后强制退出-->
2019-12-19T07:44:26.487Z centos01 www.baidu.com

[[email protected] ~]# logstash -e ‘input { stdin {} } output { stdout { codec=> rubydebug } }‘
<!--写入测试数据,测试日志服务器-->
The stdin plugin is now waiting for input:
www.baidu.com   <!--自行输入,完成后强制退出-->
{
    "@timestamp" => 2019-12-19T07:48:34.006Z,
      "@version" => "1",
          "host" => "centos01",
       "message" => "www.baidu.com"
}

[[email protected] ~]# logstash -e ‘input { stdin {} } output { elasticsearch { hosts =>
["192.168.100.10:9200"] } }‘  <!--写入测试数据,测试日志服务器-->
The stdin plugin is now waiting for input:
www.baidu.com  <!--自行输入,完成后强制退出-->

centos02和centos01是相同配置,请自行配置。

接下来通过客户端浏览器访问9100查看日志

8、安装kibana

<!--上传kibana-5.5.1-x86_64.rpm包到服务器-->
[[email protected] ~]# ls
anaconda-ks.cfg           initial-setup-ks.cfg     logstash-5.5.1.rpm
elasticsearch-5.6.16.rpm  kibana-5.5.1-x86_64.rpm  node-v4.2.2-linux-x64.tar.gz
[[email protected] ~]# rpm -ivh kibana-5.5.1-x86_64.rpm   <!--安装kibana-->
[[email protected] ~]# vim /etc/kibana/kibana.yml  <!--修改kibana主配置文件-->
server.port: 5601   <!--服务监听的端口号-->
server.host: "0.0.0.0"   <!--允许所有网段-->
elasticsearch.url: "http://192.168.100.10:9200"   <!--连接elasticsearch的url-->
[[email protected] ~]# systemctl start kibana   <!--启动kibana服务-->
[[email protected] ~]# systemctl enable kibana   <!--设置开机自动启动-->

centos02和上面相同配置,将连接elasticsearch的url的IP地址改为centos02的IP地址即可,自行配置。

现在可以通过客户端浏览器访问5601端口

9、配置监控网站服务器

[[email protected] ~]# yum -y install httpd   <!--安装httpd-->
[[email protected] ~]# systemctl start httpd    <!--启动服务-->
[[email protected] ~]# systemctl enable httpd   <!--设置开机自动启动-->

<!--上传logstash到网站服务器,安装logstash-->

[[email protected] ~]# ls
anaconda-ks.cfg  initial-setup-ks.cfg  logstash-5.5.1.rpm
[[email protected] ~]# rpm -ivh logstash-5.5.1.rpm   <!--安装logstash-->
[[email protected] ~]# vim /etc/logstash/conf.d/apache_error.conf <!--配置监控网站的错误日志-->
input {
        file {
                path => "/var/log/httpd/error_log"
                type => "error"
                start_position => "beginning"
                }
}
output {
        if [type] == "error" {
                elasticsearch {
                        hosts => ["192.168.100.10:9200"]
                        index => "apache_error-%{+YYYY.MM.dd}"
                        }
                }
}
[[email protected] ~]# systemctl start logstash.service    <!--启动logstash服务-->
[[email protected] ~]# systemctl enable logstash.service  <!--设置开机自动启动-->
[[email protected] ~]# /usr/share/logstash/bin/logstash -f
/etc/logstash/conf.d/apache_error.conf   <!--启动监控网站服务器-->

1)现在可以通过浏览器访问验证是否监控成功

2)查看监控网站服务器的日志

3)重启网站服务器和监控服务;浏览器再次查看监控网站服务器的日志


自行在kibana服务器添加索引。

—————— 本文至此结束,感谢阅读 ——————

原文地址:https://blog.51cto.com/14156658/2460844

时间: 2025-01-19 23:29:20

centos 7搭建ELK日志分析系统的相关文章

Ubuntu14.04搭建ELK日志分析系统

系统运维和开发人员可以通过日志了解服务器软硬件信息.检查配置过程中的错误及错误发生的原因.经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误.日志的作用不言而喻,但对于数量庞大且分布在多台机器上的日志,查看就显得特别麻烦了.所以,对于运维人员来说,使用日志分析系统是非常有必要的. 开源实时日志分析ELK平台能够实现日志的监控与分析,ELK由ElasticSearch.Logstash和Kiabana三个开源工具组成.官方网站:https://www.elastic.co/pr

centos 7.3搭建ELK日志分析系统详解

一.前言: 日志分析是我们运维解决系统故障.发现问题的主要手段.为了可以集中管理多台服务器的日志记录,开源实时日志分析ELK平台应用而生,ELK由Elasticsearch.Logstash和Kibana三个开源工具组成,这三个工具可以分别部署在不同的服务器上,并且相互关联,不过需要收集哪台服务器的日志,就必须在该服务器上部署Logstash.ELK的官网是:Elastic官网 ELK的工作原理如下(懂得其中原理,才可部署一个高可用的ELK平台):Logstash收集APPServer(应用服务

快速搭建ELK日志分析系统

一.ELK搭建篇 官网地址:https://www.elastic.co/cn/ 官网权威指南:https://www.elastic.co/guide/cn/elasticsearch/guide/current/index.html 安装指南:https://www.elastic.co/guide/en/elasticsearch/reference/5.x/rpm.html ELK是Elasticsearch.Logstash.Kibana的简称,这三者是核心套件,但并非全部. Elas

ELK日志分析系统搭建配置

我们主要用ELK日志分析系统来分析Nginx访问日志,mysql慢查询日志,tomcat运行日志以及系统日志等. 介绍:ELK:ElasticSearch+LogStash+Kibana=ElkStackElasticSearch:存储.收索.分析(可以用solr替代)LogStash:收集器,输入,处理分析,存储到ESKibana:展示备注:ElasticSearch支持集群功能,日志收集后会在每个节点存放一份(可以选择) 1.安装jdkwget http://sg-new.oss-cn-ha

十分钟搭建和使用ELK日志分析系统

前言 为满足研发可视化查看测试环境日志的目的,准备采用EK+filebeat实现日志可视化(ElasticSearch+Kibana+Filebeat).题目为"十分钟搭建和使用ELK日志分析系统"听起来有点唬人,其实如果单纯满足可视化要求,并且各软件都已经下载到本地,十分钟是可以搭建一个ELK系统的.本文介绍如何快速安装.配置.使用EK+FILEBEAT去实现日志搜集.本文中没有使用LOGSTASH做日志搜集过滤,但为了后期需要先进行了安装. 工作原理 ElasticSearch:是

在CentOS7中部署ELK日志分析系统

在CentOS7中部署ELK日志分析系统 ELK原理介绍 什么是ELK ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件.新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具. Elasticsearch是实时全文搜索和分析引擎,提供搜集.分析.存储数据三大功能:是一套开放REST和JAVA API等

ELK日志分析系统 介绍 安装配置

ELK日志分析系统 一.ELK介绍 ELK顾名思义:是由Elasticsearch,Logstash 和 Kibana三部分组成的. 其中Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析.它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写.目前,最新的版本是 5.4. 主要特点 实时分析 分布式实时文件存储,并将每一个字段都编入索引 文档导向,所有的对象全部是文档 高可用性,易扩展,支持集群(Cl

ELKR分布式搭建nginx日志分析系统

ELKR分布式搭建nginx日志分析系统 一.名词介绍 1.什么是elk ELK 其实并不是一款软件,而是一整套解决方案,是三个软件产品的首字母缩写,Elasticsearch,Logstash 和 Kibana.这三款软件都是开源软件,通常是配合使用. 2.Elasticsearch 2.1.Elasticsearch介绍 Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析.它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引

centos7搭建EFK日志分析系统

前言 EFK可能都不熟悉,实际上EFK是大名鼎鼎的日志系统ELK的一个变种 在没有分布式日志的时候,每次出问题了需要查询日志的时候,需要登录到Linux服务器,使用命令cat -n xxxx|grep xxxx 搜索出日志在哪一行,然后cat -n xxx|tail -n +n行|head -n 显示多少行,这样不仅效率低下,而且对于程序异常也不方便查询,日志少还好,一旦整合出来的日志达到几个G或者几十G的时候,仅仅是搜索都会搜索很长时间了,当然如果知道是哪天什么时候发生的问题当然也方便查询,但