集中式日志分析平台 Elastic Stack(部署)

一、环境准备

1、架构选型

接下来我们进行初步的探视,利用测试环境体验下ELK Stack + Filebeat,测试环境我们就不进行 Kafka 的配置了,因为他的存在意义在于提高可靠性。

2、软件版本

Filebeat 6.4.0
Logstash 6.4.0
Elasticsearch 6.4.0
Kibana 6.4.0
JDK 1.8.0_181

3、服务器准备

IP 系统 角色
172.18.2.100 CentOS 7.4.1708 Logstash, ES, Kibana
172.18.2.101 CentOS 7.4.1708 Filebeat
172.18.2.102 CentOS 7.3.1611 Filebeat

4、SSH免秘钥

需要打通172.18.2.100至所有 agent 的 SSH 免密登录。

[[email protected] ~]# ssh-copy-id 172.18.2.101
[[email protected] ~]# ssh-copy-id 172.18.2.102

5、JDK安装

ELK 需要 Oracle 1.7(或者是 OpenJDK 1.7) 及以上,建议下载 Oracle 官方的 JDK,我们这里下载的是官方的 rpm 包。

rpm -ivh jdk-8u181-linux-x64.rpm

二、ELK 服务安装

ELK 官网对于每种软件提供了多种格式的安装包(zip/tar/rpm/DEB),以 Linux 系列系统为例,如果直接下载 RPM,可以通过 rpm -ivh path_of_your_rpm_file直接安装成系统 service。以后就可以使用 service 命令启停。比如service elasticsearch start/stop/status。很简单,我们主要就使用这种方式进行安装。

1、ElasticSearch

下载软件包(172.18.2.100)

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.4.0.rpm

安装

rpm -ivh elasticsearch-6.4.0.rpm

修改配置

修改/etc/elasticsearch/elasticsearch.yml

cluster.name: myes
node.name: es1.wzlinux.com
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
network.host: 172.18.2.100
http.port: 9200

启动ES

systemctl daemon-reload
systemctl start elasticsearch.service
systemctl enable elasticsearch.service

验证

[[email protected] ~]# curl ‘http://172.18.2.100:9200‘
{
  "name" : "es1.wzlinux.com",
  "cluster_name" : "myes",
  "cluster_uuid" : "q54RkYTLTKuVaSytrTXiAg",
  "version" : {
    "number" : "6.4.0",
    "build_flavor" : "default",
    "build_type" : "rpm",
    "build_hash" : "595516e",
    "build_date" : "2018-08-17T23:18:47.308994Z",
    "build_snapshot" : false,
    "lucene_version" : "7.4.0",
    "minimum_wire_compatibility_version" : "5.6.0",
    "minimum_index_compatibility_version" : "5.0.0"
  },
  "tagline" : "You Know, for Search"
}

可以看到,它跟其他的节点的传输端口为9300,接受HTTP请求的端口为9200。

[[email protected] ~]# netstat -tlnp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      903/sshd
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      1001/master
tcp6       0      0 172.18.2.100:9200       :::*                    LISTEN      11885/java
tcp6       0      0 172.18.2.100:9300       :::*                    LISTEN      11885/java
tcp6       0      0 :::22                   :::*                    LISTEN      903/sshd
tcp6       0      0 ::1:25                  :::*                    LISTEN      1001/master         

2、Logstash

下载安装包(172.18.2.100)

wget https://artifacts.elastic.co/downloads/logstash/logstash-6.4.0.rpm

安装

rpm -ivh logstash-6.4.0.rpm

安装组件beats

一个Logstash的pipeline由3部分组成:input, filter, output。

在我们的架构中,Logstash的input是beats,output是ES,需要对应的插件。

cd /usr/share/logstash/
bin/logstash-plugin install logstash-input-beats

配置

修改文件/etc/logstash/conf.d/logstash.conf

input {
  beats {
    port => 5044
  }
}

output {
  elasticsearch {
    hosts => "172.18.2.100:9200"
    manage_template => false
    index => "%{[@metadata][beat]}-%{+YYYY.MM.dd}"
    document_type => "%{[@metadata][type]}"
  }
}

Logstash 使用该配置使用 ES 的索引,和 Filebeat 做的事情是一样的,不过拥有了额外的缓存以及强大丰富的插件库。

启动

systemctl start logstash.service

3、Kibana

Kibana 从 ES 获取数据做前端的可视化展示。 它提供了用户体验极佳的高定制化 UI,可以灵活配置出你需要的 Dashboard。 Dashboard 可以轻易的保存、链接和分享。

下载(172.18.2.100)

wget https://artifacts.elastic.co/downloads/kibana/kibana-6.4.0-x86_64.rpm

安装

rpm -ivh kibana-6.4.0-x86_64.rpm

配置

编辑/etc/kibana/kibana.yml

elasticsearch.url: "http://172.18.2.100:9200"
server.host: "172.18.2.100"

启动

systemctl daemon-reload
systemctl start kibana.service

查看

在浏览器中访问http://172.18.2.100:5601

4、Filebeat

在172.18.2.101、172.18.2.102上进行Filebeat的安装。

下载

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.4.0-x86_64.rpm

安装

rpm -ivh filebeat-6.4.0-x86_64.rpm

配置

修改/etc/filebeat/filebeat.yml,把日志输出指向logstash,关闭Elasticsearch output。

#----------------------------- Logstash output --------------------------------
output.logstash:
  hosts: ["172.18.2.100:5044"]

添加 Index Pattern

  • 在 Elasticsearch 中, Index Pattern 用于定义字段应如何分析的设置和映射。
  • Filebeat 的默认 Index Pattern 由软件包安装。 如果使用默认的配置文件 filebeat.yml,则 Filebeat 在成功连接到Elasticsearch后会自动加载模板。 如果模板已存在,默认不会覆盖,但是可以通过配置进行覆盖。
  • 如果要禁用自动模板加载,或者要加载自己的模板,可以在Filebeat配置文件中更改模板加载的设置。

因为我们的输出不是 ES,所以我们需要手动添加 Index Pattern。

[[email protected] ~]# filebeat setup --template -E output.logstash.enabled=false -E ‘output.elasticsearch.hosts=["172.18.2.100:9200"]‘
Loaded index template

启动

systemctl start filebeat

原文地址:http://blog.51cto.com/wzlinux/2175836

时间: 2024-09-30 10:32:44

集中式日志分析平台 Elastic Stack(部署)的相关文章

集中式日志分析平台 Elastic Stack(介绍)

一.ELK 介绍 ELK 构建在开源基础之上,让您能够安全可靠地获取任何来源.任何格式的数据,并且能够实时地对数据进行搜索.分析和可视化. 最近查看 ELK 官方网站,发现新一代的日志采集器 Filebeat,他是 Beats 家族其中的一员,性能超越 logstash,部署简单,占用资源少,可以很方便的和 logstash,ES 对接. 从官方网站可以看出新一代 ELK 架构如下: 1.Beats Beats 平台集合了多种单一用途数据采集器.这些采集器安装后可用作轻量型代理,从成百上千或成千

ES 集中式日志分析平台 Elastic Stack(介绍)

一.ELK 介绍 ELK 构建在开源基础之上,让您能够安全可靠地获取任何来源.任何格式的数据,并且能够实时地对数据进行搜索.分析和可视化. 最近查看 ELK 官方网站,发现新一代的日志采集器 Filebeat,他是 Beats 家族其中的一员,性能超越 logstash,部署简单,占用资源少,可以很方便的和 logstash,ES 对接. 从官方网站可以看出新一代 ELK 架构如下: 1.Beats Beats 平台集合了多种单一用途数据采集器.这些采集器安装后可用作轻量型代理,从成百上千或成千

集中式日志分析平台 - ELK Stack - 安全解决方案 X-Pack

大数据之心 关注 0.6 2017.02.22 15:36* 字数 2158 阅读 16457评论 7喜欢 9 简介 X-Pack 已经作为 Elastic 公司单独的产品线,前身是 Shield, Watcher, Marvel, Graph, 和 reporting,先来说说这几个爸爸是做什么的吧: Shield: 提供对数据的 Password-Protect,以及加密通信.基于角色的权限控制,IP 过滤,审计,可以有效地: 防止未授权的访问:基于 Password-Protect,基于角

安装logstash+kibana+elasticsearch+redis搭建集中式日志分析平台

本文是参考logstash官方文档实践的笔记,搭建环境和所需组件如下: Redhat 5.7 64bit / CentOS 5.x JDK 1.6.0_45 logstash 1.3.2 (内带kibana) elasticsearch 0.90.10 redis 2.8.4 搭建的集中式日志分析平台流程如下: elasticsearch 1.下载elasticsearch. wget https://download.elasticsearch.org/elasticsearch/elasti

ELK + Filebeat +Nginx 集中式日志分析平台(一)

一.环境准备 本次我们采用 yum 官方仓库进行安装,之前采用 rpm 包安装的文档大家请看 http://blog.51cto.com/wzlinux/2175836 . 1.软件版本 Filebeat 6.5.1Logstash 6.5.1Elasticsearch 6.5.1Kibana 6.5.1JDK 1.8.0_181 2.服务器准备 IP 系统 角色 172.18.8.200 CentOS 7.5 Minimal Elasticsearch + Kibana 172.18.8.20

centos7搭建ELK Cluster集群日志分析平台(三)

续  centos7搭建ELK Cluster集群日志分析平台(一) 续  centos7搭建ELK Cluster集群日志分析平台(二) 已经安装好elasticsearch 5.4集群和logstash 5.4 安装kibana步骤 1.下载安装Kibana  ~]#wget https://artifacts.elastic.co/downloads/kibana/kibana-5.4.0-x86_64.rpm 如果链接失效,官网下载:https://www.elastic.co/down

centos7搭建ELK Cluster集群日志分析平台(二)

续  centos7搭建ELK Cluster集群日志分析平台(一) 已经安装完Elasticsearch 5.4 集群. 安装Logstash步骤 1. 安装Java 8 官方说明:需要安装Java 8 ,不支持Java 9... //自行安装,略过 2. 安装Logstash 可以同elasticsearch一样建立repo文件通过yum安装,也可以去官网直接下载rpm包进行本地安装:   ~]# rpm -ivh logstash-5.4.0.rpm  //这里直接下载好进行本地安装 3.

centos7搭建ELK Cluster集群日志分析平台(四):简单测试

续之前安装好的ELK集群 各主机:es-1 ~ es-3 :192.168.1.21/22/23 logstash: 192.168.1.24 kibana: 192.168.1.25 测试机:client: 192.168.1.26 在测试机上安装并启动filebeat 1. 下载filebeat  ~]# wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.4.0-linux-x86_64.tar.gz

Centos7下ELK+Redis日志分析平台的集群环境部署记录

之前的文档介绍了ELK的架构基础知识,下面简单记录下ELK结合Redis搭建日志分析平台的集群环境部署过程,大致的架构如下: + Elasticsearch是一个分布式搜索分析引擎,稳定.可水平扩展.易于管理是它的主要设计初衷 + Logstash是一个灵活的数据收集.加工和传输的管道软件 + Kibana是一个数据可视化平台,可以通过将数据转化为酷炫而强大的图像而实现与数据的交互将三者的收集加工,存储分析和可视转化整合在一起就形成了ELK. 基本流程:1)Logstash-Shipper获取日