ELK 5.0部署安装

版本说明:

Elasticsearch 5.0

Logstash 5.0(暂时未用)

Filebeat 5.0

Kibana 5.0

ELK是一套采集日志并进行清洗分析的系统,由于目前的分析的需求较弱,所以仅仅采用filebeat做日志采集,没有使用logstash

一、环境准备&&软件安装:

1、首先,需要安装Java环境

下载安装包:jre-8u111-linux-x64.rpm

安装:yum install jre-8u111-linux-x64.rpm

2、 新建一个用户,elsearch,用来启动elasticsearch,因为该软件必须用普通用户启动。

useradd elsearch

3、修改变量参数:否则启动elasticsearch会报bootstrap错误。

     1、ulimit -u 10240  #
   2、vim /etc/sysctl.conf
     vm.max_map_count = 655360
     sysctl -p
   3、vim /etc/security/limits.conf
    *        soft    noproc 65536
    *        hard    noproc 65536
    *        soft    nofile 65536
    *        hard    nofile 65536

4、软件安装

安装包下载地址:https://www.elastic.co/downloads

使用的是绿色安装包,解压即用。

1、filebeat安装

     tar -xvf filebeat-5.0.0-linux-x86_64.tar.gz
     cp filebeat-5.0.0-linux-x86_64 /usr/local/filebeat -r

2、kibana安装

     tar -xvf kibana-5.0.0-linux-x86_64.tar.gz
     cp kibana-5.0.0-linux-x86_64 /usr/local/kibana -r

3、logstash安装(暂时未用)

     tar -xvf logstash-5.0.0.tar.gz
     cp logstash-5.0.0 /usr/local/logstash -r

4、elasticsearch安装

     unzip elasticsearch-5.0.0.zip
     cp elasticsearch-5.0.0 /usr/local/elasticsearch -r

二、配置&&启动

1、启动elasticsearch

   cd /usr/local/
   chown -R elsearch:elsearch elasticsearch 将权限给elsearch用户
   su elsearch
   cd /usr/local/elasticsearch

修改配置文件如下:

   cat config/elasticsearch.yml |grep -v "#"
     path.data: /usr/local/elasticsearch/data
     path.logs: /usr/local/elasticsearch/logs
     network.host: 192.168.221.30
     http.port: 9200

启动:

   cd /usr/local/elasticsearch/bin
   ./elasticsearch   #使用-d参数,放到后台执行

查看启动情况:

   [[email protected] elasticsearch]# lsof -i:9200
   COMMAND   PID     USER   FD   TYPE DEVICE SIZE/OFF NODE NAME
   java    29987 elsearch  237u  IPv6 470519   0t0  TCP 192.168.221.30:wap-wsp

在浏览器中查看:

输入:192.168.221.30:9200

能看到类似信息则启动成功:

{
  "name" : "FrmZoqD",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "IcATEXFBQkGsZdh4P_TiTw",
  "version" : {
    "number" : "5.0.0",
    "build_hash" : "253032b",
    "build_date" : "2016-10-26T04:37:51.531Z",
    "build_snapshot" : false,
    "lucene_version" : "6.2.0"
  },
  "tagline" : "You Know, for Search"
}

注意本机防火墙要关掉。

2、配置&&启动filebeat

修改配置文件:

   cd /usr/local/filebeat
   cp filebeat.yml filebeat.yml.default
      vim filebeat.yml
      filebeat.prospectors:
      - input_type: log
       paths:
         - /var/log/messages
      document_type: "messages"

      output.elasticsearch:
        hosts: ["192.168.221.30:9200"]  #filebeat传到Elasticsearch
        index: filebeat-%{+yyyy.MM.dd}  #这里的索引index会跟kibana的索引有关系
   touch /var/log/test.log  #测试日志文件

启动:

   ./filebeat -e -c filebeat.yml -d "publish"

测试

输入一条语句进行测试

   echo "hello,test" >test.log

能看到beat已经将输入的log采集到了。

将filebeat放入后台执行:

   nohup  ./filebeat -e -c filebeat.yml >>/dev/null 2>&1 &

3、配置&&启动kibana

修改配置:

   cd /usr/local/kibana
   vim config/kibana.yml
   server.port: 5601
   server.host: "27.131.221.30"
   elasticsearch.url: "http://27.131.221.30:9200"

修改以上三项。

启动动服务:

   cd /usr/local/kibana/bin/
   ./kibana

如果都配置正确的话,会进入到kibana的页面,刚开始会让你配置一个index索引

这条索引跟我们上面filebeat里面配置的索引有关。

filebeat-*

*就是时间格式,我们是按照时间来进行索引的。

如果是用logstash进行采集数据的话,那么索引就是logstash-*

当然,我们也可以配置多条索引,例如我们同时用filebeat和logstash进行采集不同的业务日志。

最终的形式应该是这样的:

时间: 2024-10-06 10:26:36

ELK 5.0部署安装的相关文章

Hadoop0.21.0部署安装以及mapreduce测试

鉴于hadoop的需要...但是并不限于此...有时候闲输入密码麻烦,也可以用这种办法从一个节点通过ssh进入另一个节点... 设要使master进入slave是免密码的,则可以在master(ip为192.168.169.9)中如下操作: 命令:ssh-keygen -t rsa  然后一路回车(该命令不需要进入特定目录) cd进入/root/.ssh/可以看见如下(橙色是新生成的) id_rsa  id_rsa.pub  known_hosts 然后用scp命令将id_rsa远程传输到sla

Hadoop 2.2.0部署安装(笔记,单机安装)

SSH无密安装与配置 具体配置步骤: ◎ 在root根目录下创建.ssh目录 (必须root用户登录) cd /root & mkdir .ssh chmod 700 .ssh & cd .ssh ◎ 创建密码为空的 RSA 密钥对: ssh-keygen -t rsa -P "" ◎ 在提示的对称密钥名称中输入 id_rsa将公钥添加至 authorized_keys 中: cat id_rsa.pub >> authorized_keys chmod 6

Hadoop2.6+Zookper3.4+Hbase1.0部署安装

继hadoop完全分布式安装后,再结合zookper+hbase安全.在之前环境配置下继续进行. 一.zookper安装 1.1 下载并解压软件 cd /software wget -c http://apache.fayea.com/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz tar -zxf zookeeper-3.4.10.tar.gz -C /usr/local/ ln -sv /usr/local/zookeeper-3.4.1

Sql Server Compact 4.0数据库部署安装

Sql Server Compact 4.0相比3.5版本增强了很多,支持Entity Framework 4.1,对于轻量级应用来讲,使用Sql Server Compact 4.0是个很好的选择,而且部署相当方便,不需要 Sql Server Compact 4.0的安装包,仅需要发布相关的dll以及web.config配置即可. 开发环境下,需要安装 vs2010 sp1 Microsoft SQL Server Compact 4.0 Visual Studio 2010 SP1 Too

Flume1.5.0的安装、部署、简单应用(含分布式、与hadoop2.2.0、hbase0.96的案例)

目录: 一.什么是Flume? 1)flume的特点 2)flume的可靠性 3)flume的可恢复性 4)flume 的 一些核心概念 二.flume的官方网站在哪里? 三.在哪里下载? 四.如何安装? 五.flume的案例 1)案例1:Avro 2)案例2:Spool 3)案例3:Exec 4)案例4:Syslogtcp 5)案例5:JSONHandler 6)案例6:Hadoop sink 7)案例7:File Roll Sink 8)案例8:Replicating Channel Sel

app-v 5.0 sp3 安装部署与维护

App-v 5.0 sp3安装部署与维护 软件介绍: App-v 为应用程序虚拟化, 包含在微软桌面优化包 (Microsoft Desktop Optimization Pack)中: http://www.microsoft.com/zh-cn/windows/enterprise/products-and-technologies/mdop/default.aspx app-v 包含三个程序, 分别是客户端.服务器端(发布端).应用程序序列化端(Sequencer) 下载: MDOP目前最

_00024 尼娜抹微笑伊拉克_云计算ClouderaManager以及CHD5.1.0群集部署安装文档V1.0

笔者博文:妳那伊抹微笑 itdog8 地址链接 : http://www.itdog8.com(个人链接) 博客地址:http://blog.csdn.net/u012185296 博文标题:_00024 妳那伊抹微笑_云计算之ClouderaManager以及CHD5.1.0集群部署安装文档V1.0 个性签名:世界上最遥远的距离不是天涯,也不是海角.而是我站在妳的面前.妳却感觉不到我的存在 技术方向:Flume+Kafka+Storm+Redis/Hbase+Hadoop+Hive+Mahou

Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装

因为个人太懒,所以很多配图没有上传,完整的部署安装教程另外备份了.这里记录一下防止文档丢了   Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装 目录 1 服务器配置 2 Hadoop安装 3 Hbase安装 4 Hive安装 版本控制信息 版本 日期 拟稿和修改 说明 1.0 2012-11-27 Yoan.Liang 报文标准初稿(内部版本:1000) 1       服务器配置 1.1    下载安装JDK 1.2    修改NameNode与DataNo

Storm-0.9.0.1安装部署 指导

可以带着下面问题来阅读本文章: 1.Storm只支持什么传输 2.通过什么配置,可以更改Zookeeper默认端口 3.Storm UI必须和Storm Nimbus部署在同一台机器上,UI无法正常工作为什么 2.Storm-0.9.0.1大概经过几个步骤 Twitter Storm更新0.9.0.1之后,安装部署变得容易得多了,比起Storm0.8.x的版本,Storm少了zeromq和jzmq的安装,也省去了很多编译这些插件时出现的bug. 1.Storm-0.9.0.1 版本的亮点: 1.