用Kibana+Logstash+Elasticsearch快速搭建实时日志查询 收集与分析系统

安装环境

先看看都需要安装什么软件包
ruby 运行Kibana 必须,

rubygems 安装ruby扩展必须

bundler 功能类似于yum

JDK 运行java程序必须

redis 用来处理日志队列

logstash 收集、过滤日志

ElasticSearch 全文搜索服务(logstash集成了一个)

kibana 页面展示

192.168.18.240 logstash index,kibana,JDK
192.168.18.241 logstash agent,JDK
192.168.18.242 redis
192.168.18.243 ElasticSearch,JDK

先安装redis (192.168.18.242)

#
wget http://redis.googlecode.com/files/redis-2.6.12.tar.gz

# tar zxvf redis-2.6.12.tar.gz

# mv redis-2.6.12 redis

# cd redis

# make -j24

# make install

# vi /root/soft/redis/redis.conf

修改level为 loglevel verbose

# redis-server /root/soft/redis/redis.conf &

看看 redis服务的状态

#  lsof -i:6379

安装elasticsearch (192.168.18.243)

 elasticsearch会依赖于java
 

# vi /etc/apt/sources.list

deb http://ftp.debian.org/debian/ squeeze main non-free

deb-src http://ftp.debian.org/debian/ squeeze main non-free

# apt-get update

# apt-cache search sun-java

# apt-get install sun-java6-jdk sun-java6-jre

# java -version


#
wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-0.20.6.zip

#

unzip
elasticsearch-0.20.6.zip

#
mv
elasticsearch-0.20.6

/usr/local/share/elasticsearch

#

cd /usr/local/share/elasticsearch/bin/

#
./elasticsearch -f

在 logstash index上安装基础的软件环境: (192.168.18.240)

#
vi /etc/apt/sources.list

deb
http:
//ftp.debian.org/debian/
squeeze main non-free

deb-src
http:
//ftp.debian.org/debian/
squeeze main non-free

#
apt-get update

#
apt-cache search sun-java

#
apt-get install sun-java6-jdk sun-java6-jre

#
java -version

开始安装logstash
(
其实logstash 就是一个java脚本,不需要安装... 下载即用 )

# wget https://logstash.objects.dreamhost.com/release/logstash-1.1.9-monolithic.jar

#  vi /root/soft/redis.conf

input {

redis {

host => ‘192.168.18.242‘

data_type => ‘list‘

port => "6379"

key => ‘logstash:redis‘

type => ‘redis-input‘

}

}

output {

elasticsearch {

host => ‘192.168.18.243‘

port => "9300"

}

}

#  java -jar /root/soft/logstash-1.1.9-monolithic.jar agent -f /root/soft/redis.conf -- web --backend elasticsearch:///?local

 现在可以通过浏览器访问一下 http://192.168.18.240:9292 看看logstash是的页面是个什么样子

配置logstash的agent (192.168.18.241)

安装sun-java6-jre sun-java6-jdk

#
wget https://logstash.objects.dreamhost.com/release/logstash-1.1.9-monolithic.jar

#  vi /root/soft/redis.conf

input {

stdin {

type => "stdin-type"

}

file {

type => "linux-syslog"

# Wildcards work, here :)

path => [ "/var/log/*.log", "/var/log/messages", "/var/log/syslog" ]

}

}

output {

redis {

host => ‘192.168.18.242‘

data_type => ‘list‘

key => ‘logstash:redis‘

}

}

#  java -jar /root/soft/logstash-1.1.9-monolithic.jar agent -f /root/soft/redis.conf &

OK,最后就是 Kibana了 ,我把Kibana装在了 logstash index上面

下载地址为 http://kibana.org/intro.html

  1. #
    apt-get install ruby rubygems
  2. # gem install bundler
  3. # bundle install
         ( /var/lib/gems/1.8/bin/bundle install )
  4. 以上为ruby运行环境
  5. wget https://github.com/rashidkpc/Kibana/archive/v0.2.0.tar.gz
  6. # tar zxvf Kibana-0.2.0.tar.gz
  7. # cd Kibana-0.2.0
  8. 直接安装就好了,非常简单,因为之前咱们已经安装好了 bundle
  9. 编辑配置文件,指定 elasticsearch 的位置
  10. [192.168.18.240 root@nodec:/soft/Kibana-0.2.0]
  11. # vim KibanaConfig.rb
  12. .....
  13. Elasticsearch = "192.168.18.243:9200"
  14. KibanaPort = 5601
  15. KibanaHost = ‘0.0.0.0‘
  16. .....
  17. 主要是这几个参数
  18. 启动的话需要ruby
  19. [192.168.18.240 root@nodec:/soft/Kibana-0.2.0]
  20. # /usr/bin/ruby kibana.rb &
  21. [192.168.18.240 root@nodec:/soft/Kibana-0.2.0]
  22. # == Sinatra/1.3.5 has taken the stage on 5601 for development with backup from Thin
  23. >> Thin web server (v1.5.0 codename Knife)
  24. >> Maximum connections set to 1024
  25. >> Listening on 0.0.0.0:5601, CTRL+C to stop
  26. 如果ruby的东西都不缺的话,启动会很顺利,ok 现在看看5601端口的状态
  27. [192.168.233.128 root@nodec:/soft/Kibana-0.2.0]
  28. # lsof -i:5601
  29. COMMAND  PID USER   FD   TYPE DEVICE SIZE NODE NAME
  30. ruby    3116 root    5u  IPv4  28947       TCP *:esmagent (LISTEN)

访问一下 试试看 http://192.168.18.240:5601 尝试搜索一下php的错误日志,比如mysql

呵呵,要的就是这个效果,日志会实时的汇总到 logstash index 上供我们查询,当然这只是开始使用logstash的第一步而已,更多的高级功能可以看看官方文档
http://logstash.net/docs/1.1.9/

再分享一下我老师大神的人工智能教程吧。零基础!通俗易懂!风趣幽默!还带黄段子!希望你也加入到我们人工智能的队伍中来!https://blog.csdn.net/jiangjunshow

原文地址:https://www.cnblogs.com/swchswhih/p/10391629.html

时间: 2024-08-28 06:13:09

用Kibana+Logstash+Elasticsearch快速搭建实时日志查询 收集与分析系统的相关文章

用Kibana和logstash快速搭建实时日志查询、收集与分析系统

Logstash是一个完全开源的工具,他可以对你的日志进行收集.分析,并将其存储供以后使用(如,搜索),您可以使用它.说到搜索,logstash带有一个web界面,搜索和展示所有日志.kibana 也是一个开源和免费的工具,他可以帮助您汇总.分析和搜索重要数据日志并提供友好的web界面.他可以为 Logstash 和 ElasticSearch 提供的日志分析的 Web 界面说到这里,我们看看 kibana 和 logstash到底能为我们做些什么呢?下面是kibana的界面 简单来讲他具体的工

用ElasticSearch,LogStash,Kibana搭建实时日志收集系统

用ElasticSearch,LogStash,Kibana搭建实时日志收集系统 介绍 这套系统,logstash负责收集处理日志文件内容存储到elasticsearch搜索引擎数据库中.kibana负责查询elasticsearch并在web中展示. logstash收集进程收获日志文件内容后,先输出到redis中缓存,还有一logstash处理进程从redis中读出并转存到elasticsearch中,以解决读快写慢速度不一致问题. 官方在线文档:https://www.elastic.co

elasticsearch + logstash + kibana 搭建实时日志收集系统【原创】

实时日志统一收集的好处: 1.快速定位集群中问题机器 2.无需下载整个日志文件(往往比较大,下载耗时多) 3.可以对日志进行统计 a.发现出现次数最多的异常,进行调优处理 b.统计爬虫ip c.统计用户行为,做聚类分析等 基于上面的需求,我采用了 ELK(elasticsearch + logstash + kibana)的方案,安装方法请到他们的官网:https://www.elastic.co/ 上面查询,这里我主要讲讲我遇到的问题. ??????1.LVS 分发UDP请求不成功的问题???

ELK搭建实时日志分析平台之二Logstash和Kibana搭建

本文书接前回<ELK搭建实时日志分析平台之一ElasticSearch> 文:铁乐与猫 四.安装Logstash logstash是一个数据分析软件,主要目的是分析log日志. 1)下载和解压logstash 下载地址: https://www.elastic.co/cn/downloads/logstash 上传到服务器/usr/ELK目录后,解压:sudo tar -zxvf logstash-6.1.3.tar.gz 我下的这个6.1.3版本的logstash tar包大小有110多M了

结合Docker快速搭建ELK日志收集分析平台

结合Docker快速搭建ELK日志收集分析平台 2017-03-27 09:39 阅读 172 评论 0 作者:马哥Linux运维-Eason ELK Stack ELK (Elasticsearch + Logstash + Kibana),是一个开源的日志收集平台,用于收集各种客户端日志文件在同一个平台上面做数据分析. Introduction Elasticsearch, 基于json分析搜索引擎Logstash, 动态数据收集管道Kibana, 可视化视图将elasticsearh所收集

Kibana+Logstash+Elasticsearch+Redis安装部署

最近做日志分析,发现logstash较符合自己的需求, Logstash:做系统log收集,转载的工具.同时集成各类日志插件,对日志查询和分析的效率有很大的帮助.一般使用shipper作为log收集.indexer作为log转载. Logstash shipper收集log 并将log转发给redis 存储 Logstash indexer从redis中读取数据并转发给elasticsearch redis:是一个db,logstash shipper将log转发到redis数据库中存储.Log

[Big Data - ELK] ELK(ElasticSearch, Logstash, Kibana)搭建实时日志分析平台

ELK平台介绍 在搜索ELK资料的时候,发现这篇文章比较好,于是摘抄一小段: 以下内容来自: http://baidu.blog.51cto.com/71938/1676798 日志主要包括系统日志.应用程序日志和安全日志.系统运维和开发人员可以通过日志了解服务器软硬件信息.检查配置过程中的错误及错误发生的原因.经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误. 通常,日志被分散的储存不同的设备上.如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志.这

ELK(ElasticSearch, Logstash, Kibana)搭建实时日志分析平台

日志主要包括系统日志.应用程序日志和安全日志.系统运维和开发人员可以通过日志了解服务器软硬件信息.检查配置过程中的错误及错误发生的原因.经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误. 通常,日志被分散的储存不同的设备上.如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志.这样是不是感觉很繁琐和效率低下.当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总. 集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事

快速搭建ELK日志分析系统

一.ELK搭建篇 官网地址:https://www.elastic.co/cn/ 官网权威指南:https://www.elastic.co/guide/cn/elasticsearch/guide/current/index.html 安装指南:https://www.elastic.co/guide/en/elasticsearch/reference/5.x/rpm.html ELK是Elasticsearch.Logstash.Kibana的简称,这三者是核心套件,但并非全部. Elas