Logstash日志搜集

软件准备:

logstash-2.1.0.zip

elasticsearch-2.1.0.zip

kibana-4.3.0-windows.zip

Redis-x64-2.8.2104.msi

下载地址:http://pan.baidu.com/s/1jHyw9Qe

 

安装软件

1、安装Redis,根据向导直接安装

2、解压logstash-2.1.0.zip到两个目录:logstash logstashagent

3、解压kibana-4.3.0-windows.zip 到目录:kibana,同时修改bin目录下脚本:

    

4、elasticsearch-2.1.0.zip 解压到目录:elasticsearch

解压后的目录结构如下:

准备相关脚本:

1、启动服务脚本start.bat

此脚本用于启动:es kibana Logstash server

其中logsrash-server.conf内容如下:

input{
redis{
host=>"127.0.0.1"
key=>"logstash"
data_type=>"list"
}
}
output{
elasticsearch {
hosts=>"127.0.0.1:9200"
}
}

2、logstash agent启动脚本startagent.bat,内容如下:

其中logsrash-agent.conf内容如下:

 

完成以上配置后,就可以启动批处理命令

 

设置kibana,打开http://localhost:5601/

 

数据分析:

参考:

https://www.elastic.co/guide/en/logstash/current/plugins-inputs-file.html

https://www.elastic.co/guide/en/logstash/current/plugins-filters-date.html

https://www.elastic.co/guide/en/logstash/current/plugins-filters-grok.html

https://www.elastic.co/guide/en/logstash/current/plugins-codecs-multiline.html

http://www.cnblogs.com/vovlie/p/4227027.html

http://www.cnblogs.com/shantu/p/4598875.html

http://www.cnblogs.com/yxwkf/p/4753778.html

时间: 2024-12-29 07:38:30

Logstash日志搜集的相关文章

OpenStack日志搜集分析之ELK

ELK 安装配置简单,用于管理 OpenStack 日志时需注意两点: Logstash 配置文件的编写 Elasticsearch 日志存储空间的容量规划 另外推荐 ELKstack 中文指南. ELK 简介 ELK 是一套优秀的日志搜集.存储和查询的开源软件,广泛用于日志系统.当 OpenStack 集群达到一定规模时,日志管理和分析显得日益重要,良好统一的日志管理和分析平台有助于快速定位问题.Mirantis 的 fuel 和 HPE 的 helion 均集成了 ELK. Logstash

使用Docker搭建ELK日志搜集系统(二)

导读:上篇介绍了ELF/EFK中Elasticsearch.Kibana的配置安装,这篇开始介绍Fluentd做为日志搜集工具的配置安装 Fluentd是什么? Fluented 是一个开源免费的日志搜集工具,经常代替Logstash(EFK),支持的插件非常多,对docker支持较好 Fluentd尽量将数据结构化为JSON:这允许Fluentd统一处理日志数据的所有方面:收集.过滤.缓冲和跨多个源和目的地输出日志(统一日志层) 使用JSON进行下游数据处理要容易得多,因为它有足够的结构,可以

logstash日志分析

nodejs npm  install  安装环境 logstash日志分析,图形界面展示 小的搜索引擎,图形界面展示 ruby开发的工具,封装成java环境的jar包 logstash 分析 读日志  从后往前读  实时 elastic search    存储 kibana  展示  web页面 java -jar logstash-1.3.2-flatjar.jar agent -f logstash.conf -- web http://192.168.1.17:9292/index.h

logstash日志收集分析系统elasticsearch&kibana

logstash日志收集分析系统Logstash provides a powerful pipeline for storing, querying, and analyzing your logs. When using Elasticsearch as a backend data store and Kibana as a frontend reporting tool, Logstash acts as the workhorse. It includes an arsenal of

logstash日志系统搭建

本文将介绍如果使用logstash,elasticsearch,kibana搭建一个日志分析系统.Logstash支持的日志类型非常的广泛,支持nginx,postfix.windows系统日志,java日志以及mysql慢查询日志,Docker日志等,并带有强大的过滤器功能,还可以输出到elasticsearch,nagios,mail等,功能相当的强大,在我们要部署的日志分析系统中logstash用来收集各种日志,然后推送给elasticsearch,kibana负责通过web接口最终展示出

logstash日志收集展示与邮件报警

有时候我们需要对一些服务器日志进行分析,并对其中错误的日志进行报警,在这里我们采用logstash来收集这些日志,和采用自己开发的邮件发送系统来发送错误日志数据. 例如我们有几个文件需要监控(BI日志) 我们可以通过配置logstash来收集这些文件日志 input{ file{ path=> "/diskb/bidir/smartbi_prd_*/apache-tomcat-5.5.25_prd_*/logs/catalina.out" start_position=>

目前线上环境(ubuntu server)终于部署好一个logstash日志收集系统了

断断续续的看了一周logstash的文档,总算在线上ubuntu搭建起来一个logstash环境了.现在分享一下自己的经验 关于logstash 这玩意现在还算是火爆,依托于elasticsearch这棵大树下,logstash的关注度是非常高的,项目目前来说算是活跃.logstash是一个用于日志收集.分析的系统,架构设计非常灵活,几乎可以满足各种规模的需求. logstash的逻辑架构 logstash的逻辑架构其实一点都不复杂,经历收集->过滤->输出三个步骤即可简简单单的筛选与管理日志

LogStash日志分析系统

简介 通常日志管理是逐渐崩溃的--当日志对于人们最重要的时候,也就是出现问题的时候,这个渐进的过程就开始了.日志管理一般会经历一下3个阶段: 初级管理员将通过一些传统工具(如cat.tail.sed.awk.perl以及grep)对日志进行检查,但它的适用范围仅限于少量的主机和日志文件类型: 考虑到现实中的可扩展性问题,日志管理也会逐步进化,使用如rsyslog和syslog-ng这样的工具进行集中化的管理: 当日志信息越来越大的时候,从快速增长的日志数据流中提取出所需的信息,并将其与其他相关联

spring boot 集成logstash 日志

1.logstash 插件配置 logstash下config文件夹下添加 test.conf 文件内容: input{ tcp { mode => "server" host => "0.0.0.0" port => 4567 codec => json_lines } } output{ elasticsearch{ hosts=>["127.0.0.1:9200"] index => "user