ELK之八----Logstash结合kafka收集系统日志和nginx日志

一、logstash结合kafka收集系统日志和nginx日志

架构图:

环境准备:

A主机:kibana、elasticsearch,有条件可以将两个服务器分开:192.168.7.100

B主机:logstash主机:192.168.7.101/nginx服务器也在此主机上

C主机:logstash主机:192.168.7.102

D主机:kafka/zookeeper:192.168.7.104

E主机:kafka/zookeeper:192.168.7.105

1、使用logstash-B主机收集系统日志和nginx日志写入kafka

1、我们在搭建完kafka及zookeeper的基础上,选择提取zookeeper的leader的主机进行存储

[[email protected] ~]# /usr/local/zookeeper/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: leader  # 查看到192.168.7.105主机是leader模式

2、在logstash主机/etc/logstash/conf.d/目录下创建收集系统日志和nginx日志的文件

[[email protected] conf.d]# cat log-to-kafka.conf
input {
  file {
    path => "/var/log/messages"
    type => "kafka-syslog-log-7-101" # 定义系统日志类型
    start_position => "beginning"
    stat_interval => "2"
  }

  file {
    path => "/var/log/nginx/access.log"
    type => "kafka-nginx-access-log-7-101" # 定义nginx的日志类型
    start_position => "beginning"
    stat_interval => "2"
    codec => "json"  # 如果是json格式的日志,必须写入json格式
  }
}

output {
 if [type] == "kafka-syslog-log-7-101" {
    kafka {
      topic_id => "kafka-syslog-log-7-101"
      bootstrap_servers => "192.168.7.105:9092"  # 指定写入到kafka的leader主机的IP地址上
      codec => "json" # 写入的时候使用json编码,因为logstash收集后会转换为json格式
    }
  file {
    path => "/tmp/syslog.log" # 将收集到的访问系统的日志临时存在此文件下,方便排错,解决问题后,可以删除此两项
   }}

 if [type] == "kafka-nginx-access-log-7-101" {
    kafka {
      topic_id => "kafka-nginx-access-log-7-101"
      bootstrap_servers => "192.168.7.105:9092" # 指定写入到kafka主机的IP地址
      codec => "json" # 写入的时候使用json编码,因为Logstash收集后会转换为json格式
    }
 file {
    path => "/tmp/nginx-access.log" # 临时先存放在此文件下,方便排错,如果没有错误,可以删除此项
   }}
}

2、验证logstash配置文件的正确性

[[email protected] conf.d]# logstash -f log-to-kafka.conf

3、开始访问nginx网页,(192.168.7.101:80)再查看访问的临时log信息

4、在logstash主机上测试系统日志访问情况

[[email protected] ~]# echo 1 >> /var/log/messages
[[email protected] ~]# echo 2 >> /var/log/messages
[[email protected] ~]# echo 3 >> /var/log/messages 

5、查看此时的临时文件信息

此时测试logstash收集到日志写入到kafka中正常,可以将测试的file部分脚本删除掉,然后启动logstash服务。

  file {
    path => "/tmp/syslog.log" # 删除掉两个测试部分
   }

 file {
    path => "/tmp/nginx-access.log"
   }

启动D主机的logstash服务。

# systemctl start logstash

2、配置logstash-C主机从kafka读取系统日志和nginx日志

1、在logstash-A主机的/etc/logstash/conf.d/目录下创建一个收集kafka配置文件

input {
   kafka {
      topics => "kafka-syslog-log-7-101"
      bootstrap_servers => "192.168.7.105:9092"  # 从kafka的leader主机上提取缓存
      codec => "json"  # 在提取kafka主机的日志时,需要写成json格式
   }

[[email protected] conf.d]# vim kafka-to-es_logstash.conf
    kafka {
      topics => "kafka-nginx-access-log-7-101"
      bootstrap_servers => "192.168.7.105:9092" # 从kafka的leader主机提取数据
      codec => "json"  # 提取kafka日志时,需要写成json格式
   }

}

output {
  if [type] == "kafka-syslog-log-7-101" {  # 转到elasticsearch主机上
   elasticsearch {
      hosts => ["192.168.7.100:9200"]
      index => "kafka-syslog-7-101-%{+YYYY.ww}" # YYYY代表年,ww代表周
    }}

  if [type] == "kafka-nginx-access-log-7-101" {  # 转到elasticsearch主机上
   elasticsearch {
      hosts => ["192.168.7.100:9200"]
      index => "kafka-nginx-access-log-7-101-%{+YYYY.MM.dd}"
    }}
}

2、启动logstash-B主机的服务器

# systemctl start logstash

3、在head插件上查看收集到的信息,已经收集到了syslog和nginx的log

3、在kibana网页上创建索引

1、在kibana创建索引

2、在discover查看nginx日志信息

3、在logstash-D主机的系统日志中输入信息,在discover查看系统日志信息

[[email protected] conf.d]# echo  1 >> /var/log/messages
[[email protected] conf.d]# echo  2 >> /var/log/messages
[[email protected] conf.d]# echo  3 >> /var/log/messages

  

原文地址:https://www.cnblogs.com/struggle-1216/p/12499293.html

时间: 2024-08-12 02:09:47

ELK之八----Logstash结合kafka收集系统日志和nginx日志的相关文章

ELK之六-----logstash结合redis收集系统日志和nginx访问日志

一.logstash结合redis收集系统日志 架构图: 环境准备: A主机:elasticsearch主机     IP地址:192.168.7.100 B主机:logstash主机            IP地址:192.168.7.102 C主机:redis主机                IP地址:192.168.7.103 D主机:logstash主机/nginx主机          IP地址:192.168.7.101 1.安装并配置redis 1.安装并配置redis服务,并启

ELK之logstash系统日志和nginx日志收集-4

logstash常用参数 1 path 是必须的选项,每一个file配置,都至少有一个path 2 exclude 是不想监听的文件,logstash会自动忽略该文件的监听.配置的规则与path类似,支持字符串或者数组,但是要求必须是绝对路径. 3 start_position 是监听的位置,默认是end,即一个文件如果没有记录它的读取信息,则从文件的末尾开始读取,也就是说,仅仅读取新添加的内容.对于一些更新的日志类型的监听,通常直接使用end就可以了:相反,beginning就会从一个文件的头

elk分析nginx日志和tomcat日志

一.介绍 Elasticsearch + Logstash + Kibana(ELK)是一套开源的日志管理方案. Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等. Logstash是一个完全开源的工具,它可以对你的日志进行收集.分析,并将其存储供以后使用 kibana 是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web

系统日志和loganalyzer

作为运维人员,熟悉系统日志是一项基本功.本文将介绍centos6的系统日志rsyslog及loganalyzer工具. 简介 系统日志:记录历史事件,通常都是按时间顺序将发生的事件予以记录,linux上的日志分为syslogd(系统进程相关日志)和klogd(内核事件日志) centos5:syslog 缺点:不能进行并行数据存储,效率低,不能实现放在专用数据管理文件中 centos6:rsyslog 优点: 1.支持多线程 2.基于tcp,tls,relp放在远程日志服务器中,早期的syslo

log4net VS2012 日志layout自定义,error日志和info日志分别记录到不同文件中

打开VS中“工具”=>“NuGet程序包管理器”=>“管理解决方案的NuGet程序包”菜单 在“管理NuGet程序包”窗口中,搜索log4net,并安装 有时候,我们在日志中需要记录一些业务数据,如operator等信息,我们新建一个类WebMethodLog,来存放log里面需要用到的信息 public class WebMethodLog { public string operatorNo{get;set;} public string operatorName { get; set;

ELK+kafka构建日志收集系统

ELK+kafka构建日志收集系统 原文  http://lx.wxqrcode.com/index.php/post/101.html 背景: 最近线上上了ELK,但是只用了一台Redis在中间作为消息队列,以减轻前端es集群的压力,Redis的集群解决方案暂时没有接触过,并且Redis作为消息队列并不是它的强项:所以最近将Redis换成了专业的消息信息发布订阅系统Kafka, Kafka的更多介绍大家可以看这里: 传送门 ,关于ELK的知识网上有很多的哦, 此篇博客主要是总结一下目前线上这个

基于Flume的美团日志收集系统(二)改进和优化

问题导读: 1.Flume-NG与Scribe对比,Flume-NG的优势在什么地方? 2.架构设计考虑需要考虑什么问题? 3.Agent死机该如何解决? 4.Collector死机是否会有影响? 5.Flume-NG可靠性(reliability)方面做了哪些措施? 美团的日志收集系统负责美团的所有业务日志的收集,并分别给Hadoop平台提供离线数据和Storm平台提供实时数据流.美团的日志收集系统基于Flume设计和搭建而成. <基于Flume的美团日志收集系统>将分两部分给读者呈现美团日

基于Flume的美团日志收集系统(一)架构和设计【转】

美团的日志收集系统负责美团的所有业务日志的收集,并分别给Hadoop平台提供离线数据和Storm平台提供实时数据流.美团的日志收集系统基于Flume设计和搭建而成. <基于Flume的美团日志收集系统>将分两部分给读者呈现美团日志收集系统的架构设计和实战经验. 第一部分架构和设计,将主要着眼于日志收集系统整体的架构设计,以及为什么要做这样的设计. 第二部分改进和优化,将主要着眼于实际部署和使用过程中遇到的问题,对Flume做的功能修改和优化等. 1 日志收集系统简介 日志收集是大数据的基石.

基于Flume的美团日志收集系统(一)架构和设计

来自:美团技术博客 http://tech.meituan.com/mt-log-system-arch.html 美团的日志收集系统负责美团的所有业务日志的收集,并分别给Hadoop平台提供离线数据和Storm平台提供实时数据流.美团的日志收集系统基于Flume设计和搭建而成. <基于Flume的美团日志收集系统>将分两部分给读者呈现美团日志收集系统的架构设计和实战经验. 第一部分架构和设计,将主要着眼于日志收集系统整体的架构设计,以及为什么要做这样的设计. 第二部分改进和优化,将主要着眼于