运维之我的docker-使用ELK处理docker日志

因为docker产生的容器不是一个永久存储的文件,所以无法保证你的文件永久保存。建议大家把容器产生的日志通过fluentd,flume,logstash等工具传送到一个日志仓库,这样保证方便保证数据的安全和管理。由于docker官方的推荐,我们本次讲解是fluentd日志收集组件。

具体使用如下:

安装ES

1. 初始化环境

[[email protected] src]# vim /etc/sysctl.conf
vm.max_map_count = 290000

[[email protected] src]#vim/etc/security/limits.conf 
*        hard  nproc           20000
*        soft  nproc           20000
*        soft  nofile          290000
*        hard  nofile          290000
 
[[email protected] src]# cat /etc/security/limits.d/20-nproc.conf
# Default limit for number of user‘s processes to prevent
# accidental fork bombs.
# See rhbz #432903 for reasoning.
 
*          soft    nproc    290000
root       soft   nproc     unlimited
 
[[email protected] src]# sysctl -p
net.ipv4.ip_forward = 1
vm.max_map_count = 290000
[[email protected] src]# su - java
Last login: Sat Mar 18 00:40:54 CST 2017 on pts/1

查看参数是否生效
[[email protected] ~]$ ulimit -n
290000

2.下载elasticsearch安装包并安装

[[email protected] src]# wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.2.2.tar.gz
[[email protected] src]# tar zxf elasticsearch-5.2.2.tar.gz && mv elasticsearch-5.2.2 /usr/local/elasticsearch
cluster.name: docker_log
network.host: 0.0.0.0
[[email protected] local]# useradd java
[[email protected] local]# chown -R java:java elasticsearch
[[email protected] ~]$ nohup  /usr/local/elasticsearch/bin/elasticsearch &
[[email protected] elasticsearch]$ curl localhost:9200
{
  "name" : "t3_jC3D",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "ylQzD_hERziK29YF6O5bYg",
  "version" : {
    "number" : "5.2.2",
    "build_hash" : "f9d9b74",
    "build_date" : "2017-02-24T17:26:45.835Z",
    "build_snapshot" : false,
    "lucene_version" : "6.4.1"
  },
  "tagline" : "You Know, for Search"
}

安装fluentd

  1. 下载安装

    下面是监听本机24224端口收到日志,转发到192.168.199.116节点的ES上,索引名为docker_YYYY_mm

rpm -ivh http://packages.treasuredata.com.s3.amazonaws.com/2/redhat/7/x86_64/td-agent-2.1.3-0.x86_64.rpm
 
[[email protected] elasticsearch]# chown 777 /var/log/messages
[[email protected] elasticsearch]# cat /etc/td-agent/td-agent.conf
<source>
  type forward
  bind 0.0.0.0
  port 24224
  linger_timeout 0
  log_level info
</source>

#下面的filter会把所有标签为docker开头的日志里面的log字段进行单独解析,且这些日志的格式都为json
 <filter docker.**>
  @type parser
  format json
  key_name log
</filter>

<match docker.**>
  type elasticsearch
  host 192.168.198.116
  port 9200
  logstash_format true
  logstash_prefix docker
  logstash_dateformat %Y_%m
  index_name docker_log
  flush_interval 5s
  type_name docker
  include_tag_key true
</match>

2. 启动fluentd服务

systemctl
start td-agent

启动容器

1.首先修改nginx的日志格式为json

    log_format  main  ‘{"remote_addr": "$remote_addr", "remote_user": "$remote_user","time_local": "$time_local","request": "$request", ‘
                      ‘"status": "$status", "body_bytes_sent":"$body_bytes_sent","http_referer": "$http_referer" ,‘
                      ‘"http_user_agent": "$http_user_agent", "http_x_forwarded_for":"$http_x_forwarded_for"}‘;

2.启动容器

使用docker内置的日志驱动把日志传出给fluentd

docker run -dit -p 8080:80             -v /test/nginx.conf:/etc/nginx/nginx.conf              --log-driver=fluentd              --log-opt fluentd-address=localhost:24224              --log-opt tag="docker.{{.Name}}"              nginx
#测试docker访问正常             
[[email protected] ~]# curl localhost:8080
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
    body {
        width: 35em;
        margin: 0 auto;
        font-family: Tahoma, Verdana, Arial, sans-serif;
    }
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>

<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>

<p><em>Thank you for using nginx.</em></p>
</body>
</html>

安装kibana

下载kibana

wget https://artifacts.elastic.co/downloads/kibana/kibana-5.2.2-linux-x86_64.tar.gz

[[email protected] src]# tar zxf kibana-5.2.2-linux-x86_64.tar.gz 
[[email protected] src]# mv kibana-5.2.2-linux-x86_64 /usr/local/kibana
[[email protected] src]# cd /usr/local/kibana/
[[email protected] kibana]# vim config/kibana.yml 
server.host: "192.168.198.116"
elasticsearch.url: "http://localhost:9200"

启动kibana

[[email protected] kibana]# ./bin/kibana
  log   [17:06:42.720] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [17:06:42.831] [info][status][plugin:[email protected]] Status changed from uninitialized to yellow - Waiting for Elasticsearch
  log   [17:06:42.877] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [17:06:42.970] [info][status][plugin:[email protected]] Status changed from yellow to green - Kibana index ready
  log   [17:06:43.551] [info][status][plugin:[email protected]] Status changed from uninitialized to green - Ready
  log   [17:06:43.559] [info][listening] Server running at http://192.168.198.116:5601
  log   [17:06:43.562] [info][status][ui settings] Status changed from uninitialized to green - Ready

现在对web页面索引搜索进行配置

添加索引

现在你可以去看看你的日志了

  1. 查找发现
  2. 配置时间
  3. 配置最近15分钟的日志
  4. 开始搜索

现在大家可以开始通过kibana索搜日志了,但这个架构会出现一个问题,当es重启过程中会丢失部分日志,这时候我们就需要一个稳定的消息管理工具。这里我推荐大家使用kafka。

官网地址:http://kafka.apache.org/

时间: 2024-10-02 00:39:16

运维之我的docker-使用ELK处理docker日志的相关文章

面试宝典_Python.运维开发.0004.用Python实现tail实时输出新增日志?

面试题目: 1. 用PYTHON实现tail -f功能,默认显示最后15行,实时输出新增行? 解题思路: 1. 此需求在很多场景中都有遇到,而且在各大群中也被讨论过,虽然有现成的模版如pyinotify等模块实现,但面试更想通过你的解题思路来判断这场面试,具体到tail需要实现2个功能,一个实时输出新增内容,一个默认输出前15行,前者直接循环打开文件读取,全局变量中记录上次读取的位置,下一次循环seek到上次的位置读取即可,而对于默认显示前15行的做法是假设一行1000个字节,循环读取,当文件总

[ Linux运维学习 ] 路径及实战项目合集

我们知道运维工程师(Operations)最基本的职责就是负责服务的稳定性并确保整个服务的高可用性,同时不断优化系统架构.提升部署效率.优化资源利用率,确保服务可以7*24H不间断地为用户提供服务. 如果你想从事Linux运维相关工作,那么你可以来实验楼,因为实验上有: [Linux运维技术路径]:一条学习路径,多个阶段.若干课程带你一步步成为Linux运维工程师: [Linux运维与Devops实战]:12周时间,带你0基础到运维工程师,涵盖Linux运维常用技术和DevOps相关技术: --

利用 ELK 搭建 Docker 容器化应用日志中心

利用 ELK 搭建 Docker 容器化应用日志中心 概述 应用一旦容器化以后,需要考虑的就是如何采集位于 Docker 容器中的应用程序的打印日志供运维分析.典型的比如SpringBoot应用的日志收集. 本文即将阐述如何利用ELK日志中心来收集容器化应用程序所产生的日志,并且可以用可视化的方式对日志进行查询与分析,其架构如下图所示: 架构图 镜像准备 ElasticSearch镜像 Logstash镜像 Kibana镜像 Nginx镜像(作为容器化应用来生产日志) 开启Linux系统Rsys

我在网易云信是如何做运维的

先介绍下网易云信运维工程师的主要职责,包括但不限于软硬件部署.网络管理.应用代码维护.安全漏洞修复.容量规划.故障处理.性能优化等. 云信的运维工程师们很相信一个神圣的定律--墨菲定律:事情如果有变坏的可能,不管这种可能性有多小,它总会发生(Anything that can go wrong will go wrong).根据墨菲定律的推论,任何一个环节都不是100%靠谱的.而对于云信这样的及时通讯云平台来说,核心功能保证99.99%的可靠性,也就是说,一年不可用时长要小于52分钟.因此容灾是

运维最恨 4 件事:开发同学能帮忙做点啥?

运维最恨 4 件事:开发同学能帮忙做点啥? 05 MAY 2015 on 行业新闻 DevOps 这个词表明,开发和运维需要通力合作.然而在现实生活中,双方都会有不同的工作职责,同时看待问题的视角也不尽相同.大多数情况下,都是运维一方得到不公正待遇.为了让开发人员能更好地理解运维同学,而且能帮忙解决一些问题,本文分享了一些经验和看法.  1. 不断涌现出新开发技术 一般而言,开发人员通过产品功能来衡量工作成果,而系统管理员和运维团队则由稳定性指标来进行考量,后者往往反对这些新技术.开发同学使用这

运维是做什么的?史上最全互联网Linux工作规划!十分钟找到linux运维工程师职业方向!

首先祝贺你选择学习Linux,你可能即将踏上Linux的工作之旅,出发之前,让我带你来看一看关于Linux和Linux运维的一切. Linux因其高效率.易于裁剪.应用广等优势,成为了当今中高端服务器的主要操作系统,并且处于一个不可替代的地位.Linux可安装在各种计算机硬件设备中,比如手机.平板电脑.路由器.视频游戏控制台.台式计算机.大型机和超级计算机.随着Linux在中国市场迅猛发展,国内Linux人才缺口逐渐凸显.Linux人才招聘也成了当前最热门的招聘之一. 首先linux是一个非常非

02. SpringCloud实战项目-快速搭建Linux环境-运维必备

SpringCloud实战项目全套学习教程连载中 PassJava 学习教程 简介 PassJava-Learning项目是PassJava(佳必过)项目的学习教程.对架构.业务.技术要点进行讲解. PassJava 是一款Java面试刷题的开源系统,可以用零碎时间利用小程序查看常见面试题,夯实Java基础. PassJava 项目可以教会你如何搭建SpringBoot项目,Spring Cloud项目 采用流行的技术,如 SpringBoot.MyBatis.Redis. MySql. Mon

【IT运维监控】集团宕机引发对运维人员的思考 

前不久某大型集团官网和APP突然无法正常使用引发热议,不少人幸灾乐祸,也引发出了各种的谣言和段子,根本难以体会集团内部所受的压力,特别是作为一个大集团内部的运维人员所承受的各种压力和不安. 后 来,原支付宝运维团队负责人针对此事发表了一篇文章,让不少的运维人员深有感触,作为肩负运维监控使命的运维监控工具--PIGOSS BSM 也同样感同身受.面对层出不穷的运维安全隐患,当下运维人员急需一套高效的7*24小时都能担负监控任务的工具,为自身的运维工作减负,告别之前加班熬夜 但没有工作成绩的"怪现像

【有感而发】从中华武术谈运维工程师以及运维自动化

从中华武术谈运维工程师以及运维自动化 任何事物都没有完美一说,但是我们可以死磕自己,追求极致... 无论我们现在是搬砖呢,砌墙呢,还是在逗自己混日子,我们需要关注的是自己的方向在哪里,而不是过于在意自己当前的所站的位置,人生不能受限于自己的意识. 平时和小伙伴们聊人生谈理想的时候,我会经常和别人讲我所认为的专业化运维工程师和运维工作的方向,有认可的也有不认可的,认可的多在努力让自己的工作越来越轻松,自己的价值越来越能得到体现,不认可者多属于一天都很忙,而且认为运维就是帮开发人员打打杂,做大量重复