nginx日志自动切割打包

[[email protected]_web ~]# cat /etc/logrotate.d/nginx
/web/servers/tengine/logs/*.log { #日志所在的目录
daily #日志文件按日轮询,还可以是 weekly monthly yearly
dateext #让旧日志文件以创建日期命名
compress #在轮询任务完成后,已轮询的归档以gzip进行压缩
create 0644 dmadmin dmadmin #以指定的权限创建全新的日志文件,同时logrotate也会重命名原始日志文件
rotate 7 #一次存储7个归档日志,第8个归档时,删除时间最久的一个
sharedscripts
postrotate
kill -USR1 cat /web/servers/tengine/nginx.pid
endscript #postrotate/endscript: 在所有其它指令完成后,postrotate和endscript里面指定的命令将被执行。在这种情况下,rsyslogd 进程将立即再次读取其配置并继续运行。
}
[[email protected]_web ~]#

原文地址:http://blog.51cto.com/993960/2107478

时间: 2024-08-01 12:18:54

nginx日志自动切割打包的相关文章

nginx日志定时切割

关于nginx日志定时切割.一般有两种方案,第一用logrotate,它是一个linux系统日志的管理工具.它可以切割.压缩等其他软件的日志文件软件:logrotate是基于crontab运行的,所以这个时间点是由crontab控制的,具体可以查询crontab的配置文件/etc/anacrontab.第二种用shell脚本定时切割. 第一种方案:logrotate 1.安装logrotate,我这里是centos直接用:yum -y install logroate 2.安装成功后.配置log

Nginx 日志文件切割

Nginx 是一个非常轻量的 Web 服务器,体积小.性能高.速度快等诸多优点.但不足的是也存在缺点,比如其产生的访问日志文件一直就是一个,不会自动地进行切割,如果访问量很大的话,将 导致日志文件容量非常大,不便于管理.当然了,我们也不希望看到这么庞大的一个访问日志文件,那需要手动对这个文件进行切割. 在 Linux 平台上 Shell 脚本丰富,使用 Shell 脚本加 crontab 命令能非常方便地进行切割,但在 Windows 平台上就麻烦一些了,刚才弄了好长时间,就在这里记录整理一下.

Nginx日志文件切割

Nginx 是一个非常轻量的 Web 服务器,体积小.性能高.速度快等诸多优点.但不足的是也存在缺点,比如其产生的访问日志文件一直就是一个,不会自动地进行切割,如果访问量很大的话,将 导致日志文件容量非常大,不便于管理.当然了,我们也不希望看到这么庞大的一个访问日志文件,那需要手动对这个文件进行切割. 在 Linux 平台上 Shell 脚本丰富,使用 Shell 脚本加 crontab 命令能非常方便地进行切割 日志文件切割要求 由于 Nginx 的日志都是写在一个文件当中的,因此,我们需要每

线上nginx日志无切割引起的祸

状况:lnmp环境下nginx反向代理服务器,部分网站无法访问,重启服务器后ok 拿到权限后安装zabbix监控,负载Ok , IO报警: Disk I/O is overloaded on xss152 使用命令工具查看io状况,top下78%wa........................ [[email protected] /]#  iostat -x 1 10  avg-cpu:  %user   %nice %system %iowait  %steal   %idle     

企业Zookeeper(Zabbx)重点监控指标和日志自动切割和轮转

1.重点性能指标图表: 2.配置运行日志自动切割和轮转 修改conf/log4j.propertieszookeeper.log.file=zookeeper.log --运行日志文件名如果按天切割日志,增加一行:log4j.appender.ROLLINGFILE=org.apache.log4j.DailyRollingFileAppender并注释log4j.appender.ROLLINGFILE.MaxFileSize=10MB 如果按固定size切割日志:log4j.appender

nginx日志定时切割脚本

1 编写脚本cut_nginx_log.sh,放置在nginx/sbin/目录下,修改成可执行 #!/bin/bash # This script run at 00:00 #放置日志目录 logs_path="/var/www/logs" #nginx 目录 nginx_path="/var/www/nginx" #创建日期目录 mkdir -p ${logs_path}/$(date -d "yesterday" +"%Y.%m&q

MongoDB实现日志自动切割

1.编写js脚本 db.runCommand({logRotate:1}) 2.编写windows批处理 mongo -u root -p root -authenticationDatabase admin localhost/admin "D:\Program Files\MongoDB\Server\3.2\data\backup\logRotate.js" 3.建立计划任务,定时执行 注:如果是linux系统下编写sh脚本即可

nginx之自动日志切割--请注意这里不是脚本

之前安装 nginx 都是自己编译安装,然后打成 rpm 包.换了一个新公司之后,发现服务器的 nginx 都是 yum 安装的,这也没什么问题,业务量不大. 之后我发现在 nginx 的日志存储目录下,日志都被切割了,这很正常,但是经过我查看,在 crontab 下面并没有脚本文件进行 nginx 的日志切割,这 使我有点摸不到头脑,以我之前的观念都是脚本进行日志切割,然后放到定时任务中按天执行. 之后搜索了网上的文章,找到了切割 nginx的日志是一个服务执行的 服务名: logrotate

Nginx 脚本自动进行日志切割

随着网站的运行时间越来越长,日志文件也会随之越来越大需要对Nginx日志进行切割,下面是每周六晚上自动进行日志切割的shell脚本 脚本如下: [[email protected] ~]# vim /usr/local/nginx/logbak.sh   #新建脚本名为logbak.sh#!/bin/bash #解释器date=`date +%Y%m%d`    #自定义date变量,值等于当前日期logpath=/usr/local/nginx/logs #自定义logpath变量,值等于Ng