nginx之自动日志切割--请注意这里不是脚本

之前安装 nginx 都是自己编译安装,然后打成 rpm 包。换了一个新公司之后,发现服务器的 nginx 都是 yum 安装的,这也没什么问题,业务量不大。

之后我发现在 nginx 的日志存储目录下,日志都被切割了,这很正常,但是经过我查看,在 crontab 下面并没有脚本文件进行 nginx 的日志切割,这

使我有点摸不到头脑,以我之前的观念都是脚本进行日志切割,然后放到定时任务中按天执行。

之后搜索了网上的文章,找到了切割 nginx的日志是一个服务执行的

服务名: logrotate ,安装方式: yum -y install logrotate

Ubuntu下安装方式: apt-get -y install logrotate

不知道是不是自己之前买的云服务器一般都是最基本的安装,可能没有安装到这个软件吧

如果是yum方式安装的nginx,系统默认会自动通过logrotate这个日志管理软件,按天进行分割。

查看 logrotate 在服务器中的文件位置

[[email protected]~]# rpm -ql logrotate
/etc/cron.daily/logrotate
/etc/logrotate.conf
/etc/logrotate.d
/usr/sbin/logrotate
/usr/share/doc/logrotate-3.7.8
/usr/share/doc/logrotate-3.7.8/CHANGES
/usr/share/doc/logrotate-3.7.8/COPYING
/usr/share/man/man5/logrotate.conf.5.gz
/usr/share/man/man8/logrotate.8.gz

logrotate的配置文件是/etc/logrotate.conf,而/etc/logrotate.d/是用于存储其他配置文件的目录。该目录里的所有文件都会被主动的读入 /etc/logrotate.conf中执行。

[[email protected]~]# ls /etc/logrotate.d/
nginx           ppp             syslog          wpa_supplicant  yum

看到配置文件下面有 nginx 的配置文件,内容如下:

[[email protected]~]# cat /etc/logrotate.d/nginx 
/var/log/nginx/*log {    #为nginx日志的存储目录,可以根据实际情况进行修改
    daily                #日志文件将按天轮循
    rotate 10            #一次存储10个日志文件。对于第11个日志文件,时间最久的那个日志文件将被删除
    missingok            #在日志轮循期间,任何错误将被忽略,例如“文件无法找到”之类的错误
    notifempty           #如果是空文件的话,不进行转储
    compress             #在轮循任务完成后,已轮循的归档将使用gzip进行压缩
    sharedscripts        #运行postrotate脚本,作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个,那么每个日志轮转后都会                          #执行一次脚本
    postrotate           #在所有其它指令完成后,postrotate和endscript里面指定的命令将被执行。在这种情况下,rsyslogd进程将立即再                          #次读取其配置并继续运行。注意:这两个关键字必须单独成行    
        /bin/kill -USR1 $(cat /var/run/nginx.pid 2>/dev/null) 2>/dev/null || :
    endscript
}

daily:日志文件将按天轮循
weekly:日志文件将按周轮循
monthly:日志文件将按月轮循
nocompress:不需要压缩时,用这个参数
copytruncate:用于还在打开中的日志文件,把当前日志备份并截断
nocopytruncate:备份日志文件但是不截断
create mode owner group:转储文件,使用指定的文件模式创建新的日志文件
nocreate:不建立新的日志文件
delaycompress 和 compress 一起使用时,转储的日志文件到下一次转储时才压缩
nodelaycompress 覆盖 delaycompress 选项,转储同时压缩。
size size 当日志文件到达指定的大小时才转储,Size 可以指定 bytes (缺省)以及KB (sizek)或者MB (sizem).
dateext:定义日志文件后缀是日期格式,也就是切割后文件是:xxx.log-20160402.gz这样的格式。如果该参数被注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式
delaycompress:总是与compress选项一起用,delaycompress选项指示logrotate不要将最近的归档压缩,压缩将在下一次轮循周期进行。这在你或任何软件仍然需要读取最新归档时很有用
create 640 nginx adm:以指定的权限和用书属性,创建全新的日志文件,同时logrotate也会重命名原始日志文件。
rotate count 指定日志文件删除之前转储的次数,0 指没有备份,5 指保留5 个备份

logrotate的切割时间默认是在 /etc/anacrontab 里面配置的:

START_HOURS_RANGE 就是配置的 logrotate 的执行时间

[[email protected]~]# cat /etc/anacrontab
# /etc/anacrontab: configuration file for anacron

# See anacron(8) and anacrontab(5) for details.

SHELL=/bin/sh
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
# the maximal random delay added to the base delay of the jobs
RANDOM_DELAY=45
# the jobs will be started during the following hours only
START_HOURS_RANGE=3-22

#period in days   delay in minutes   job-identifier   command
1	5	cron.daily		nice run-parts /etc/cron.daily
7	25	cron.weekly		nice run-parts /etc/cron.weekly
@monthly 45	cron.monthly		nice run-parts /etc/cron.monthly

一般使用脚本都是执行完了切割日志的命令之后是对 nginx 进行平滑重启,即 reload

下面提供一种新的方法:请在测试环境下测试完成之后在进行生产环境的更改,根据所在环境或者配置不同可能存在差异

#向nginx主进程发送USR1信号,重新打开日志文件,否则会继续往mv后的文件写数据的。原因在于:linux系统中,内核是根据文件描述符来找文件的。如果不这样操作导致日志切割失败。

kill -USR1 `ps axu | grep "nginx: master process" | grep -v grep | awk '{print $2}'`

如果你也和我一样遇到了,日志自动切割但是并没有发现定时任务中运行,请收藏此文章。

参考文章:https://www.cnblogs.com/ilanni/p/5365420.html

此文章更为详细:https://www.cnblogs.com/kevingrace/p/6307298.html

原文地址:http://blog.51cto.com/10309478/2104320

时间: 2024-11-06 07:33:53

nginx之自动日志切割--请注意这里不是脚本的相关文章

05 nginx定时任务完成日志切割

一:nginx日志切割 (1) 新建一个data目录 [[email protected] nginx]# mkdir /data (2) 新建一个shell脚本 [[email protected] data]# vi runlog.sh (3) 编写shell脚本 #需要切割日志文件的路径 LOGPATH=/usr/local/nginx/logs/access.log #根据月份创建一个目录 BASEPATH=/data/$(date -d yesterday +%y%m) mkdir -

日志切割备份(测试)shell脚本

#!/bin/bash CD=`df -l |awk'NR==3 {print $4}'|awk 'BEGIN {FIELDWIDTHS="2 1"}''{print $1}'` if [ $CD -ge 20];then echo "硬盘空间已满,不能进行备份"| mutt -s "备份报警,请及时更换硬盘" [email protected]&& exit 1 fi logrotate -f/etc/logrotate.con

linux shell:nginx日志切割脚本

需求原因:nginx不具备日志切割功能,日志量较大,方便分析. 实现目的:完成nginx日志切割,并根据时间命名 简要命令: mv /usr/local/tengine/logs/access.log /usr/local/tengine/logs/access-date.log kill -USER1 Nginx主进程号. 解释: 通过mv命令重命名日志,并且通过kill -USER1 nginx-id的命令,告诉nginx需要写新的日志, 不然nginx不会在mv之后继续写日志. 我们可以通

Nginx访问日志、Nginx日志切割、静态文件不记录日志和过期时间介绍

Nginx访问日志 1. 进入配置文件 [[email protected] src]# vim /usr/local/nginx/conf/nginx.conf  //搜索log_format 参考更改配置成如下: log_format aming '$remote_addr $http_x_forwarded_for [$time_local]' 如图: 日志格式字段含义如下: combined_realip为日志格式的名字,后面可以调用它. 2.到虚拟主机配置文件中指定访问日志的路径 [[

十二周三课 Nginx访问日志、 Nginx日志切割、 静态文件不记录日志和过期时间

Nginx访问日志 Nginx的文件格式存在于主配置文件中./usr/local/nginx/conf/nginx.conf然后搜索log_format找到他的配置文件这样我们就可以进行日志的格式配置了. 我们常用如下配置.$remote_addr客户端IP(公网IP)$http_x_forwarded_for代理服务器的IP$time_local服务器本地时间$host访问主机名(域名)$request_uri访问的url地址$status状态码$http_refererreferer$htt

日志大了,怎么办?用我的日志切割脚本吧!

本文转载自https://www.imooc.com/article/13260 分享一个脚本,它配合linux系统的crontab任务,对nginx自动日志切割和清理,分别作用于ACCESS和ERROR的日志. 特点: 1.功能丰富 应有的功能中,不仅支持按天切割,而且支持通过通过设置文件大小作切割. 2.通用 通用于nginx.tengine,通过简单改进也能有好的支持切割清理httpd.lightd等其他Web server 日志. 3.更加易于理解 用shell方式相对更加好理解,并且易

Nginx 脚本自动进行日志切割

随着网站的运行时间越来越长,日志文件也会随之越来越大需要对Nginx日志进行切割,下面是每周六晚上自动进行日志切割的shell脚本 脚本如下: [[email protected] ~]# vim /usr/local/nginx/logbak.sh   #新建脚本名为logbak.sh#!/bin/bash #解释器date=`date +%Y%m%d`    #自定义date变量,值等于当前日期logpath=/usr/local/nginx/logs #自定义logpath变量,值等于Ng

Nginx日志切割并计划任务自动上传到FTP服务器

枫城浪子原创,转载请标明出处! 微信bh19890922 QQ445718526,490425557 更多技术博文请见个人博客: https://fengchenglangzi.000webhostapp.com http://fengchenglangzi.blog.51cto.com 一.简述 Nginx WEB服务器每天会产生大量的访问日志,而且不会自动地进行切割,如果持续天数访问,将会导致该access.log日志文件容量非常大,不便于SA查看相关的网站异常日志,并且后期进行分割非常不易

Nginx命令行及演示:重载、热部署、日志切割

Nginx命令行: 01 格式:nginx 参数 信号 02 帮助: -?  -h 03 使用指定的配置文件:-c 04 指定配置指令: -g 05 指定运行目录: -p 06 发送信号: -s 立刻停止服务: stop 优雅地停止服务: quit 重载配置文件: reload 重新开始记录日志文件: reopen 07 测试配置文件是否语法错误: -t  -T 08 打印nginx的版本信息.编译信息等: -v  -V 重载配置文件: [[email protected] ~]# cd /op