nginx日志切割脚本

# 编写切割脚本
# vim /data0/scripts/cut_nginx_log.sh
#!/bin/bash
logs_path="/data0/log/nginx"
YDATE=`date  +"%Y"`
MDATE=`date  +"%m"`
DDATE=`date -d"1 day ago" +"%d"`
HDATE=`date  +"%H"`
mkdir -p ${logs_path}/${YDATE}/${MDATE}/${DDATE}/
yesterday=`date -d "yesterday" +"%Y%m%d"`

for logname in `find ${logs_path} -maxdepth 1 -name "*.log"`
do
    domain=`echo $logname | sed "s#/data0/log/nginx/##"`
    mv ${logs_path}/$domain ${logs_path}/${YDATE}/${MDATE}/${DDATE}/$domain\_${yesterday}.log
done

/usr/local/nginx/sbin/nginx -s reload
find ${logs_path} -name  "*.log" -mtime +15 -exec rm -fr  {}   \;

# 添加执行权限
chmod +x /data0/scripts/cut_nginx_log.sh
# 添加计划任务
# crontab -l
0 0 * * * cd /data0/scripts && /bin/sh cut_nginx_log.sh >/dev/null 2>&1
时间: 2024-10-06 07:34:35

nginx日志切割脚本的相关文章

nginx日志切割脚本,python实现

# 自搭建了个人博客 有需要交流学习的可以访问 www.wpython.com #!/usr/bin/env python   import datetime,os,sys,shutil   log_path = '/alidata/log/nginx/access/' log_file = 'www.wpython.com.log'   yesterday = (datetime.datetime.now() - datetime.timedelta(days = 1))   try:    

nginx日志切割脚本,自动上传到日志服务器

nginx日志切割脚本,自动上传到日志服务器 1 nginx是yum方式安装,系统会自动生成nginx日志切割计划任务在/etc/logrotate.d/nginx下,把自动生成的计划任务删除,自己编写切割脚本,并传到统一存放日志的服务器上.  www.ahlinux.com 2 安装ncftp包,用于日志传输时使用. 3 简单切割脚本如下: #!/bin/bash PATH=/bin:/sbin:/usr/bin:/usr/sbin export PATH yesterday=`date +%

linux shell:nginx日志切割脚本

需求原因:nginx不具备日志切割功能,日志量较大,方便分析. 实现目的:完成nginx日志切割,并根据时间命名 简要命令: mv /usr/local/tengine/logs/access.log /usr/local/tengine/logs/access-date.log kill -USER1 Nginx主进程号. 解释: 通过mv命令重命名日志,并且通过kill -USER1 nginx-id的命令,告诉nginx需要写新的日志, 不然nginx不会在mv之后继续写日志. 我们可以通

简单的nginx日志切割脚本

#!/bin/bash savepath_log='/opt/apps/nginx/nglogs' nglogs='/opt/apps/nginx/logs' mkdir -p ${savepath_log}/$(date +%Y)/$(date +%m) mv $nglogs/error.log ${savepath_log}/$(date +%Y)/$(date +%m)/error.$(date +%Y%m%d).log mv $nglogs/access.log ${savepath_l

Nginx日志切割脚本实践

因为nginx存放的日志文件逐渐增大,导致日后想察看某个时间的日志的时候,打开巨大文件所带来的性能代价和时间定位查找麻烦,因此需要对日志文件按照时间和频率进行切割.切割过程如下: 创建当前时间目录,比如年/月目录 然后将当前指定的日志,剪切到该创建好的目录下 重启nginx服务,重新生成0kb大小的新日志文件 通过计划任务,周期性执行以上切割日志,重新生成日志的操作就能达到既让日志文件保持一定大小而且又能按照指定的时间格式和目录进行存放.方面查询的便利和文件打开的快速. 切割脚本代码如下: 1

Nginx 日志切割脚本

#!/bin/bash # Author: Wang Xiaoqiang # ReadMe: Nginx access log split script # crontab -e # 59 23 * * * sh /script/nginx_split.sh LOG_PATH='/usr/local/nginx/logs' LOG_NAME='access.log' BACKUP_DIR='/data/backup/baklog' dir_time_stamp=`date +%Y%m` file

nginx日志切割并使用flume-ng收集日志

nginx的日志文件没有rotate功能.如果你不处理,日志文件将变得越来越大,还好我们可以写一个nginx日志切割脚本来自动切割日志文件.第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志.在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件.第二步向nginx主进程发送USR1信号.nginx主进程接到信号后会从配置文件中读取日志文件名称,重新打开日志文件(以配置文件中的日志名称命名),并以工作进程的

Nginx日子切割脚本

#!/bin/bash #nginx日志切割脚本 [ $UID !=0 ] && { echo "Please run as root" exit 1 } logs_path="/usr/local/nginx/logs/" mkdir -p ${logs_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m&qu

nginx访问日志、Nginx日志切割、 静态文件不记录日志和过期时间

一:nginx访问日志 日志格式vim /usr/local/nginx/conf/nginx.conf //搜索log_format$remote_addr 客户端ip(公网ip)$http_x_forwarded_for 代理服务器的ip$time_local 服务器本地时间$host 访问主机名(域名)$request_uri 访问的url地址$status 状态码$http_referer referer$http_user_agent user_agent除了在主配置文件nginx.c