logrotate切割日志

我部署了LDAP Server,但openldap默认没有保存日志,需要自己配置rsyslog服务来保存日志

编辑/etc/rsyslog.conf ,加入以下内容,将日志保存在以下路径

local4.*           /var/log/ldap/openldap.log

重启rsyslog服务

/etc/init.d/rsyslog  restart

由于openldap日志会越来越大,所以需要logrotate进行日志切割。

创建一个配置文件

/etc/logrotate.d/slapd

内容如下

{
    daily         #每天轮询一次日志
    rotate 5      #存储5个日志,超过该数目后的日志将被删除
    copytruncate  #复制原日志内容后,将原日志清空,而不创建新文件
    nocompress    #切割时不压缩
    dateext       #切割时文件名带有日期
    missingok     #如果指定的目录不存在,logrotate会报错,此项用来关闭报错
}

测试配置是否有问题

logrotate -f /etc/logrotate.d/slapd

如果命令执行没有失败,则表示配置没有问题。

时间: 2024-11-05 17:13:45

logrotate切割日志的相关文章

logrotate切割日志后,新的日志还是写入到老的日志文件中

线上生产环境中,安装了dnsmasq,并记录日志.由于每一次dns查询都会生产日志,考虑到日志量越来越大,就用logrotate做日志轮转.配置如下: /var/log/dnsmasq/dnsmasq.log {         daily     //按天轮转日志         rotate 15 //保留15个log文件         compress  //压缩轮转后的文件         delaycompress          dateext         missingok

使用logrotate切割tomcat日志文件

最近由于tomcat 的catalina.out日志太大,需要做切割 使用logrotate切割方法如下: 1.添加工程配置文件 cd /etc/logrotate.d 添加 Inceptor文件 /usr/local/tomcat7.inceptor-web_8080/logs/catalina.out { #rotate 31         daily         copytruncate         compress         notifempty         miss

iptables+rsyslog(syslog)+logrotate访问日志分析

最近,因为相应的业务需求需要对服务器的相应服务做访问分析,在做之前大致思考了下,可以利用iptables的log日志功能用来做相应的日志分析,在此就以做ssh端口访问做日志分析来简单讲解下,在实际生产环境下也可以根据实际情况调整,可以用来做WEB服务等等的相应的访问日志分析. 首先,在使用日志分析之前最重要的就是iptables的log功能,至于iptables中的log功能使用 也很简单,在开启后会把日志写入/var/log/messages内核日志中,而iptables的日志功能使用的几个参

logrotate的日志轮转linux

案例:logrotate的日志轮转 针对admin.log文件,设置logrotate 每天轮转一次 保留3个备份 文件大于100k自动轮转 论转完的文件压缩创建权限0600,所有者root 所属组root 步骤: 1.首先查看logrotate包是否安装 [[email protected] log]# rpm -q logrotate logrotate-3.7.8-17.el6.x86_64 创建日志admin.log 因为本人虚拟机中没有admin.log这个文件 [[email pro

nginx按分钟切割日志

网上有许多按照天切割日志的.但是由于应用需要,对该web服务器进行更详细的分析!所以要按照分钟切割.研发部门的要求是他们有一个工具是扫描日志的工具,扫描完成后的日志会有.complete的后缀,扫描完的日志全部移到history_logs中.采用的是两个脚本来完成的此需求! 1.切割日志的脚本如下: vim nginx_log.sh #!/bin/bash #将nginx的日志按照分钟切割 #定义日志文件的路径 logs_path=/opt/nginx/logs/ #定义nginx的进程号的路径

Nginx日志文件格式及切割日志文件

作为web服务器而言,日志是必不可少的也是需要经常查看的.此篇就来介绍下如何自定义Nginx中的日志格式以及使用crontab计划任务来做到每天切割一次日志文件从而做到方便管理. 在Nginx中日志文件是由log_format这个指令来定义的,它的语法如下: log_format    name    format ##    name:指的是日志格式的名称(后面调用) ##    format:设置日志具体格式的 在Nginx中有自己默认的日志格式,如下内容:     #log_format 

NGINX按天切割日志

NGINX按天切割日志 偶然发现access.log有46G大,所以将其切割. Nginx 是一个非常轻量的 Web 服务器,体积小.性能高.速度快等诸多优点.但不足的是也存在缺点,比如其产生的访问日志文件一直就是一个,不会自动地进行切割,如果访问量很大的话,将 导致日志文件容量非常大,不便于管理.当然了,我们也不希望看到这么庞大的一个访问日志文件,那需要手动对这个文件进行切割. 在 Linux 平台上 Shell 脚本丰富,使用 Shell 脚本+crontab 命令能非常方便地进行切割,操作

logrotate分割日志文件

昨天参与做的线上项目上线了,看了下log文件居然还没有分割,考虑到可能导致log文件很大造成性能下降,赶紧做了下日志分割.Linux下有个logrotate工具可以协助日志分割,只需要配置一下参数就可以了,非常方便,于是采用这种方式直接配置了一下. 我是用来做nginx日志文件分割的,我的配置文件如下: 在/etc/logrotate.d/目录下创建一个配置文件例如nginx,文件内容如下: /search/nginx/logs/access_log /search/nginx/logs/err

mysql慢查询日志切割,日志分析

#!/usr/bin/env python #coding:utf8 import os,sys import datetime,shutil,subprocess from config.config import slow_config class cut_mysql(object): mysql_user,mysql_pass,date_day,slow_log_name,slow_log_path,mysqlsla_log_name,mysqldumpslow_log_name,new_