tomcat日志压缩

#! /bin/sh

date=$(/bin/date -d -1day +%Y-%m-%d)

tomcat_date=$(/bin/date -d -1day +%Y%m%d)

#tomcat日志

tomcat_logs_path_a="PATH"

tomcat_logs_path_b="PATH"

tomcat_logs_path_d="PATH"

tomcat_logs_path_d="PATH"

tomcat_logs_path_e="PATH"

tomcat_logs_path_f="PATH"

#API项目日志

project_logs_path_a="PATH"

project_logs_path_b="PATH"

project_logs_path_c="PATH"

project_logs_path_d="PATH"

project_logs_path_e="PATH"

project_logs_path_f="PATH"

project_logs_path_g="PATH"

project_logs_path_h="PATH"

#DAO项目日志

project_logs_path_i="PATH"

project_logs_path_j="PATH"

project_logs_path_k="PATH"

project_logs_path_l="PATH"

project_logs_path_m="PATH"

project_logs_path_n="PATH"

project_logs_path_o="PATH"

#码库文件位置    PATH"

BACKUP_DIR_A="/data/var/log/cloud2/cy/"

BACKUP_DIR="/tmpzipfile/barcode_api/dow/"

# delete the  folder greater than 13 days Tomcat_logs

#find "${tomcat_logs_path_a}"  -regex   ".*\.txt\|.*\.log\|.*\.out"   -type f -mtime +13 -exec rm {} \;

#find "${tomcat_logs_path_b}"  -regex   ".*\.txt\|.*\.log\|.*\.out"   -type f -mtime +13 -exec rm {} \;

#find "${tomcat_logs_path_c}"  -regex   ".*\.txt\|.*\.log\|.*\.out"   -type f -mtime +13 -exec rm {} \;

#find "${tomcat_logs_path_d}"  -regex   ".*\.txt\|.*\.log\|.*\.out"   -type f -mtime +13 -exec rm {} \;

#find "${tomcat_logs_path_e}"  -regex   ".*\.txt\|.*\.log\|.*\.out"   -type f -mtime +13 -exec rm {} \;

#find "${tomcat_logs_path_f}"  -regex   ".*\.txt\|.*\.log\|.*\.out"   -type f -mtime +13 -exec rm {} \;

#压缩tomcat日志

find  ${tomcat_logs_path_a} -name "*${tomcat_date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${tomcat_logs_path_b} -name "*${tomcat_date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${tomcat_logs_path_c} -name "*${tomcat_date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${tomcat_logs_path_d} -name "*${tomcat_date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${tomcat_logs_path_e} -name "*${tomcat_date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${tomcat_logs_path_f} -name "*${tomcat_date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

#压缩项目日志

find  ${project_logs_path_a} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_b} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_c} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_d} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_e} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_f} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_g} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_h} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_i} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_j} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_k} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_l} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_m} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_n} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_o} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

find  ${project_logs_path_} -name "*${date}*" -type f|xargs -I {} tar zcvf {}.tar.gz --remove-files {}

echo "压缩日志完毕"

时间: 2024-10-10 06:11:56

tomcat日志压缩的相关文章

使用Shell脚本批量给tomcat日志打包压缩并清理

因生产环境的tomcat日志太多,需要做自动化清理,只留90内的,所以90天以外的就直接删除了,90内的就要用脚本批量打包再删除原文件 脚本如下: [[email protected]] # cat for.sh #!/bin/bash tomcat_log=/usr/local/tomcat/logs access_log=localhost_access_log for (( i=74; i>6; i-- )) do dates=`date +"%Y-%m-%d" -d &q

Tomcat日志切割(logrotate)

logrotate是个强大的系统软件,它对日志文件有着一套完整的操作模式,譬如:转储.邮件和压缩等,并且默认logrotate加到cron(/etc/cron.daily/logrotate)作为每日任务执行.自动有了logrotate,我想不用再自己写日志切割脚本. 如下对Tomcat日志catalina.out日志切割 # ls -lh /usr/local/tomcat/logs/catalina.out -rw-r--r-- 1 www www 14M Aug 28 15:55 /usr

tomcat 日志切割

一.日志切割介绍 tomcat日志一般产生的是比较大的,catalina.out文件一般占用比较大,如果不做切割的话,很容易占满存储磁盘,一般需要做切割,切割的方法有多种,现介绍一种系统自动的日志切割的工具:logrotate软件,一般是系统自动的,非常好用. 二.使用logrotate分割tomcat日志 logrotate是个强大的系统软件,它对日志有着一套完整的操作模式,譬如:转存.邮件和压缩等,并且默认logrotate加到cron(/etc/cron.daily/logrotate)作

Tomcat日志切割

logrotate是个强大的系统软件,它对日志文件有着一套完整的操作模式,譬如:转储.邮件和压缩等,并且默认logrotate 加到cron(/etc/cron.daily/logrotate)作为每日任务执行.自动有了logrotate,我想不用再自己写日志切割脚本. 如下对Tomcat日志catalina.out日志切割   如下对Tomcat日志catalina.out日志切割 ls -lh /usr/local/tomcat/logs/catalina.out # cat /etc/lo

ELK+kafka收集 Nginx与tomcat日志

ELK日志收集 ELK原理与介绍为什么用到ELK:一般我们需要进行日志分析场景:直接在日志文件中 grep.awk 就可以获得自己想要的信息.但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档.文本搜索太慢怎么办.如何多维度查询.需要集中化的日志管理,所有服务器上的日志收集汇总.常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问.一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定

Tomcat日志设定

Tomcat日志概述 Tomcat 日志信息分为两类: 运行中的日志,它主要记录运行的一些信息,尤其是一些异常错误日志信息. 访问日志信息,它记录的访问的时间,IP,访问的资料等相关信息. 访问日志 启用访问日志 默认 tomcat 不记录访问日志,如下方法可以使 tomcat 记录访问日志 编辑${catalina}/conf/server.xml 文件(注:{catalina}是tomcat的安装目录),把以下的注释 (<!-- -->) 去掉即可. 1 2 3 4 5 <!-- &

tomcat日志配置之一自带log

问题 tomcat每次启动时,自动在logs目录下生产以下日志文件,且每天都会生成对应日期的一个文件,造成日志文件众多: localhost.2012-07-05.txt catalina.2012-07-05.txt manager.2012-07-05.txt host-manager.2012-07-05.txt 目的 Tomcat以上日志都输出到同一个文件中. 修改步骤 打开Tomcat目录conf\logging.properties,修改如下,所有日志输出到tomcat开头的文件中

Ubuntu 环境下使用cronolog 切割Tomcat日志

1 .安装cronolog wget http://down1.chinaunix.net/distfiles/cronolog-1.6.2.tar.gz ./configure make && sudo make install 默认安装位置: # which cronolog /usr/local/sbin/cronolog 2.配置分割Tomcat日志 编辑tomcat目录bin下的catalina.sh文件 # vi bin/catalina.sh 找到下面这行 org.apach

自定义日志阅读器——包括了一个load取Tomcat日志的分析器

最近在写往公司产品里添加Tomcat适配器,以支持Tomcat.有一些功能需要摘取到Tomcat的部分日志.没有合适的工具,也不想去网上找了,就自己写了一个. 简单的画了一下设计方案: 下面直接上代码了: 日志阅读器: 1 package com.fjn.tools.log.reader; 2 3 import java.io.File; 4 import java.util.LinkedList; 5 import java.util.List; 6 import java.util.Scan