catalina.out文件过大

文件过大占服务器内存太大的时候系统会变的很慢,然后打不开,适当的删除些tomcat下的log系统就正常了。内存够了。所以可以适当的删除catalina.out的文件,这个文件在每次重启tomcat的时候会进行更新备份当天的数据,比如在2011-12-15日重启服务了,服务器上有个catalina12-15.log的文件,如果你以为这就是从上一次重启服务到这次重启服务间得日志文件保存,那我告诉你也我不清楚,但是现在我清楚了,如果你每次都不清除catalina.out的文件,那每次尽管产生了log的文件,后续的东西也还是会在out的文件上继续追加的写日志,然后你会发现你重启了N次了,删掉了N个log,但是内存还是没大多少,这个时候果断的在停掉服务后删掉out文件再重启服务应该就OK了。我用的是最 差劲的那个办法了。适当的时候就删掉一些。

Linux下的tomcat产生的日志文件不象windows下的按时间时间和大小来处理,

尽管也生成了日志文件catalina.2009-0x-0x.log类型的文件,但是其中的catalina.out文件依然增大;它为啥在增大,为啥在增大,原因我就不探究了。

Tomcat的官方文档,由于是外文,偶还没有看明白di;

http://tomcat.apache.org/tomcat-6.0-doc/logging.html

据说是修改某些配置可以实现,希望高人指点,给个官方的解决方案;

老是增大也不是办法,还是想其他办法搞定它为好:

方法1—分割流

使用cronolog工具切分Tomcat的catalina.out日志文件

cronolog一个对日志切分的小工具,其主页在http://cronolog.org/,我们也可以用它来切分Apache的日志。

具体的方法,您可以去google之,这个方法占网络搜索结果的主流;

方法2—脚本流

事情终究不过是个大文件处理的问题,强大的bash来搞定;

使用cron每天来备份当前的catalina.out,然后清空他的内容;

参考脚本如下:

#!/bin/sh

y=`date "+%Y"`

m=`date "+%m"`

d=`date "+%d"`

cd /PATH /tomcat/logs

cp catalina.out catalina.out.$y$m$d

echo > catalina.out

exit

注意linux系统的cron服务是否启动,是否正常工作,还有脚本的存放路径(原因暂保密)

方法3—猥琐流

打开bin目录下的catalina.sh文件,终究不过是个bash文件,

查找一下,catalina.out总共出现三次;

部分截图:

shift

touch "$CATALINA_BASE"/logs/catalina.out

if [ "$1" = "-security" ] ; then

echo "Using Security Manager"

shift

"$_RUNJAVA" $JAVA_OPTS "$LOGGING_CONFIG" $CATALINA_OPTS \

-Djava.endorsed.dirs="$JAVA_ENDORSED_DIRS" -classpath "$CLASSPATH" \

-Djava.security.manager \

-Djava.security.policy=="$CATALINA_BASE"/conf/catalina.policy \

-Dcatalina.base="$CATALINA_BASE" \

-Dcatalina.home="$CATALINA_HOME" \

-Djava.io.tmpdir="$CATALINA_TMPDIR" \

org.apache.catalina.startup.Bootstrap "[email protected]" start \

>> "$CATALINA_BASE"/logs/catalina.out 2>&1 &

if [ ! -z "$CATALINA_PID" ]; then

echo $! > $CATALINA_PID

fi

else

"$_RUNJAVA" $JAVA_OPTS "$LOGGING_CONFIG" $CATALINA_OPTS \

-Djava.endorsed.dirs="$JAVA_ENDORSED_DIRS" -classpath "$CLASSPATH" \

-Dcatalina.base="$CATALINA_BASE" \

-Dcatalina.home="$CATALINA_HOME" \

-Djava.io.tmpdir="$CATALINA_TMPDIR" \

org.apache.catalina.startup.Bootstrap "[email protected]" start \

>> "$CATALINA_BASE"/logs/catalina.out 2>&1 &

个人觉得也就是这里是写catalina.out文件的;让他写到一个其他的空设备如何?

修改前注意原文件的catalina.sh的备份哟~!!

修改以上代码中的

>> "$CATALINA_BASE"/logs/catalina.out 2>&1 &

>> /dev/null 2>&1 &

保存,然后启动tomcat,目前这个 catalina.out一直是空的了。

这个方法是偶自己想到的,个人认为比较勇敢,目前还没有在生产环境测试过。虚拟机测试是通过的。

方法4—人流

这个方法其实就是linux系统管理员手工去删除,人工操作,简称“人流”;

删除之前最好停止tomcat的服务;

时间: 2024-10-26 12:06:45

catalina.out文件过大的相关文章

Linux下tomcat的catalina.out文件过大,以及目录更改解决办法

方法1-分割流 使用cronolog工具切分Tomcat的catalina.out日志文件 cronolog一个对日志切分的小工具,其主页在http://cronolog.org/,我们也可以用它来切分Apache的日志. 推荐用此方法,方法如下 先google一下.cronolog-1.6.2.tar.gz 1.下载cronolog-1.6.2.tar.gz 2.安装 # tar zxvf cronolog-1.6.2.tar.gz# cronolog-1.6.2/configure# mak

解决Linux下Tomcat日志目录下的catalina.log日志文件过大的问题

本文摘自:(http://blog.csdn.net/stevencn76/article/details/6246162) 分类: Java技术专区2011-03-13 12:25 5017人阅读 评论(1) 收藏 举报 tomcatlinux工具任务web 由于Tomcat在默认情况下会将没有经过配置的web应用所产生的日志输出已经其本身的日志内容都输出到这个文件中,那么随着时间的推移,这个文件的尺寸将会越来越大,当需要检查日志内容时间会导致文件难以打开,而且同时tomcat依旧在不断的向文

tomcat的catalina.out日志文件过大

今天发现一个服务器的/opt目录数据过大,最后发现是tomcat中的catalina.out日志过大引起的 用du命令查看opt下一层的数据文件大小 [[email protected] opt]# du -h --max-depth=1 /opt 最终发现在tomcat里catalina.out的文件很大 [[email protected] logs]# ll -h /opt/liferay6.2ce/tomcat-7.0.42/logs/catalina.out -rw-r--r-- 1

Tomcat日志分割减少catalina.out日志过大

网络上找了一下,针对在 Linux 环境下执行 Tomcat 的部份,发现有个不错的工具软件 cronolog 可以协助 Web Server 之类的做 log  檔的 rotate ,详细的运作原理可能大家得自己去这个网站上查,我的认知大致如下:   Tomcat 先把输出写到 console( 标准输出 )  然后透过 pipe (|)  转为 cronolog  的输入,由 cronolog 针对一个事先给定的文件名的命名规则,去过滤数据,定期关闭旧文件,然后再开启新档.如果我们将文件名的

一键解决pdf文件太大如何变小的难题

PDF文件是适用于文件下发,阅读等便捷的电子文件格式,在传输发送的过程中,我们PDF文件较大的情况下,就需要将PDF文件压缩,那么PDF文件太大如何变小呢?对于PDF文件压缩不是太了解的用户可能就想不到好的办法解决,本文将教大家一键解决pdf文件太大如何变小的难题. 1.首先,我们需要了解的是PDF文件进行压缩,我们这里是需要借助到一款叫作迅捷PDF转换器的软件,所以,现在需要做的就是打开浏览器,在电脑上下载安装.软件下载:pdf压缩器http://www.newasp.net/soft/213

怎么解决apache日志文件太大的问题

原文地址:http://un173.blog.51cto.com/8263566/1598346 管理apache服务器有些年头,虽然最近几年被nginx抢了不少风头,但我依然钟爱apache. 喜欢它强劲的并发处理能力,以及forker与worker模式间自由选择的快感,哈哈. 熟悉linux下apache运维的朋友,多少都会遇到过apache日志文件太大的问题,网站刚上线时不会在意到这个问题,因为流量小,自然error.log与access.log文件内容也就少,文件容量不大,因此,配置时也

VC++ 中使用内存映射文件处理大文件

摘要: 本文给出了一种方便实用的解决大文件的读取.存储等处理的方法,并结合相关程序代码对具体的实现过程进行了介绍. 引言 文件操作是应用程序最为基本的功能之一,Win32 API和MFC均提供有支持文件处理的函数和类,常用的有Win32 API的CreateFile().WriteFile().ReadFile()和MFC提供的CFile类等.一般来说,以上这些函数可以满足大多数场合的要求,但是对于某些特殊应用领域所需要的动辄几十GB.几百GB.乃至几TB的海量存储,再以通常的文件处理方法进行处

解决 SqlServer执行脚本,文件过大,内存溢出问题

原文:解决 SqlServer执行脚本,文件过大,内存溢出问题 执行.sql脚本文件,如果文件较大时,执行会出现内存溢出问题,可用命令替代 cmd 中输入 osql -S 127.0.0.1,8433 -U sa -P sa -i d:\sql.sql ,-S 服务器名 -U 用户名 -P 密码 -i 文件地址,等待执行完毕即可 以上在sql2008R2下执行通过 如果数据库是 sql2008的 请将 osql 修改成为 sqlcmd 即可

[转]MySql ibdata1文件太大如何缩小

From : http://blog.chinaunix.net/uid-24373487-id-4223322.html 原文地址:MySql ibdata1文件太大如何缩小 作者:emailwht MySql ibdata1文件太大如何缩小 MySql innodb如果是共享表空间,ibdata1文件越来越大,达到了30多个G,对一些没用的表进行清空:truncate table xxx;然后optimize table xxx; 没有效果因为对共享表空间不起作用.mysql ibdata1