Oracle - crfclust.bdb文件太大

今天在检查oracle rac集群时,突然才发现服务器的根目录下面占用了很多空间,照道理不应该出现这种情况,初步猜想可能是哪个日志或跟踪文件太大导致。
切换到跟目录,使用du -sh *来一层一层查看到底是哪个文件占用了这么多空间,最后定位到目录/u01/app/11.2.0/grid/crf/db/<hostname>
使用ls -lSrh对文件进行排序,发现“罪魁祸首”是crfclust.bdb

[[email protected] ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 193G 7.1G 176G 4% /
tmpfs 100G 24G 77G 24% /dev/shm
/dev/sda1 190M 81M 96M 46% /boot
/dev/sda7 261G 2.9G 245G 2% /home
/dev/sda6 3.9G 11M 3.6G 1% /tmp
/dev/sda3 77G 70G 3.5G 96% /u01
[[email protected] sz-db02]# pwd
/u01/app/11.2.0/grid/crf/db/sz-db02
[[email protected] sz-db02]# ls -l /u01/app/11.2.0/grid/bin/crsctl
-rwxr-xr-x 1 root oinstall 8579 Jun 14 2018 /u01/app/11.2.0/grid/bin/crsctl
这几个文件是oracle系统服务Cluster Health Monitor(CHM)生成的,主要记录节点的cpu、内存等相关信息,该类文件会慢慢长大,而我这个生产库已经跑了4年了,都已经长到了快80G。解决办法就是删掉它。
[[email protected] sz-db02]# ls -ltrh
total 57G
-rw-r----- 1 root root 8.0K Jul 20 2018 repdhosts.bdb
-rw-r----- 1 root root 24K Dec 29 2018 __db.001
-rw-r--r-- 1 root root 115M Dec 29 2018 sz-db02.ldb
-rw-r----- 1 root root 8.0K Aug 5 13:33 crfconn.bdb
-rw-r----- 1 root root 16M Oct 12 16:47 log.0000007865
-rw-r----- 1 root root 1.3G Oct 12 17:33 crfloclts.bdb
-rw-r----- 1 root root 1.1G Oct 12 17:33 crfcpu.bdb
-rw-r----- 1 root root 1.1G Oct 12 17:33 crfalert.bdb
-rw-r----- 1 root root 850M Oct 12 17:33 crfts.bdb
-rw-r----- 1 root root 998M Oct 12 17:33 crfhosts.bdb
-rw-r----- 1 root root 52G Oct 12 17:33 crfclust.bdb
-rw-r----- 1 root root 16M Oct 12 17:33 log.0000007866
-rw-r----- 1 root root 392K Oct 12 17:33 __db.002
-rw-r----- 1 root root 56K Oct 12 17:33 __db.006
-rw-r----- 1 root root 1.2M Oct 12 17:33 __db.005
-rw-r----- 1 root root 2.1M Oct 12 17:33 __db.004
-rw-r----- 1 root root 2.6M Oct 12 17:33 __db.003
[[email protected] sz-db02]# du -sh *
1.1G crfalert.bdb
52G crfclust.bdb
8.0K crfconn.bdb
1.1G crfcpu.bdb
998M crfhosts.bdb
1.3G crfloclts.bdb
850M crfts.bdb
12K __db.001
392K __db.002
2.6M __db.003
484K __db.004
904K __db.005
12K __db.006
16M log.0000007865
15M log.0000007866
8.0K repdhosts.bdb
115M sz-db02.ldb
解决手段
1.检查ora.crf服务
[[email protected] sz-db02]# /u01/app/11.2.0/grid/bin/crsctl stat res ora.crf -init -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.crf
1 ONLINE ONLINE sz-db02
2.停掉ora.crf服务
[[email protected] sz-db02]# /u01/app/11.2.0/grid/bin/crsctl stop res ora.crf -init
CRS-2673: Attempting to stop ‘ora.crf‘ on ‘sz-db02‘
CRS-2677: Stop of ‘ora.crf‘ on ‘sz-db02‘ succeeded
[[email protected] sz-db02]#
[[email protected] sz-db02]# /u01/app/11.2.0/grid/bin/crsctl stat res ora.crf -init -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.crf
1 OFFLINE OFFLINE
[[email protected] sz-db02]# ls -ltrh
total 57G
-rw-r----- 1 root root 8.0K Jul 20 2018 repdhosts.bdb
-rw-r----- 1 root root 24K Dec 29 2018 __db.001
-rw-r--r-- 1 root root 115M Dec 29 2018 sz-db02.ldb
-rw-r----- 1 root root 8.0K Aug 5 13:33 crfconn.bdb
-rw-r----- 1 root root 16M Oct 12 16:47 log.0000007865
-rw-r----- 1 root root 56K Oct 12 17:33 __db.006
-rw-r----- 1 root root 850M Oct 12 17:34 crfts.bdb
-rw-r----- 1 root root 1.3G Oct 12 17:34 crfloclts.bdb
-rw-r----- 1 root root 1.1G Oct 12 17:34 crfcpu.bdb
-rw-r----- 1 root root 1.1G Oct 12 17:34 crfalert.bdb
-rw-r----- 1 root root 998M Oct 12 17:34 crfhosts.bdb
-rw-r----- 1 root root 52G Oct 12 17:34 crfclust.bdb
-rw-r----- 1 root root 16M Oct 12 17:34 log.0000007866
-rw-r----- 1 root root 1.2M Oct 12 17:34 __db.005
-rw-r----- 1 root root 2.1M Oct 12 17:34 __db.004
-rw-r----- 1 root root 2.6M Oct 12 17:34 __db.003
-rw-r----- 1 root root 392K Oct 12 17:34 __db.002
3.删掉这些文件
[[email protected] sz-db02]# rm crfclust.bdb
rm: remove regular file `crfclust.bdb‘? yes
[[email protected] sz-db02]# du -sh
5.3G .
4.启动ora.crf服务
[[email protected] sz-db02]# /u01/app/11.2.0/grid/bin/crsctl start res ora.crf -init
CRS-2672: Attempting to start ‘ora.crf‘ on ‘sz-db02‘
CRS-2676: Start of ‘ora.crf‘ on ‘sz-db02‘ succeeded
重新查看这些文件,会发现文件已经初始化了
[[email protected] sz-db02]# ls -ltrh *.bdb
-rw-r----- 1 root root 8.0K Oct 12 17:35 crfconn.bdb
-rw-r----- 1 root root 128K Oct 12 17:35 crfclust.bdb
-rw-r----- 1 root root 8.0K Oct 12 17:35 crfhosts.bdb
-rw-r----- 1 root root 8.0K Oct 12 17:35 crfts.bdb
-rw-r----- 1 root root 8.0K Oct 12 17:35 crfalert.bdb
-rw-r----- 1 root root 8.0K Oct 12 17:35 crfcpu.bdb
-rw-r----- 1 root root 8.0K Oct 12 17:35 crfloclts.bdb
[[email protected] sz-db02]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 193G 7.1G 176G 4% /
tmpfs 100G 24G 77G 24% /dev/shm
/dev/sda1 190M 81M 96M 46% /boot
/dev/sda7 261G 2.9G 245G 2% /home
/dev/sda6 3.9G 11M 3.6G 1% /tmp
/dev/sda3 77G 13G 60G 18% /u01
[[email protected] sz-db02]#
[[email protected] sz-db02]# pwd
/u01/app/11.2.0/grid/crf/db/sz-db02
注意集群的每个节点都做一遍

一些不严格测试
我通过zabbix监控数据库io的时候也发现,即使数据库没有任何操作,服务器对根目录的io稳定在150kb/s的写,刚开始没想通为什么会出现这种情况,通过上面的排查,才知道集群某些服务(例如chm)会持续写日志,所以才会有持续的io写。
crfclust.bdb在10min内从4m到40m,速度也长的蛮快的,所以应该定期清理。
-rw-r----- 1 root root 4.2M May 22 11:33 crfclust.bdb
-rw-r----- 1 root root 41M May 22 11:42 crfclust.bdb

通过iostat -dxk 20 2测试关掉chm服务前后的磁盘io,这里舍弃第一次的展示结果,因为第一次出现的结果是系统启动以来的平均值,没有参考价值
关闭chm服务
开启chm服务
可以看到开启chm服务,会占用100多kb/s的磁盘io,这也就解释了数据库服务器没有任何操作情况下,仍然有io的原因。目前不清楚关掉这个chm服务是否对数据库有影响,谨慎起见还是让它打开,仅在清理这些文件时临时关闭即可。
转自 https://blog.csdn.net/weixin_34209851/article/details/93950106

原文地址:https://www.cnblogs.com/ritchy/p/11676932.html

时间: 2024-10-07 16:29:56

Oracle - crfclust.bdb文件太大的相关文章

11.2.04 Oracle RAC 目录中 crfclust.bdb文件过大,Bug 20186278

今天发现我们的数据库服务器CRS安装目录突然增大,经过查找发现在crf目录中存在一个非常大的crf文件,通过MOS查找,发现命中Bug 20186278, 记录一下,以防忘记 [[email protected] smidb11]$ pwd /oracle/app/11.2.0/grid_1/crf/db/smidb11 [[email protected] smidb11]$ ls -l total 31863680 -rw-r----- 1 root root   578748416 Aug

一键解决pdf文件太大如何变小的难题

PDF文件是适用于文件下发,阅读等便捷的电子文件格式,在传输发送的过程中,我们PDF文件较大的情况下,就需要将PDF文件压缩,那么PDF文件太大如何变小呢?对于PDF文件压缩不是太了解的用户可能就想不到好的办法解决,本文将教大家一键解决pdf文件太大如何变小的难题. 1.首先,我们需要了解的是PDF文件进行压缩,我们这里是需要借助到一款叫作迅捷PDF转换器的软件,所以,现在需要做的就是打开浏览器,在电脑上下载安装.软件下载:pdf压缩器http://www.newasp.net/soft/213

怎么解决apache日志文件太大的问题

原文地址:http://un173.blog.51cto.com/8263566/1598346 管理apache服务器有些年头,虽然最近几年被nginx抢了不少风头,但我依然钟爱apache. 喜欢它强劲的并发处理能力,以及forker与worker模式间自由选择的快感,哈哈. 熟悉linux下apache运维的朋友,多少都会遇到过apache日志文件太大的问题,网站刚上线时不会在意到这个问题,因为流量小,自然error.log与access.log文件内容也就少,文件容量不大,因此,配置时也

[转]MySql ibdata1文件太大如何缩小

From : http://blog.chinaunix.net/uid-24373487-id-4223322.html 原文地址:MySql ibdata1文件太大如何缩小 作者:emailwht MySql ibdata1文件太大如何缩小 MySql innodb如果是共享表空间,ibdata1文件越来越大,达到了30多个G,对一些没用的表进行清空:truncate table xxx;然后optimize table xxx; 没有效果因为对共享表空间不起作用.mysql ibdata1

VS产生sdf和ipch文件太大处理方案

原地址:http://blog.csdn.net/feidewu/article/details/8395864 使用VS的人一方面享受着它功能的强大,一方面又十分痛恨他生成的文件占用的空间太大了,硬盘吃不消啊! 一个helloworld程序,用DEV ++也就那么几K,但是用VS就要占到几十M,主要是生成.sdf和ipch文件体积太大了.在网上找了一下也没发现有什么优化的方法,倒是可以将sdf和ipch文件集中到另外一处,然后定期清除,这样节省程序文件的空间. 方法: 工具-->选项-->文

清理SQL Log 文件太大的方法

在我们日常的数据库运行中,一般数据库文件才几十M ,但ldf 的日志文件就占到了 几个G的空间,所以 有时需要清理一下.下面是运行脚本的语句: declare @db nvarchar(20)set @db='你的数据库文件名'dump transaction @db with no_logbackup log @db with no_logdbcc shrinkdatabase(@db) 清理SQL Log 文件太大的方法

[办公自动化]PPT文件太大,如何压缩?

如果你经常需要制作PPT,文件太大的确是个问题. 那么应该如何压缩呢? 以office 2007为例 第一.可以选中图片,然后双击,在弹出的菜单栏中,选择压缩图片. 然后选择选项, 有三种比例可选,建议一般演示可以选择“演示”或者“邮件”. 第二.将图像更改为图片,再使用. 例如visio等制作的图片,建议改为jpg后再使用.虽然效果一样,但是文件大小会有比较大的影响. 第三.使用第三方工具 nxpowerlite是一个可以使用的工具.网站上有试用版可以下载.http://www.nxpower

Mysql文件太大导入失败解决办法总结

在使用phpmyadmin导入数据库的时候可能会碰到由于数据库文件太大而无法导入的问题! 英文提示如下:File exceeds the maximum allowed size 如果正在使用的主机可以自定义php.ini的话,就可以通过直接修改这个文件来解决,即通过通过编辑php.ini文件来重新设定上传文件大小的限定,具体操作步骤: 第一步:打开php.ini,找到 upload_max_filesize . memory_limit . post_max_size 这三个参数! 他们所代表

系统操作(mac)-文件太大无法拷贝到U盘

现在的网速是越来越快了,各种在线传输文件还是算比较快了,若遇到像7.8个GB的文件,还是U盘来得实在,但是很的多Mac用户在向U盘拷贝文件时总会遇到"文件太大,无法拷贝"的错误提示: U盘容量明明是够的啊.其实问题不是出在文件大小上面,而是U盘格式.目前大部分U盘出厂格式为FAT32,而这种格式是不支持存储4GB以上文件的,所以在拷贝一些高清电影.游戏等文件时会出现以上提示.如何解决这个问题呢,这还是很简单的,把 FAT32 格式转换为 ExFAT 即可,这里需要用到 MAC 系统中的