DB处理大量数据处理日志报错问题

因为当插入、更新或删除大批量数据的时候,有时候会出现事务日志满的问题,所以解决步骤

1.连接到当前数据库

db2 connect to uppdb

2.查看数据库配置文件

db2 get db cfg for uppdb

此命令可以查看数据库相关配置,包括字符集、日志文件大小等

查看当前数据库的日志文件大小(LOGFILSIZ),主日志数(LOGPRIMARY),辅日志数(LOGSECOND)

一般默认设置:logfilsiz:4k,logprimary:10,logsecond:2

3.修改日志大小

db2 update db cfg for uppdb using LOGFILSIZ 2048

4修改主日志数

db2 update db cfg for uppdb using LOGPRIMARY 15

5修改辅日志数

db2 update db cfg for uppdb using LOGSECOND 10

然后重启数据库

6.查看数据库活动

db2 list appliactions

7.强制停止数据库连接

db2 force application all

8.停止数据库

db2stop

9启动数据库

db2start
时间: 2024-08-09 18:40:29

DB处理大量数据处理日志报错问题的相关文章

11gR2数据库日志报错:Fatal NI connect error 12170、

11gR2数据库日志报错:Fatal NI connect error 12170.TNS-12535.TNS-00505 [问题点数:100分,结帖人MarkIII] 不显示删除回复             显示所有回复             显示星级回复             显示得分回复             只显示楼主           收藏 关注 MarkIII MarkIII 等级: 结帖率:98.94% 楼主发表于: 2011-05-13 10:33:10 Fatal NI

数据库日志报错问题分析

Thread 1 cannot allocate new log, sequence 466 Private strand flush not complete Current log# 7 seq# 465 mem# 0: /home/app/oracle/oradata/orcl/redo07.log Thread 1 advanced to log sequence 466 (LGWR switch) Current log# 8 seq# 466 mem# 0: /home/app/or

记一次rsync日志报错directory has vanished

中午两点的时候邮件告知rsync同部svn源库失败,看rsync日志报错显示如上,当时还在上课,没在公司,怀疑是不是有人动了svn的版本库,后来询问同事并通过vpn登录服务器上查看版本库是正常的,也没有同事反应svn有问题,后来看邮件通知都是正常的,后来查资料说是在同步的过程中,正好有人执行了删除文件的操作,要不要这么巧,不知道是不是这个原因,有知道的小伙伴请联系我:528634141,资料显示如下: Can you ensure, that there is no traffic on the

message日志报错:TCP: time wait bucket table overflow,K哥

2015.9.13 message日志报错:TCP: time wait bucket table overflow 网上很多解决办法,我也是百度的,哈哈 先盗一张图,因为问题已经很久了,没截图 K哥盗图. 这个报错需要更改net.ipv4.tcp_max_tw_buckets这个内核参数. 这个参数是系统同时保持timewait套接字的最大数量. 如果超过这个数字,time-wait套接字将立刻被清除并打印警告信息. 这个限制仅仅是为了防止简单的 DoS攻击. 解决方法: 增大 tcp_max

nginx error日志报错

经过与开发的不断协作,终于差不多把error日志的报错信息消灭的差不多了,但还是偶尔出现"*1939 an upstream response is buffered to a temporary file /var/cache/nginx/proxy_temp/2/00/0000000002 while reading upstream, client: 116.231.88.XX, server: _, request: "GET /time HTTP/1.1", ups

linux 日志报错:error (unexpected RCODE REFUSED) resolving '

今天在机子上查看日志,偶然间发现了一堆错误.因为之前配置过DNS 和 squid,报错,之后查错,某度了一下,没找到答案. 下面是一点错误信息: Aug  8 11:40:30 host named[1668]: error (unexpected RCODE REFUSED) resolving '208.22.200.65.in-addr.arpa/PTR/IN': 74.115.231.45#53Aug  8 11:40:30 host named[1668]: error (unexpe

ssh无法登陆,secure日志报错not allowed because none of user's groups

背景:一台阿里云ECS跑了云市场的一个安全加固脚本,限制了root登录和密码登录,由于客户需求,需要将root放开 对应操作: vim /etc/ssh/sshd_config PermitRootLogin yes PasswordAuthentication yes 改完后,便立马重启ssh服务(/etc/init.d/sshd  restart)登录测试 居然还是登录不了,还以为密码错误呢,就是用控制台VNC登录,证明密码没有问题. 特烦恼,查边了百度的关于限制root用户登录的帖子,都是

Kafka日志报错:[error] k.m.j.KafkaJMX$ - Failed to connect to service:jmx:rmi:///jndi/rmi://10.1.3.116:-1/jmxrmi java.lang.IllegalArgumentException: requirement failed: No jmx port but jmx polling enabled!

一.Kafka日志报错:[error] k.m.j.KafkaJMX$ - Failed to connect to service:jmx:rmi:///jndi/rmi://10.1.3.116:-1/jmxrmi java.lang.IllegalArgumentException: requirement failed: No jmx port but jmx polling enabled! 以上报错,并没有对Kafka对使用造成直接影响: 1>.启动生产者:kafka-console

gazebo仿真踩坑--rviz中设定机器人的目标位置,move_base后台日志报错

启动仿真环境及各种节点(amcl,move_base,map_server)后,在rviz中设定机器人的目标位置,后台日志报错 [ INFO] [1571974242.864525935, 40.511000000]: Got new plan[ERROR] [1571974242.964186066, 40.612000000]: Extrapolation Error: Lookup would require extrapolation into the future.  Requeste