使用rman备份到挂载的NFS目录,提示ORA-19504-27054报错

一、在AIX下挂载NFS后,手动运行rman备份脚本

报错信息如下:

RMAN-03009: failure of backup command on ch1 channel at 05/05/2014 19:07:05

ORA-19504: failed to create file "/sapbackup/orabak/rman_bak/bak_20140505_7fp7hu6o_1_1"

ORA-27054: NFS file system where the file is created or resides is not mounted with correct options

Additional information: 6

然后检查目录权限,发现有读写和可执行的权限,并且尝试在目录里面新建和删除文件操作,均未发现异常。

二、查询oracle官方资料,说可能是一个早期的bug

如是根据官方给的提示进行操作:

vim /etc/filesystems

#添加如下内容:

/sapbackup/orabak:

dev             = /volume1/sap_db

vfs             = nfs

nodename        = 10.203.20.67

mount           = true

options         = rw,bg,hard,rsize=32768,wsize=32768,vers=3,cio,intr,timeo=600,proto=tcp

account         = false

官方参考资料:

mount -o hard,bg,proto=tcp,suid,rsize=32768,wsize=32768,noac 10.203.20.67:/volume1/sap_db /sapbackup/orabak

直接使用umount /sapbackup/orabak,提示“umount: device is busy”,如是使用下面的命令进行卸载操作(Linux下通常是使用fuser -km /mnt/cdrom 查询当前使用的进程,并kill掉)

AIX下umount命令:

fuser -kxuc /sapbackup/orabak

umount  /sapbackup/orabak                        #如果卸载但提示设备正被使用的话,可以使用umount -f参数

mount -v nfs -o rw,bg,hard,rsize=32768,wsize=32768,vers=3,cio,intr,timeo=600,proto=tcp 10.203.20.67:/volume1/sap_db /orabak

# startsrc -g nfs

# nfso -a | grep nfs_use_reserved_ports

# nfso -o nfs_use_reserved_ports=1

# mount -v nfs -o rw,bg,hard,rsize=32768,wsize=32768,vers=3,cio,intr,timeo=600,proto=tcp 10.203.20.67:/volume1/sap_db /orabak

# mount 10.203.10.157:/SAP /nfs

# df -g

三、尝试使用下面的备份脚本:

# cat sapprd_bak.sh

rman nocatalog target / <<EOF

run{

configure retention policy to recovery window of 31 days;

allocate channel ch1 device type disk;

crosscheck backup;

crosscheck archivelog all;

sql 'alter system archive log current';

backup database format "/sapbackup/orabak/rman_bak/bak_%T_%U";

sql 'alter system archive log current';

backup archivelog all format '/sapbackup/orabak/rman_bak/arch_bak_%T_%U' delete all input;

backup current controlfile format '/sapbackup/orabak/rman_bak/con_bak_%T_%U';

crosscheck backup;

crosscheck archivelog all;

delete noprompt expired backup;

delete noprompt obsolete;

delete noprompt backup of database completed before 'sysdate - 31';

release channel ch1;

}

exit

EOF

测试备份成功!

-----------------------------------------------------------------------------------------------------------------------------------

生产系统需要导出数据到一个NFS目录下报错

bash-3.00$ expdp \'/ as sysdba\' directory=bak_data_pump_dir schemas=epm_ha dumpfile=epm_ha.dmp logfile=epm_ha.log

Export: Release 10.2.0.4.0 - 64bit Production on Friday, 21 May, 2010 16:09:25

Copyright (c) 2003, 2007, Oracle.  All rights reserved.

Connected to: Oracle Database 10g Enterprise Edition Release 10.2.0.4.0 - 64bit Production
With the Partitioning, Real Application Clusters, OLAP, Data Mining
and Real Application Testing options
ORA-39001: invalid argument value
ORA-39000: bad dump file specification
ORA-31641: unable to create dump file "/epmhis/DATA_PUMP_EPMHA1/epm_ha.dmp"
ORA-27054: NFS file system where the file is created or resides is not mounted with correct options
Additional information: 2

网上搜索资料,解决方法包括设置事件10298 level 32,alter system set event='10298 trace name context forever, level 32' scope = spfile;打补丁:5146667,或者在mount的时候设置参数:rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0。在solaris系统上tcp参数不可用。

由于是生产系统,尽量采用不停数据库来解决,重新mount。

1 umount目录

umount /epmhis

2 mount目录加一些参数

mount -F nfs -o rw,hard,nointr,noac,vers=3,rsize=32768,wsize=32768 IP地址:/epmhis /20100521

3 重新expdp导出文件到NFS目录

Export: Release 10.2.0.4.0 - 64bit Production on Friday, 21 May, 2010 16:41:37

Copyright (c) 2003, 2007, Oracle.  All rights reserved.
;;;
Connected to: Oracle Database 10g Enterprise Edition Release 10.2.0.4.0 - 64bit Production
With the Partitioning, Real Application Clusters, OLAP, Data Mining
and Real Application Testing options
FLASHBACK automatically enabled to preserve database integrity.
Starting "SYS"."SYS_EXPORT_SCHEMA_15":  '/******** AS SYSDBA' directory=bak_data_pump_dir schemas=epm_ha dumpfile=epm_ha.dmp logfile=epm_ha.log
Estimate in progress using BLOCKS method...
Processing object type SCHEMA_EXPORT/TABLE/TABLE_DATA
Total estimation using BLOCKS method: 355.2 GB
Processing object type SCHEMA_EXPORT/USER
Processing object type SCHEMA_EXPORT/SYSTEM_GRANT
Processing object type SCHEMA_EXPORT/ROLE_GRANT
Processing object type SCHEMA_EXPORT/DEFAULT_ROLE
Processing object type SCHEMA_EXPORT/TABLESPACE_QUOTA
Processing object type SCHEMA_EXPORT/PRE_SCHEMA/PROCACT_SCHEMA
Processing object type SCHEMA_EXPORT/SYNONYM/SYNONYM
Processing object type SCHEMA_EXPORT/DB_LINK
Processing object type SCHEMA_EXPORT/SEQUENCE/SEQUENCE
Processing object type SCHEMA_EXPORT/SEQUENCE/GRANT/OWNER_GRANT/OBJECT_GRANT
Processing object type SCHEMA_EXPORT/TABLE/TABLE
Master table "SYS"."SYS_EXPORT_SCHEMA_15" successfully loaded/unloaded
******************************************************************************
Dump file set for SYS.SYS_EXPORT_SCHEMA_15 is:
  /epmhis/DATA_PUMP_EPMHA1/epm_ha.dmp
Job "SYS"."SYS_EXPORT_SCHEMA_15" successfully completed at 17:56:28

没有报错,问题解决。

原文地址:http://blog.51cto.com/sf1314/2056961

时间: 2024-08-27 14:23:58

使用rman备份到挂载的NFS目录,提示ORA-19504-27054报错的相关文章

shutil.copytree拷贝目录到cifs格式路径报错临时解决办法

shutil.copytree拷贝目录到cifs格式路径报错临时解决办法: 报错原因: 我理解是因为不能保留cifs路径的目录原时间戳(提示权限拒绝),非cifs格式路径不存在该问题 临时解决办法: 通过os.system调用另1个shell脚本(rsync拷贝目录)解决,rsync也是报权限拒绝,不过区别是rsync不影响脚本继续进行(shutil.copytree是直接报错终止) 原文地址:http://blog.51cto.com/yangzhiming/2135844

Error:NFS启动无法绑定IPV6地址报错

NFS服务启动时无法绑定ipv6地址 在测试NFS的时候,突然发生了从未有过的错误,故障信息如下,为此特地描述一下排错的过程,供同行参考: info:[[email protected] ~]# service nfs startStarting NFS services:                                     [  OK  ]Starting NFS quotas:                                       [  OK  ]S

PyChram中同目录下import引包报错的解决办法?

相信很多同学和我一样在PyChram工具中新建python项目的同目录下import引包会报错提示找不到,这是因为该项目找不到python的环境导致的: 解决办法: 1.首先找到Python的安装文件目录如我的是:C:\Python27\Lib\site-packages 在目录下新建--项目名.pth---文件内容如下: #项目路径C:\seleniumtest\myweb C:\seleniumtest\myweb\myweb #应用程序路径 C:\seleniumtest\myweb\bl

gulp使用技巧-删除node_modules文件夹,解决目录层次太深删除报错的问题

问题描述: 在使用gulp当中,自动生成的node_modules文件夹,因为文件目录层级太深,无法系统删除,用360粉碎工具也报错 解决方法: 使用npm中的插件rimraf,专门用于删除的模块插件 1.安装:npm install -g rimraf(全局安装) 2.使用:先定位目标文件夹的父级目录,然后命令行输入rimraf ***(***为需要删除的文件夹名称), 案例:(命令行操作,删除gulptest下的node_modules文件夹) 整个node_modules文件夹被删除的干干

Qt编译目录下exe文件执行报错问题的解决办法

使用Qt5.9.3+vs2017环境,编译项目生成Debug目录,运行其中的exe文件,出现以下错误(qt creator调试状态下或出安装包后是可以运行的): 经过查阅资料,发现是我重新配置Qt开发环境后忘记配置环境变量.当我们用Qt Creator直接运行时,不报错是因为Creator自己去找对应的dll,但直接运行debuge目录下的exe时,其只会在当前exe运行目录以及window环境变量目录中去找dll.当找不到时程序就会提示无法找到xxx.dll. 操作步骤如下: 1.双击编辑系统

目录下文件过多删除报错 -bash: /bin/rm: Argument list too long

rm -f * "-bash: /bin/rm: Argument list too long".. 意思是参数太长,rm 干不了.可以用ls | xargs rm -f这个命令将目录下所有文件删除.

Oracle 11g R2 RAC RMAN备份脚本示例

一.将RAC切换成归档模式 1. 修改数据库的归档模式,通常在安装RAC的时候都会配置归档并且使用闪回区,已经配置过归档下面的方式可以略过. SQL> alter system set cluster_database=false scope=spfile sid='*'; 2. 关闭所有实例(两边都要shutdown) SQL> shutdown immediate 或直接关闭所有实例   $ srvctl stop database -d orcl 3. 在任意一个实例上将数据库启动到mo

mysql数据库迁移目录后slave报错

使用source /sql文件 导入数据库时,文件太大导致了超时. 后面使用scp -r 拷贝整个目录过去,启动slave报错.后来写了个脚本,批量修复: #!/bin/sh/usr/local/mysql/bin/myisamchk -of ./sundiszuzx/$1/usr/local/mysql/bin/myisamchk -r ./sundiszuzx/$1/usr/local/mysql/bin/myisamchk --safe-recover ./sundiszuzx/$1 原文

创建RMAN备份 恢复目录数据库

这是前段时间给客户做的RMAN备份策略,今天有时间整理出来,希望对大家有些帮助,如有不对的地方欢迎大家给予指点,谢谢!   创建成恢复目录数据库 如果不是在本地配置RMAN 恢复目录, 在一台WINDOW2000电脑上安装ORACLE数据库,最好保证数据库版本与目标数据库的版本想同. 建立RMAN 数据库用户及表空间: RECOVER CATALOG 表空间(cattbs):1G系统表空间:       100MUNDO表空间:     100M临时表空间(TEMP):        100M