ASM磁盘组删除磁盘

[[email protected] ~]$ su - grid
sqlplus / as sysasm
Connected.
SQL> alter diskgroup data drop disk data_0001;
Diskgroup altered.
SQL> select disk_number, state, name, total_mb, free_mb from v$asm_disk where group_number = 4;
DISK_NUMBER STATE NAME TOTAL_MB FREE_MB
----------- -------- ------------------------------ ---------- ----------
1 DROPPING DATA_0001 1953124 1950842
0 NORMAL DATA_0000 1953124 1948124
SQL> select disk_number, state, name, total_mb, free_mb from v$asm_disk where group_number = 4;
DISK_NUMBER STATE NAME TOTAL_MB FREE_MB
----------- -------- ------------------------------ ---------- ----------
1 DROPPING DATA_0001 1953124 1951434
0 NORMAL DATA_0000 1953124 1947532
SQL> select disk_number, state, name, total_mb, free_mb from v$asm_disk where group_number = 4;
DISK_NUMBER STATE NAME TOTAL_MB FREE_MB
----------- -------- ------------------------------ ---------- ----------
1 DROPPING DATA_0001 1953124 1952556
0 NORMAL DATA_0000 1953124 1946410
SQL> select disk_number, state, name, total_mb, free_mb from v$asm_disk where group_number = 4;
DISK_NUMBER STATE NAME TOTAL_MB FREE_MB
----------- -------- ------------------------------ ---------- ----------
1 DROPPING DATA_0001 1953124 1953096
0 NORMAL DATA_0000 1953124 1945870
SQL> select disk_number, state, name, total_mb, free_mb from v$asm_disk where group_number = 4;
DISK_NUMBER STATE NAME TOTAL_MB FREE_MB
----------- -------- ------------------------------ ---------- ----------
0 NORMAL DATA_0000 1953124 1945854
SQL> select group_number, disk_number, path, name, state, total_mb, free_mb
2 from v$asm_disk
3 where path = ‘/dev/asm-disk5‘;
GROUP_NUMBER DISK_NUMBER PATH NAME STATE TOTAL_MB FREE_MB
------------ ----------- --------------- ---------- -------- ---------- ----------
0 1 /dev/asm-disk5 NORMAL 0 0
可以看到,虽然删除操作执行完成,但是磁盘并没有真正被删掉,ASM在后台尝试将磁盘上的数据挪到其他可用磁盘中,这时磁盘的状态为DROPPING。
当后台数据同步的操作完成,磁盘的组信息被清除,磁盘恢复STATE状态。这时这个磁盘就从ASM中被彻底删除。

原文地址:https://www.cnblogs.com/elontian/p/9427800.html

时间: 2024-10-17 07:02:04

ASM磁盘组删除磁盘的相关文章

11gR2_RAC现有磁盘组添加磁盘

1.AIX系统添加两块硬盘hdisk17,hdisk18,并进行配置. 1)给磁盘分配pvid 外部存储设备中的同一块硬盘在不同节点上的名称可能会不同.同一个硬盘在节点一中的名称可能是hdisk4,在节点二中的名称可能是hdisk5.虽然ASM实例能正确识别这样的硬盘,但对于管理员来说可能会产生歧义.不管怎样,这块硬盘有一个不变的属性是PVID,无论在节点一还是节点二下都是一样的.通过下面的命令可以产生硬盘的PVID chdev -l hdisk17 -a pv=yes chdev -l hdi

为data磁盘组删除当中一个盘(asm external data盘组中有两块盘)

删除磁盘,注意,假设删掉磁盘之后.数据在剩余磁盘中.是否有足够空间存储.假设空间不够.删除工作不会成功. 检查空间够不够: select a.GROUP_NUMBER,a.DISK_NUMBER,a.NAME ,decode(sign(a.FREE_MB-d.COLD_USED_MB/ 2),1 ,'Y',- 1,'N' ,'N') from v$asm_diskgroup d,v$asm_disk a where a.GROUP_NUMBER = d.GROUP_NUMBER and a.GR

为data磁盘组删除其中一个盘(asm external data盘组中有两块盘)

删除磁盘,注意,如果删掉磁盘之后,数据在剩余磁盘中,是否有足够空间存储.如果空间不够,删除工作不会成功. 检查空间够不够: select a.GROUP_NUMBER,a.DISK_NUMBER,a.NAME ,decode(sign(a.FREE_MB-d.COLD_USED_MB/ 2),1 ,'Y',- 1,'N' ,'N') from v$asm_diskgroup d,v$asm_disk a where a.GROUP_NUMBER = d.GROUP_NUMBER and a.GR

Oracle RAC 故障处理(二)(+DATA磁盘组故障)

环境:测试 DB:Oracle 11.2.0.4.0 OS:Oracle Linux Server release 6.3 on Oracle VM VirtualBox node:rac1,rac2 instance:cjcdb1,cjcdb2 问题二:DATA磁盘组损坏,导致数据库无法启动和使用 问题原因: 测试RAC环境进行过多次增加节点.删除节点.删除实例等操作,导致DATA磁盘损坏 解决方案: 本次案例为测试环境,直接删除重建DATA磁盘组,重建实例,测试数据将丢失,正式环境勿用! -

案例:Oracle非常规恢复 ASM磁盘组diskgroup被删除使用kfed进行完美恢复

Oracle RAC环境ASM磁盘组被强制删除,使用kfed工具完美恢复误删除磁盘组案例 在某些情况下,可能因为误操作,不小先drop diskgroup,这个时候千万别紧张,出现此类故障,可以通过kfed进行完美恢复(数据0丢失).如果进一步损坏了相关asm disk,那后续恢复就很麻烦了,可能需要使用dul扫描磁盘来进行抢救性恢复,而且可能导致数据丢失. 1.创建Oracle环境中的测试磁盘组 [[email protected] ~]$ sqlplus / as sysasm SQL*Pl

如何卸载并删除ASM磁盘组

1.以oracle用户登录RAC数据库节点1: [email protected]:~> export ORACLE_SID=+ASM1 [email protected]:~> sqlplus sys/xxxxx as sysdba SQL*Plus: Release 11.1.0.7.0 - Productionon Mon Feb 18 14:34:20 2013 Copyright (c) 1982, 2008, Oracle.  All rights reserved. Connec

Oracle RAC 删除ASM磁盘组

1.检查确认要删除的磁盘组是否在用 select * from dba_data_files; select * from dba_temp_files; select * from v$logfile; 2.先在各节点上dismount磁盘组 alter diskgroup REDO01 dismount; alter diskgroup REDO02 dismount; alter diskgroup REDODG1 dismount; 3.ASM中删除磁盘组 drop diskgroup

asm添加删除磁盘

一. ASM_POWER_LIMIT 参数 这个参数 ASM_POWER_LIMIT 参数控制 ASM 后台进程 ARBx 的数量.ARBx 进程用来进行 ASM 磁盘数据重新分布打散.ASM_POWER_LIMIT 取值 从 0 到 11(据说从 10gR2 开始可以设置为 0 ). 当新添加磁盘或者删除磁盘后,ASM 会启动 ARBx 进行 IO 分散操作,该参数值越大,io 越大.这是个非常消耗资源的动作,所以一定要选择系统空闲的时候进行. ASM_POWER_LIMIT 参数官方描述:

迁移ASM故障磁盘组数据库到新磁盘组

由于原有磁盘组使用的是NORMAL冗余方式.剩余的空间只有3G.数据库空间为200G.ASM磁盘组空间不足以存放数据库.而且新增的磁盘只有一块300G的盘.为避免磁盘REBALANCE出现异常.因此将300G的磁盘做成EXTERNAL冗余方式,并采用RMAN COPY的方式,将数据库迁移到新的磁盘组.迁移成功后,在将原有的3块150G的磁盘删除.并创建一个新的EXTERNAL磁盘组备用. 1  ASM识别磁盘 1.1停集群环境 原有环境中使用了多路径,裸设备映射,ASMLIB配置.ASM添加磁盘