Oracle 10G RAC 删除已有节点

如果现在在RAC集群中有三个节点c1、c2、c3:

如果想要卸载c3节点。

1、在c1或者c2上删除c3实例

运行dbca

然后选择Oracle Real Application Clusters database

选择Instance Management

选择Delete an instance

选择实例,填写用户名密码,Next

选择c3: instance3,Next

执行完毕

2、删除r3的ASM实例(如果有的话)

在c1或者c2上,在Oracle用户下:

srvctl stop asm -n c3

srvctl remove asm -n c3

3、用netca卸载删除监听

在c1或者c2上,netca

选择Cluster configuration,

选择c3节点,

选择Listener configuration,

选择Delete,

选择LISTENER

4、更新oraInventory

在c1或者c2上

在$ORACLE_HOME/oui/bin中

执行:./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME
"CLUSTER_NODES=c1,c2"

在c3上

在$ORACLE_HOME/oui/bin中

执行:./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME
"CLUSTER_NODES=c1,c2"

./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES=c3"
-local

5、在c3删除oracle软件

在$ORACLE_HOME/bin中

./runInstaller -deinstall

只删除数据库软件(不要删除集群软件)

6、删除其余资源

在c1或者c2上

在oracle用户下:

/u01/crs_1/bin/srvctl stop nodeapps -n c3

在root用户下:
/u01/crs_1/bin/srvctl remove nodeapps -n c3

7、删除c3的集群

在c3上

cd /u01/crs_1/install/

./rootdelete.sh

8、在c1上删除c3

在root用户下

cd /u01/crs_1/install

./rootdeletenodesh c3 3

9、在c1删除c3的clusterware记录信息

cd /u01/crs_1/oui/bin

./runInstaller -updateNodeList ORACLE_HOME=/u01/crs_1 "CLUSTER_NODES=c1,c2"
CRS=TRUE

10、在c3上更新oraInventory

cd /u01/crs_1/oui/bin

./runInstaller -updateNodeList ORACLE_HOME=/u01/crs_1 "CLUSTER_NODES=c3"
CRS=TRUE -local

11、在c3上删除clusterware软件

cd /u01/crs_1/oui/bin

./runInstaller -deinstall

注意:

在中途可以用crs_stat -t查看资源状态

可以用srvctl stop xxx -n c3停止一个资源

可以用srvctl remove xxx -n c3移除一个资源

时间: 2024-10-29 11:22:31

Oracle 10G RAC 删除已有节点的相关文章

ORACLE 10G RAC 节点自动重启故障处理

将数据库集群升级到10.2.0.5之后,双节点服务器不断重启,查询oracle oprocd进程日志,信息如下: Jul 03 08:16:34.702 | INF | monitoring started with timeout(1000), margin(500), skewTimeout(125) Jul 03 08:16:34.704 | INF | fatal mode startup, setting process to fatal mode 可以看到看到oprocd进程的时间间

oracle 10g rac 修改public ip、vip和private ip

oracle 10g rac 修改public ip.vip和private ip [TOC] 1.IP地址规划 Hostname 当前IP 修改后IP Public IP node1 192.168.56.20 192.168.100.20 Public IP node2 192.168.56.21 192.168.100.21 VIP node1-vip 192.168.56.98 192.168.100.98 VIP node2-vip 192.168.56.99 192.168.100.

【转】Oracle 10g RAC TAF

本人转自:http://www.cnblogs.com/future2012lg/archive/2013/10/12/3365978.html Oracle RAC 同一时候具备HA(High Availiablity) 和LB(LoadBalance). 而其高可用性的基础就是Failover(故障转移). 它指集群中不论什么一个节点 的故障都不会影响用户的使用,连接到故障节点的用户会被自己主动转移到健康节点,从用户感受而言, 是感觉不到这样的切换. Oracle 10g RAC 的Fail

AIX 5.3 Install Oracle 10g RAC 错误集锦--9i RAC present

AIX 5.3 Install Oracle 10g RAC 错误集锦--9i RAC Present 系统环境: 操作系统: AIX 5300-08 集群软件: CRS 10.2.0.1 数据库:   Oracle 10.2.0.1                     系统架构图 故障现象: 解决方法: [[email protected] tmp]# cat /etc/oratab # This file is used by ORACLE utilities.  It is creat

RedHat EL5 安装Oracle 10g RAC之--系统环境配置(1)

RedHat EL5 安装Oracle 10g RAC之--系统环境配置(1) 系统环境: 操作系统:RedHat EL5 Cluster: Oracle CRS 10.2.0.1.0 Oracle:  Oracle 10.2.0.1.0 如图所示:RAC 系统架构 一.操作系统环境 1.网络配置(在所有节点) [[email protected] ~]# cat /etc/hosts # Do not remove the following line, or various programs

RedHat EL5 安装Oracle 10g RAC之--系统环境配置(2)

RedHat EL5 安装Oracle 10g RAC之--系统环境配置(2) 系统环境: 操作系统:RedHat EL5 Cluster: Oracle CRS 10.2.0.1.0 Oracle:  Oracle 10.2.0.1.0 如图所示:RAC 系统架构 6.通过SSH配置主机间的信任关系 node1: [[email protected] ~]$ mkdir .ssh [[email protected] ~]$ ssh-keygen -t rsa Generating publi

Oracle 10g RAC启动与关闭命令

一. 检查共享设备 一般情况下, 存放OCR 和 Voting Disk 的OCFS2 或者raw 都是自动启动的. 如果他们没有启动,RAC 肯定是启动不了的. 1.1 如果使用ocfs2的,检查ocfs2 状态 /etc/init.d/o2cb status 在挂载之前,/etc/init.d/o2cb status 显示为Checking O2CB heartbeat: Not active. 在格式化和挂载文件系统之前,应验证 O2CB 在两个节点上均联机:O2CB 心跳当前没有 活动,

AIX 5.3下Oracle 10g RAC 启动故障--CRS启动失败

AIX 5.3下Oracle 10g RAC 启动故障--CRS启动失败 系统环境: 操作系统: AIX 5300-09 集群软件: CRS 10.2.0.1 数据库:   Oracle 10.2.0.1                     系统架构图 故障现象: 系统重启后,在节点上CRS 启动失败或CRS服务启动成功,CRS Resource无法ONLINE. [[email protected] racg] cat /etc/hosts 127.0.0.1              

Solaris 10(x86)构建Oracle 10g RAC之--配置系统环境(1)

系统环境: 操作系统:Solaris 10(x86-64) Cluster: Oracle CRS 10.2.0.1.0 Oracle:  Oracle 10.2.0.1.0 如图所示:RAC 系统架构 一.操作系统环境 1.网络配置(在所有节点) [[email protected]:/]# cat /etc/inet/ipnodes  # # Internet host table # ::1     localhost        127.0.0.1       localhost