测试环境:
在上篇博文配置heartbeat haresources 作为资源管理器的基础上配置crm (使用hb_gui的配置接口);
1.在web1上关闭heartbeat服务
#service heartbeat stop
#ssh web2.luochen.com ‘service heartbeat stop‘
2.在web1上编辑ha.cf文件,启用crm
#vim /etc/ha.d/ha.cf
node web1.luochen.com
node web2.luochen.com
crm on ####添加这一行
3.在web1上同步配置文件到web2节点上
#/usr/lib64/heartbeat/ha_propagate (只同步authkeys,ha.cf文件)
4.在web1和web2上安装图形化配置工具heartbeat-gui
#rpm -ivh heartbeat-gui-2.1.4.el5.i386.rpm
5.在web1和web2上删除haresources 文件
#rm -rf /etc/ha.d/haresources
#service heartbeat start
PS:在web1和web2上都没有VIP和httpd服务启动证明配置成功,看到5560 端口正在监听则就可以继续配置了;crm通过mgmtd进程监听在tcp/5560端口;
6.提供图形配置接口的用户密码(需要启动hb_gui的主机为hacluster用户添加密码,并且使用其登录hb_gui)
#tail /etc/passwd
#passwd hacluster
#hb_gui & ###(需要安装Xmanager)
有两种方法将所有的资源绑定到一个节点上;第一种方法使用排列约束,位置约束和顺序约束,另一种方法是定义资源组
第一种方法定义排列约束,位置约束和顺序约束:
测试环境:
192.168.1.111 web1
192.168.1.112 web2
192.168.1.114 nfs
VIP:192.168.1.140
hb_gui的登录界面:
节点和资源列表:
添加VIP
添加httpd
添加排列约束,将两个资源绑定到同一个节点上 (默认是不在同一节点上的)
在宿主机上测试
添加位置约束,让资源尽可能的运行在某个节点上
再次测试看是否配置成功
添加顺序约束,定义资源的启动顺序和关闭顺序
最后在运行资源的节点上查看VIP是否配置成功
第二种方法定义资源组:
测试环境:
192.168.1.111 web1
192.168.1.112 web2
192.168.1.114 nfs
VIP:192.168.1.140
定义资源组
添加VIP
添加共享存储
添加httpd
查看资源组列表
在宿主机上测试
最后在运行资源的节点上查看VIP是否配置成功
PS:到此关于crm的hb_gui配置结束了。。。后面会介绍命令行的配置接口