neutron routers HA 实验

测试环境:

5个节点(( controller,2  network,2 compute nodes))

采用VXLAN+Linux Bridge

  1. 确定所有的neutron和nova服务都在运行

Nova service-list

Neutron agent-list

2. 创建2个networks

a)         neutron net-create private
neutron subnet-create –name private-subnet private 10.0.0.0/29

b)        
neutron net-create private1
neutron subnet-create –name private1-subnet private1 10.0.1.0/29

3. 创建一个共享的public网络连接到物理网络physnet1

Neutron net-create –shared public –router:external=True
–provide:network_type flat –provider:physical_network physnet1

Neutron subnet-create –name public-subnet public
–allocation-pool start 172.16.0.33,end-172.16.0.66 –gateway=172.16.0.5 –enable-dhcp=False
172.16.0.0/24

4. 创建一个router,–distributed为 False, –ha 为True

Neutron router-create MyRouter –distributed False –ha True

5. 把private和private1加入到MyRouter,并设置router的网关到public网络

Neutron router-interface-add MyRouter private-subnet

Neutron router-interface-add MyRouter private1-subnet

Neutron router-gateway-set MyRouter public

6. 查看各种节点上的namespace

7. Open ICMP 和port 22 in security group

Neutron security-group-rule-create –protocol icmp
–direction ingress default

Neutron security-group-rule-create –protocol tcp –port-range-min
22 –port-range-max 22 –direction ingress default

8. 启动VMs

nova boot –image cirros-qcow2 –flavor 1 –nic net-id=<private net
is> private one

nova boot –image cirros-qcow2 –flavor 1 –nic net-id=<private net
is> private two

nova boot –image cirros-qcow2 –flavor 1 –nic
net-id=<private1 net is> private1 three

nova boot –image cirros-qcow2 –flavor 1 –nic
net-id=<private1 net is> private1 four

9. Neutron port-list

10. Add floating IP

网络节点上:

Neutron floatingip-create –port-id=<port ID>

11. Neutron net-list

注意:HA network已经自动创建了。如何创建的

12. Keepalived用来监控每个HA router,VIP会随着master failes而移动

Ssh networknode

Less /var/lib/neutron/ha_confs/router_UUDI/keepalived.conf

Less /var/lib/neutron/ha_confs/router_UUDI/state

13. 看看qrouter
namespace中VIP在那个node上

Networknode1$ Ip netns exec qrouter-id ip a

Networknode2$ Ip netns exec qrouter-id ip a

14. Down 所有active router上的interfaces,VIP移动到了另外的node上了。(router不能直接down掉?)

Ip netns exec qgouter-id 
ip link set dev qg-id down

Ip netns exec qrouter-id 
ip link set dev qg-id down

Ip netns exec ha-id 
ip link set dev qg-id down

15. Up 刚才down了接口,VIP没有移动

注意:由于bug1365476, HA routers在L2 pop的情况下不工作。(VXLAN不works

时间: 2024-10-11 01:16:40

neutron routers HA 实验的相关文章

openstack neutron L3 HA

作者:Liping Mao  发表于:2014-08-20 版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明 最近Assaf Muller写了一篇关于Neutron L3 HA的文章很不错. 建议看原文,地址如下: http://assafmuller.wordpress.com/category/ml2/ 大致翻译如下: L3 Agent Low Availability(L3 agent的低可用性) 目前,在Openstack中,你只能用多个网络节点达到

How to test Neutron VRRP HA rapidly (by quqi99)

作者:张华  发表于:2015-12-09版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明 (http://blog.csdn.net/quqi99 ) neutron vrrp ha still do not support conntrack feature now. 1, Setting up test environment# bzr branch lp:~openstack-charmers/+junk/openstack-charm-testin

Neutron - L3 HA VRRP配置

Juno版本的l3 ha采用的是keepalived这个工具,其内部实现了vrrp协议.先来介绍下vrrp: VRRP简介 VRRP是一种路由容错协议,也可以叫做备份路由协议.一个局域网络内的所有主机都设置缺省路由,当网内主机发出的目的地址不在本网段时,报文将被通过缺省路由发往外部路由器,从而实现了主机与外部网络的通信.当缺省路由器down掉(即端口关闭)之后,内部主机将无法与外部通信,如果路由器设置了VRRP时,那么这时,虚拟路由将启用备份路由器,从而实现全网通信.(选自百度百科:虚拟路由冗余

【伊利丹】Hadoop2.0 NN HA实验记录

1.关于Hadoop2.2.0中HA的介绍 NameNode 简称: NN DateNode 简称: DN JournalNode  简称: JN Zookeeper  简称: ZK 从上面的图里,我们可以知道HA的大致架构: 01.利用共享存储来在两个NN之间同步元数据信息. 在NN中有两个重要的文件:一个是fsimage,一个是edits,其中fsimage指的是元数据镜像文件,存在磁盘中用来保持文件系统的目录树,然而edits指的是元数据操作日志,针对目录树的修改操作,被写入共享存储系统中

Hadoop2 namenode HA + 联邦 + Resource Manager HA 实验

实验的Hadoop版本为2.5.2,硬件环境是5台虚拟机,使用的均是CentOS6.6操作系统,虚拟机IP和hostname分别为: 192.168.63.171    node1.zhch 192.168.63.172    node2.zhch 192.168.63.173    node3.zhch 192.168.63.174    node4.zhch 192.168.63.175    node5.zhch ssh免密码.防火墙.JDK这里就不在赘述了.虚拟机的角色分配是: node

OVN HA 实验

ovn-northd服务是集中式方案,集群中所有的ovn-controller服务都连接到ovn-northd,这样ovn-northd可能会引起单点故障的问题,所以OVN用在生产环境前需要考虑ovn-northd服务HA问题, 这里记录的OVN社区ovn-northd服务的HA方案. Corosync + Pacemaker corosync +pacemaker使用原理,可参见文档 http://blog.csdn.net/rzhzhz/article/details/7104135 ovn

【甘道夫】NN HA 对于 Client 透明的实验

之前转载过一篇[伊利丹]写的NN HA实验记录,该博客描述了主备NN透明切换的过程,也就是说,当主NN挂掉后,自动将备NN切换为主NN了,Hadoop集群正常运行. 今天我继续做了一个实验,目的是实现NN的切换不会对Client端程序造成影响,即NN切换对Client透明. 首先,很重要的一点: 要保证core-site.xml中的 <property> <name>fs.defaultFS</name> <value>hdfs://hadoop-clust

HA高可用实验报错

做HA实验时,启动heartbeat出现错误: ERROR: Client child command [/usr/lib/heartbeat/ipfail] is not executable ERROR: Heartbeat not started: configuration error. ERROR: Configuration error, heartbeat not started. 因为Linux是64位的,ha.cf 配置文件里 /usr/lib/heartbeat/ipfail

Linux 之HA集群酌置

HA(高可用 High avaiilable)集群 Web1 提供服务,如果1主宕机了,2备就可以马上启用,这样有用户这端没有任何影响. 在架构的时候要配置一条心跳线来传递信息.流动IP 也是就是VIP,是主从对外共同的IP. [[email protected] ~]# iptables -F [[email protected] ~]# getenforce Disabled [[email protected] ~]# vim /etc/hosts #在主上编译上 10.72.4.21 L