OpenStack L3 HA agent and VRRP

OpenStack L3 HA agent and VRRP

active/active

此方案描述利用了模块化layer 2 (ML2) 插件与Open vSwitch (OVS) OpenStack对 Networking Layer 3 High-Availability (L3 HA) 的一个基本实现。

在controller node 和network node

编辑配置文件/etc/neutron/neutron.conf

allow_automatic_l3agent_failover = True 这一条只在控制节点配置就行,其余节点不需要

l3_ha = True

max_l3_agents_per_router = 3

min_l3_agents_per_router = 2 这里根据实际L3 agent数量来写

dhcp_agents_per_network = 2 这里根据实际dhcp agent数量来写

验证:

1.在控制节点上查看agent

2.在网络节点上查看NS(namespace)qrouter和qdhcp

网络节点1

网络节点2

两个网络节点的qrouter命名空间应当使用相同的UUID

3. 在网络节点上验证HA操作

网络节点1

网络节点2

在每个网络节点, qrouter命名空间应当包含ha、 qr和qg接口。在主动节点上, qr 接口包含租户网关IP地址, qg接口包含租户到外部网络的网络路由器IP地址。在被 动节点上, qr和qg 接口不应该包含IP地址。在这两个节点上, ha接口应该包含一 个唯一的在169.254.192/18范围内的IP地址。

4. 在网络节点上,验证从主节点HA接口在外部网路接口的IP地址的VRRP

网络节点1:

网络节点2:

5. 测试连接到租户网络路由器

6.测试云主机到互联网

7.最后暴力测试,down掉一台network node,继续ping外网看看有没有网络中断或者上不去网的情况。

时间: 2024-08-26 14:46:10

OpenStack L3 HA agent and VRRP的相关文章

openstack neutron L3 HA

作者:Liping Mao  发表于:2014-08-20 版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明 最近Assaf Muller写了一篇关于Neutron L3 HA的文章很不错. 建议看原文,地址如下: http://assafmuller.wordpress.com/category/ml2/ 大致翻译如下: L3 Agent Low Availability(L3 agent的低可用性) 目前,在Openstack中,你只能用多个网络节点达到

Neutron - L3 HA VRRP配置

Juno版本的l3 ha采用的是keepalived这个工具,其内部实现了vrrp协议.先来介绍下vrrp: VRRP简介 VRRP是一种路由容错协议,也可以叫做备份路由协议.一个局域网络内的所有主机都设置缺省路由,当网内主机发出的目的地址不在本网段时,报文将被通过缺省路由发往外部路由器,从而实现了主机与外部网络的通信.当缺省路由器down掉(即端口关闭)之后,内部主机将无法与外部通信,如果路由器设置了VRRP时,那么这时,虚拟路由将启用备份路由器,从而实现全网通信.(选自百度百科:虚拟路由冗余

OpenStack Mitaka HA部署方案(随笔)

[Toc] --- title: Openstack Mitaka 集群安装部署 date: 2017-03-04-14 23:37 tags: Openstack --- ==openstack运维开发群:94776000 欢迎牛逼的你== ### Openstack Mitaka HA 实施部署测试文档 #### 一.环境说明 ##### 1.主机环境 ``` controller(VIP) 192.168.10.100 controller01 192.168.10.101, 10.0.0

OpenStack Mitaka HA高可用搭建

OpenStack Mitaka HA高可用搭建mini试看版version 1.0环境虚拟机列表:10.1.1.120 controller1 controller1.test.com10.1.1.121 controller2 controller2.test.com10.1.1.122 controller3 controller3.test.com10.1.1.133 compute1 compute1.test.com10.1.1.134 glance-backend backend.

openstack controller ha测试环境搭建记录(一)——操作系统准备篇

为了初步了解openstack controller ha的工作原理,搭建测试环境进行学习. 在学习该方面知识时,当前采用的操作系统版本是centos 7.1 x64.首先在ESXi中建立2台用于测试的虚机,最小化安装完成centos,配置IP分别为10.0.0.12.10.0.0.13,主机名分别为controller2.controller3. 关闭防火墙:# systemctl stop firewalld# systemctl disable firewalld 修改主机名:# host

openstack controller ha测试环境搭建记录(十二)——配置neutron(计算节点)

在计算节点配置内核参数:vi /etc/sysctl.confnet.ipv4.conf.all.rp_filter=0net.ipv4.conf.default.rp_filter=0 在计算节点使内核参数立即生效:sysctl -p 在计算节点安装软件:yum install -y openstack-neutron-ml2 openstack-neutron-openvswitch 在计算节点修改配置文件:openstack-config --set /etc/neutron/neutro

openstack controller ha测试环境搭建记录(三)——配置haproxy

haproxy.cfg请备份再编辑:# /etc/haproxy/haproxy.cfg global    chroot /var/lib/haproxy    daemon    group haproxy    maxconn 4000    pidfile /var/run/haproxy.pid    user haproxy defaults    log global    maxconn 4000    option redispatch    retries 3    time

openstack controller ha测试环境搭建记录(六)——配置keystone

在所有节点的hosts文件添加:10.0.0.10 myvip 在所有节点安装# yum install -y openstack-keystone python-keystoneclient# yum install -y openstack-utils 在所有节点设置keystone.conf文件使用mysql集群地址:# openstack-config --set /etc/keystone/keystone.conf database connection mysql://keysto

openstack controller ha测试环境搭建记录(十三)——配置cinder(控制节点)

在任一控制节点创建用户:mysql -u root -pCREATE DATABASE cinder;GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' IDENTIFIED BY '123456';GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%' IDENTIFIED BY '123456'; 在任一控制节点创建相关用户:source admin-openrc.shkeystone u