对openstack(JUNO)的neutron的相关测试

这两天对公司的的openstack环境进行测试,因为环境是别的同事搭建的,我这边只负责相关的测试,一台服务器独立安装

controller node,另外两台服务器都安装network node+compute node。大概环境如下:

外网IP网段是192.168.1.0/24,其中192.168.1.100~192.168.1.200为floatingip分配范围,内网IP网段是172.16.1.0/24。

compute0上有一个instance VM00,分配了外网IP192.168.1.102,内网IP为172.16.1.2。compute1上有一个instance

VM01,分配了外网IP192.168.1.103,内网IP为172.16.1.3。VM00和VM01在同一内网子网上。

内网、外网通过router进行互联,所以可以在controller上进行与VM00和VM01进行通信。

现在需要把compute0拿掉,需要将VM00迁移到compute1上,然后将compute0进行关闭。使用nova migrate和nova

resize-confirm命令将VM00迁移到compute1上后,将compute0 shutdown掉后,在controller上无法与VM00和VM01进

行通信了。

原因如下:

在进行虚拟机迁移前,两compute的内部相关的网络组成如下:

在compute0上有router和dhcp server的namespace,如果将VM00迁移到VM01上后,shutdown掉compute0,从下图来看,没有router的namespace,

所以到VM00和VM01的路由是不同的,迁移后的相关的网络组建构图如下:

为什么dhcp server还存在呢,这个可能和openstack的安装有关,可能在安装时dhcp server是HA模式的,那大家肯定会问,我为什么知道dhcp server是存在

的呢?我创建一个instance,并且使用dhcp模式,新的instance分配到了IP地址,并且使用ip netns查看到确实有dhcp的namespace生成了。

那如何才能关闭compute0后,使网络仍然有效呢?自然想到把router也迁移过去,解决方案差不多,使用HA router,知道在创建时使用--HA True选项,使用

HA router后,两compute的网络组成如下:

创建HA router后,在compute1上也创建了一个router的namespace,将VM00迁移后,再将compute0 shutdown后,两compute的网络构成图如下:

compute1的router会在compute0关闭几秒内接替进行工作,保证网络的连通,如果再在compute1上创建一个VM,dhcp server的name namespace也会

创建,说明新的dhcp server也能继续工作。

(因为公司不能向外发送博文,无法贴出操作的内容,只能记在脑子里,回来总结下写成这篇博文)

时间: 2024-10-24 22:54:43

对openstack(JUNO)的neutron的相关测试的相关文章

Deploying Cloud Foundry on OpenStack Juno and XenServer (Part I)

link http://rabbitstack.github.io/deploying-cloud-foundry-on-openstack-juno-and-xenserver-part-i/ Cloud Foundry ecosystem had been blowing my mind for a long time, and I think it really has made an IT disruption letting us focus on applications as th

在Ubuntu14.04上OpenStack Juno安装部署

在Ubuntu14.04上OpenStack Juno安装部署 0 安装方式 0.1 安装方式 安装方式 说明 目标 备注 单结点 一台服务器运行所有的nova-xxx组件,同时也驱动虚拟实例. 这种配置只为尝试Nova,或者为了开发目的进行安装.   1控制节点+N个计算节点 一个控制结点运行除nova-compute外的所有nova-services,然后其他compute结点运行nova-compute.所有的计算节点需要和控制节点进行镜像交互,网络交互,控制节点是整个架构的瓶颈. 这种配

openstack Juno系列之控制节点搭建

openstack Juno系列之控制节点搭建 controller控制节点搭建 安装keystone ------------- 所有主机hosts: 取消其中127.0.0.1 10.0.0.11  controller 10.0.0.21  neutron 10.0.0.31  compute to configure prerequisites: apt-get install python-software-properties add-apt-repository cloud-arc

openstack Juno系列之网络节点搭建

openstack Juno系列之网络节点搭建 neutron节点搭建 ------------------ 添加转发 vi  /etc/sysctl.conf net.ipv4.ip_forward=1 net.ipv4.conf.all.rp_filter=0 net.ipv4.conf.default.rp_filter=0 刷新下 sysctl -p 安装neutron各模块服务 apt-get install neutron-plugin-ml2 neutron-plugin-open

openstack Juno系列之计算节点搭建

openstack Juno系列之计算节点搭建 nova-compute安装配置 -------------------- apt-get install nova-compute sysfsutils 编辑配置文件 vi /etc/nova/nova.conf [DEFAULT] verbose = True rpc_backend = rabbit rabbit_host = controller rabbit_password = RABBIT_PASS auth_strategy = k

[IaaS与数据中心] centos7下安装openstack juno

最近不忙,安装了一下openstack juno与大家分享一下.根据以下安装步骤http://docs.openstack.org/juno/i ... ent/ch_preface.html                                openstack-install-guide-yum-juno.pdf                (1.03 MB, 下载次数: 313)先看一下安装完的效果.cryboy2001  2014-12-18一.整体效果,有两台实例aa与bb

Openstack 网络服务Neutron [五]

Openstack 网络服务Neutron [五] openstack 时间:2016年11月28日 Neutron介绍 neutron是openstack重要组件之一,在以前是时候没有neutron项目 早期的时候是没有neutron,早期所使用的网络的nova-network,经过版本改变才有个neutron Openstack Networking 网络: 在实际的物理环境下,我们使用交换机或者集线器把多个计算机连接起来形成了网络.在Neutron的世界里,网络也是将多个不同的云主机连接起

openStack juno for ubuntu12-04

1,pwgen(openssl rand -hex 10) some Open-Stack services add a root wrapper to sudo that can interfere with security policies  (Mirantis openStack Certification涉及) 2,apt-get update && apt-get intall ntp; 3,OpenStack juno apt repo packages for ubuntu

OpenStack 网络:Neutron 初探

OpenStack Neutron 网络模型 OpenStack nova-network 独立成为单独的组件 Neutron 后,形象的网络模型的多平面网络.混合平面私有网络.如图 3,图 4,图 5,图 6. 图 3. 多平面网络 图 4. 混合平面私有网络 图 5. 通过私有网络实现运营商路由功能 图 6. 通过私有网络实现每个租户创建自己专属的网络区段 回页首 Neutron 网络创建过程 Neutron 网络目的是为 OpenStack 云更灵活地划分物理网络,在多租户环境下提供给每个