XenServer网卡Bonding

在给XenServer配置网卡bonding时,需要在所有节点都添加到集群之后再进行,这也是来自Citrix的建议:“Citrix

recommends never joining
a host that already has a bond configured
on it to a pool”。用XenCenter连接XenServer

集群,通过界面操作对网卡进行bonding是很easy的,而要自动化完成这个功能,可通过调用xe命令去完成,但需要

对一些概念有了解。

对于一个XenServer集群,各个节点看到的逻辑网络应该是一样,否则VM迁移后网络就会出问题。比如原来这个VM

连接的是A网桥,迁移到另外的节点后没有同样的这么一个A网桥,VM就会不知所措。

假设我需要分别对eth0和eth2做bonding,eth1和eth3做bonding,那么首先我要创建两个网络,分别为bond02和

bond13,脚本(这些脚本都只在master节点运行)如下:

bond02_uuid=`xe network-create name-label=bond02`

bond13_uuid=`xe network-create name-label=bond13`

然后获取到集群中所有节点的host uuid:

host_uuids=`xe host-list|grep uuid|awk ‘{print $5}‘`

循环对每个节点做bonding:

for host_uuid in $(echo $host_uuids | awk ‘{print;}‘)

do

 

    # 获取到eth0和eth2 的pif uuid

    host_eth0_pif=`xe pif-list host-uuid=$host_uuid device=eth0|grep -E ‘^uuid‘|awk ‘{print $5}‘`

host_eth2_pif=`xe pif-list host-uuid=$host_uuid device=eth2|grep -E ‘^uuid‘|awk ‘{print $5}‘`

     # 对eth0和eth2做bonding,这里的network-uuid就是上面创建网络bond02后返回的uuid,每个节点都用它

    xe bond-create network-uuid=$bond02_uuid pif-uuids=$host_eth0_pif,$host_eth2_pif mode=lacp

    # 获取到eth1和eth3 的pif uuid

    host_eth1_pif=`xe pif-list host-uuid=$host_uuid device=eth1|grep -E ‘^uuid‘|awk ‘{print $5}‘`

host_eth3_pif=`xe pif-list host-uuid=$host_uuid device=eth3|grep -E ‘^uuid‘|awk ‘{print $5}‘`

   # 对eth1和eth3做bonding,这里的network-uuid就是上面创建网络bond13后返回的uuid,每个节点都用它

    xe bond-create network-uuid=$bond13_uuid pif-uuids=$host_eth1_pif,$host_eth3_pif mode=lacp

done

“xe bond-create”命令中我指定的mode是lacp,关于这个需要了解的可移步这里

时间: 2024-08-12 03:09:23

XenServer网卡Bonding的相关文章

centos6.9实现网卡bonding

centos6.9实现网卡bonding 为什么要用bonding 将多块网卡配置同一IP地址实际中是不可能的.通过bonding,虚拟一块网卡对外提供连接,物理网卡被修改为相同的MAC地址,这样可以实现多块网卡绑定同一IP地址,对外提供服务.用于网络负载均衡和网络冗余. 工作模式 bonding的模式:0-6,即:7种模式,这里我们重点介绍三种模式. 1.mode=0:轮转模式,传输数据包顺序是依次传输.简单来说第1个包走eth0,下一个包就走eth1.实现了负载均衡和容错的能力. 2.mod

网卡bonding

Linux支付7种bonding模式: 查看Linux是否支持网卡bonding模式: [[email protected] network-scripts]# modinfo bonding filename:       /lib/modules/2.6.32-504.23.4.el6.centos.plus.x86_64/kernel/drivers/net/bonding/bonding.ko author:         Thomas Davis, [email protected]

为RAC私有网络配置网卡Bonding

在RAC的安装部署过程中,并不仅仅是简单的安装完成了事,整个安装过程要考虑可能出现的单点问题,其中比较重要的是私有网络. 私有网络是RAC节点间通信的通道,包括节点间的网络心跳信息.Cache fusion传递数据块都需要通过私有网络.而很多的私有网络都仅仅是一块单独的网卡连接上交换机就完成了,更有甚者,直接使用服务器间网卡互连的方式配置私有网络.这种部署方式简单,但RAC投入使用后风险非常大,存在诸多单点如网卡.网线.交换机口.交换机.几乎每个组件发生故障都会导致RAC split,所以建议为

网卡bonding模式 - bond0、1配置

网卡bonding简介 网卡绑定就是把多张物理网卡通过软件虚拟成一个虚拟的网卡,配置完毕后,所有的物理网卡的ip和mac将会变成相同的.多网卡同时工作可以提高网络速度,还可以实现网卡的负载均衡.冗余. bonding模式 1    round-robin(mode=0) 轮转策略,轮流在每一个slave网卡上发送数据包,提供负载均衡和容错能力. 2    active-backup(mode=1) 主备策略,只有一个slave被激活,只有当active的slave的接口down时,才会激活其它s

Xenserver 网卡丢失处理

在环境中因为停电导致xenserver出现故障,问题如下: [[email protected] ~]# xe pool-list The server failed to handle your request,due to an internal error.  The given m essage may give details useful fordebugging the problem. message: INTERNAL_ERROR: [ Connectionfailed: co

linux系统下网络主-备份策略之网卡bonding技术

操作系统:CentOS Linux release 7.1.1503 (Core) 网卡适配器: eno1.eno2 bonding类型:mode=1 (active-backup),主-备份策略 网卡绑定mode共有七种,每种模式,都有各自的用处,笔者由于在工作中使用的是mode=1 (active-backup)模式 在此笔者将工作中使用到的网卡绑定bonding技术的mode=1 (active-backup)模式的配置实现过程记录如下: 1.在Centos 7中,我们可以使用modinf

linux 多网卡bonding 绑定 端口聚合

将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据, 如果使用单个的千兆网口将会是很严重的瓶颈.其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题. 因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O). Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Dr

Linux下多网卡bonding

一.什么是Bonding Bonding,就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.当然,直接给两块网卡设置同一IP地址是不可能的.通过Bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址. 二.Bonding的几种工作模式 Mode 0 (balance-rr)轮转(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包.本模式提供负载均衡和容错的能力    Mode 1 (active-backup)活动-备份(

linux下网卡bonding配置

章节 bonding技术 centos7配置bonding centos6配置bonding 一.bonding技术 bonding(绑定)是一种linux系统下的网卡绑定技术,可以把服务器上n个物理网卡在系统内部抽象(绑定)成一个逻辑上的网卡,能够提升网络吞吐量.实现网络冗余.负载等功能,有很多优势. bonding技术是linux系统内核层面实现的,它是一个内核模块(驱动).使用它需要系统有这个模块, 我们可以modinfo命令查看下这个模块的信息, 一般来说都支持.  modinfo bo