centos6.9实现网卡bonding

centos6.9实现网卡bonding

为什么要用bonding

将多块网卡配置同一IP地址实际中是不可能的。通过bonding,虚拟一块网卡对外提供连接,物理网卡被修改为相同的MAC地址,这样可以实现多块网卡绑定同一IP地址,对外提供服务。用于网络负载均衡和网络冗余。

工作模式

bonding的模式:0-6,即:7种模式,这里我们重点介绍三种模式。
 1、mode=0:轮转模式,传输数据包顺序是依次传输。简单来说第1个包走eth0,下一个包就走eth1。实现了负载均衡和容错的能力。
 2、mode=1:主-备份策略。只有一个slave被激活,当且仅当活动的slave接口失败时才会激活其他slave。为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见。此模式只提供了容错能力,资源利用率较低。
 3、mode=3:广播策略。在每个slave接口上传输每个数据包,此模式提供了容错能力。

实验mode=0

1、进入/etc/sysconfig/network-scripts/,创建1个ifcfg-band0

说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态。

2、修改两块网卡配置文件

说明:    MASTER=bond0—————–属于bond0

SLAVE=yes———————-从属状态

3、重启网卡后查看网卡当前的工作模式

4、测试

如下图。禁用其中一块网卡。依旧可以ping通。

实验mode=1

1、只需修改ifcfg- bond0中的BONDING_OPTS=“mode1 miimom=100”

2、重启网卡服务,从下图中可以看到当前工作的网卡是eth0

3、加下来禁用eth0,看看会发生什么,eth0的状态是down的,正在工作的网卡变成了eth1.这就是通过mode1实现了主备。

实验mode=3

1、只需修改ifcfg- bond0中的BONDING_OPTS=“mode3 miimom=100”
2、重启网卡服务,bond处于broadcast模式

3、测试,可以看到DUP表示重复的包。

4、对端口进行抓包,能看到reply有两个一模一样的包。说明两张网卡在同时工作同时发送数据。

时间: 2024-10-25 10:22:17

centos6.9实现网卡bonding的相关文章

修改centos6.8的网卡设备名

把centos6.8的网卡设备名从eth3改成eth0 第一步:找到网卡的MAC地址 # ifconfig -a | grep -i --color hwaddr 第二步:修改配置文件 # vi /etc/udev/rules.d/70-persistent-net.rules 把下述文件中对应行的MAC地址和NAME="eth3"项做相应修改 PCI device 0x14e4:0x1680 (tg3)SUBSYSTEM=="net", ACTION=="

vmware克隆Centos6.4虚拟机网卡无法启动问题

vmware克隆Centos6.4虚拟机网卡无法启动问题 在学的过程中,发现遇到如下问题而无法解决. 通过vmware8的完全克隆功能快速创建一台版本为CentOS 6.4的linux虚拟机.创建后症状:启动之后使用ifconfig,发现无ip地址,只有回环地址为127.0.0.1,MAC地址以及主机名都和源主机相同(源主机采用手动方式配置的IP).无论如何执行下面命令都无济于事:/etc/init.d/network restartifup eth0 解决办法:1.编辑eth0的配置文件:vi

XenServer网卡Bonding

在给XenServer配置网卡bonding时,需要在所有节点都添加到集群之后再进行,这也是来自Citrix的建议:"Citrix recommends never joining a host that already has a bond configured on it to a pool".用XenCenter连接XenServer 集群,通过界面操作对网卡进行bonding是很easy的,而要自动化完成这个功能,可通过调用xe命令去完成,但需要 对一些概念有了解. 对于一个X

网卡bonding

Linux支付7种bonding模式: 查看Linux是否支持网卡bonding模式: [[email protected] network-scripts]# modinfo bonding filename:       /lib/modules/2.6.32-504.23.4.el6.centos.plus.x86_64/kernel/drivers/net/bonding/bonding.ko author:         Thomas Davis, [email protected]

为RAC私有网络配置网卡Bonding

在RAC的安装部署过程中,并不仅仅是简单的安装完成了事,整个安装过程要考虑可能出现的单点问题,其中比较重要的是私有网络. 私有网络是RAC节点间通信的通道,包括节点间的网络心跳信息.Cache fusion传递数据块都需要通过私有网络.而很多的私有网络都仅仅是一块单独的网卡连接上交换机就完成了,更有甚者,直接使用服务器间网卡互连的方式配置私有网络.这种部署方式简单,但RAC投入使用后风险非常大,存在诸多单点如网卡.网线.交换机口.交换机.几乎每个组件发生故障都会导致RAC split,所以建议为

网卡bonding模式 - bond0、1配置

网卡bonding简介 网卡绑定就是把多张物理网卡通过软件虚拟成一个虚拟的网卡,配置完毕后,所有的物理网卡的ip和mac将会变成相同的.多网卡同时工作可以提高网络速度,还可以实现网卡的负载均衡.冗余. bonding模式 1    round-robin(mode=0) 轮转策略,轮流在每一个slave网卡上发送数据包,提供负载均衡和容错能力. 2    active-backup(mode=1) 主备策略,只有一个slave被激活,只有当active的slave的接口down时,才会激活其它s

linux下网卡bonding配置

章节 bonding技术 centos7配置bonding centos6配置bonding 一.bonding技术 bonding(绑定)是一种linux系统下的网卡绑定技术,可以把服务器上n个物理网卡在系统内部抽象(绑定)成一个逻辑上的网卡,能够提升网络吞吐量.实现网络冗余.负载等功能,有很多优势. bonding技术是linux系统内核层面实现的,它是一个内核模块(驱动).使用它需要系统有这个模块, 我们可以modinfo命令查看下这个模块的信息, 一般来说都支持.  modinfo bo

linux系统下网络主-备份策略之网卡bonding技术

操作系统:CentOS Linux release 7.1.1503 (Core) 网卡适配器: eno1.eno2 bonding类型:mode=1 (active-backup),主-备份策略 网卡绑定mode共有七种,每种模式,都有各自的用处,笔者由于在工作中使用的是mode=1 (active-backup)模式 在此笔者将工作中使用到的网卡绑定bonding技术的mode=1 (active-backup)模式的配置实现过程记录如下: 1.在Centos 7中,我们可以使用modinf

linux 多网卡bonding 绑定 端口聚合

将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据, 如果使用单个的千兆网口将会是很严重的瓶颈.其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题. 因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O). Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Dr