网络接口配置 -- bonding

一:实验环境

①两台centos虚拟机,一台做试验机,一台做测试机

②两个网卡eth0、eth1

二:实验目的

在生产环境中,当多名用户同时访问一个IP时将会增大网卡负荷和风险,这时我们可以通过将多块网卡绑定同一IP地址对外提供服务,从而实现高可用和负载均衡

※三:常用Bonding工作模式:

Mode 0  ( balance-rr )轮转模式

轮转(Round-robin)策略: 从头到尾顺序的在每一个slave 接口上面发送数据包,当一个slave停止工作时,会出现丢包,但程序并不会死掉。本模式提供负载均衡和容错的能力

Mode 1   (active-backup) 活动备份策略

工作模式: 只有一个slave被激活,当且仅当活动 的slave接口失败时才会激活其他slave。为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见

Mode 3    (broadcast)          广播策略              

工作模式:在所有的slave接口上传送所有的报文,提供容错能力

四:实验步骤

方法一:配置文件法

①创建bond0设备的配置文件并写入如下内容

vim /etc/sysconfig/network-scripts/ifcfg-bond1


DEVICE=bond0

BOOTPROTO=none

IPADDR=172.17.252.166

BONDING_OPTS= “miimon=100 mode=1”
知识点解释: 
miimon=100   设置网卡间相互检测对方状态的间隔时间(ms),用来灵活的切换网卡。
mode=1  设置bond模式为 active-backup

②修改网卡配置文件

在eth0与eth1配置文件中添加如下几行:

SLAVE=yes         //设置为奴隶USERCTL=no
MASTER=bond0      //指定主bond设备
USERCTL=no    //不允许非root用户控制该设备

注意:

③重启network服务,使配置文件生效

注意啦,如果重启服务后没有出现bond1的接口信息,且经反复检查后配置文件并没有错误,请相信我,你的NetworkManager服务一定没关,关闭它就好了

systemctl status NetworkManager   #查看服务状态 
systemctl stop NetworkManager    #centos 7 中用此命令

④查看bond0的详细状态

cat  /proc/net/bonding/bond0

[[email protected] ~]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)  #轮寻模式
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:2e:e8:4e
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:2e:e8:58
Slave queue ID: 0

⑤测试环节

1.用centos6来ping centos7的bond0,如图一,一切正常,没有出现丢包现象

图一

2. 接下来让我们停用eth1网卡,来测试bond0是否出现丢包

图二

由图二可得,序号为534的IICMP包丢失,但总体上来说,丢包率很低O(∩_∩)O,bond0稳定性还是有目共睹的。

⑤取消绑定可采取下列步骤

1)ifconfig bond0 down

2)删除ifcfg-bond0

3)恢复eth0和eth1配置文件到修改前状态

4)删除bondin模块

lsmod |grep bond 查看已有的模块,发现模块还没删除

删除绑定模块:rmmod bonding

5)重启网络服务  service network restart

方法二:nmcli命令法

实验准备:务必确保已开启NetworkManager服务

(1)添加bonding接口mybond0,模式为active-backup(MODE 1)

nmcli con add type bond con-name mybond0 ifname mybond0 mode active-backup

命令执行后,系统会自动生成ifcfg-mybond0文件

(2)添加从属接口eth0与eth1

nmcli con add type bond-slave ifname eth0 master mybond0

nmcli con add type bond-slave ifname eth1 master mybond0

(3) 要启动绑定,则必须首先启动从属接口

nmcli con up bond-slave-eth0

nmcli con up bond-slave-eth1

此时,系统会自动生成ifcfg-bond-slave-eth0,ifcfg-bond-slave-eth1两个配置文件

(4)启动绑定

nmcli con up mybond0

(5)取消绑定

nmcli con down mybond0

五:实验总结

此次实验难度不大,需要注意的细节就是NetworkManager这个服务的开启状态。其次,本菜鸟推荐大家在centos 7上尽量使用方法二,虽然命令较长,但无需修改配置文件,这对于以后自动脚本的编写还是非常有用的。

时间: 2024-08-09 07:09:06

网络接口配置 -- bonding的相关文章

网络管理和nmcli命令的使用——网络接口配置-bonding实验步骤

(实验)网络接口配置-bonding ? Bonding 将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.直接给两块网卡设置同\一IP地址是不可以的.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址. 实验步骤: 多网卡绑定bondign(Mode 1 active-backup,主备策略) 1.新建一个网卡配置文件ifcfg-bond0 DEVICE=bond0 IPADDR=192.168.99.110(共用的ip地址) PREFIX=24

网络接口配置bonding

将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.直接给两块网卡设置同一IP地址是不可以的通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址 bonding常见工作模式 一共有7种模式 Mode 0 (balance-rr): 轮询(Round-robin)策略,从头到尾顺序的在每一个slave接口上面发送数据包.本模式提供负载均衡和容错的能力 Mode 1 (active-backup): 活动-备份(主备)策略,只有一个slave被激活,当且仅

CentOS 6 / RHEL 6配置bonding 4模式

实现bond 802.3ad or 4 模式:(IEEE 802.3ad), 方式:创建一个整合的组,这个组会共享网速和网络双工(duplex)设置.模式 4 会根据 IEEE 802.3ad 标准使用活动组中的所有网络接口 1.需要交换机配合配置, 2.两端负载均衡模式:基于源IP和目的IP 系统配置: /etc/modprobe.d/bonding.conf alias bond1 bonding options bond1 mode=4 miimon=100 lacp_rate=fast

使用nmcli配置Bonding连接和Teaming连接

一.Bonding的模式 1.balance-rr:轮询模式 2.active-backup:热备模式 3.broadcast:广播模式 二.配置步骤(命令配置) 1. 创建主接口 nmcli con add type bond con-name bond0 ifname bond0 mode active-backup 2. 给主接口分配ip地址 nmcli con mod bond0 ipv4.addresses '192.168.0.100/24' nmcli con mod bond0

网卡接口配置——bonding

Bonding就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.当然,直接给两块网卡设置同一IP地址是不可能的.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址. 一.Bonding的常用工作模式 Mode 0 (balance-rr) 轮转( Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包.本模式提供负载均衡和容错的能力. Mode 1 (active-backup) 活动-备份(主备)策略:在绑定中,只有

系统运维篇之HP-DL580-Linux配置Bonding网卡组实例

各位好,首先就不多做介绍了,网络上太多类似的配置案例,什么样的部署方式都介绍了一遍,对于初入职场抑或首次参与企业网规划部署的工程师都会纠结用哪种方式.所以就产生了这篇博客. 因为个人是一名在一年内有幸参与了众多企业网项目案例,城域网BGP网络割接以及大大小小客户金融案例的"主刀"攻城师,所以我不介绍过多,只介绍实战型强,遇到最多的部署方式. 好了,不多说!上大菜!      第一步:配置网卡绑定之添加bonding内核模块参数 # vi /etc/modprobe.d/bonding.

RedHat 7配置bonding双网卡绑定

redhat 7虽然新增了teaming技术支持双网卡绑定,但bonding技术依然可以沿用,不过与redhat 6的配置稍微有一点区别. 配置负载均衡模式的bond绑定 创建并编辑bond0配置文件:vi ifcfg-bond0,并填写以下内容:其中mode=6代表MAC地址不同的负载均衡模式   BOOTPROTO=static DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes ONBOOT=yes IPADDR=192.168.10.

linux网络相关配置

网络配置文件 IP.MASK.GW.DNS相关配置文件: /etc/sysconfig/network-scripts/ifcfg-IFACE DEVICE:此配置文件应用到的设备,决定设备名 HWADDR:对应的设备的MAC地址 BOOTPROTO:激活此设备时使用的地址配置协议,常用的dhcp----动态, static---静态, none---手动指定, bootp NM_CONTROLLED:NM是NetworkManager的简写,此网卡是否接受NM控制:建议CentOS6"no&q

linux常用网络配置

网卡名称: 网络接口识别并命名相关的udev配置文件: /etc/udev/rules.d/70-persistent-net.rules 卸载网卡驱动: modprobe  -r e1000 装载网卡驱动: modprobe  e1000 网卡名定义在 /etc/udev/rules.d/70-persistent-net.rules 文件中,定义了网卡命名的详细方式, 这个文件是安装系统时自动生成的 可以在这个文件中,修改NAME选项,以更改网卡名,修改以后需要需改相应的配置文件,否则网卡无