基于centos6.8配置多网卡绑定

        Linux 自带的软件bonding 可以把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余。其中网络负载均衡常用于我们的文件服务器中,文件服务器在多用户同时使用的情况下,网络压力非常大的,所以为了解决同一个IP突破流量的限制,使用多网卡绑定是一个极好的办法。网络冗余在生产环境中也特别重要,特别是在网卡在可能发生物理性质损坏而无法同时使用同一IP快速响应的情况下多网卡绑定就显得特别重要了,bonding为网卡提供了冗余的支持,把多网卡绑定到一个IP,即使其中一块网卡发生物理损坏的情况下,另一块网卡自动启用,并且提供正常服务。


下面我们先来了解一下bonding的常用mode种类:

mode=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)数据包的传输方式轮询传输,第一个包传输给eth0 ,第二个包传输给eth1,就这样循环下去,直到传输完毕。

 

mode=1,即: (active-backup) Active-backup policy(主-备份策略)只有一个处于活动状态,当主网卡出现故障时,备网卡马上由备转变成主。这个模式提供了较高的容错能力。但是资源利用率较低。

 

mode=3,即:broadcast(广播策略)在每个slave接口上传输每个数据包,此模式提供了容错能力

演示环境:VMware 11 版本 ,系统centos 6.8

 第一步:  

 首先我们新添加一张网卡,重启并生效

第二步:关闭NetworkManager服务(在centos6系列版本中开启NetworkManager与bonding会产生冲突)

[[email protected] ~]# service NetworkManager stop
Stopping NetworkManager daemon:                            [  OK  ]
[[email protected] ~]# chkconfig NetworkManager off


第三步:创建虚拟网卡bond0,在/etc/sysconfig/network-scripts目录下新建虚拟网卡band0,在这里使用的mode是1,文件内容如图所示

[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BOOTPROTO=none
BONDING_OPTS="miimon=100,mode=1"
IPADDR=10.1.45.181
PREFIX=16
GATEWAY=10.1.0.1

第四步:配置网卡参数,网卡参数中需要标注网卡名,网卡的角色及虚拟主卡名称。

[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
SLAVE=yes
MASTER=bond0
[[email protected] ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
SLAVE=yes
MASTER=bond0

第五步,重启网卡,查看状态

使用我另一台主机ping状态为通

Connecting to 10.1.45.180:22...
Connection established.
To escape to local shell, press ‘Ctrl+Alt+]‘.

Last login: Thu Sep  1 14:51:24 2016 from 10.1.250.31
Welcome to the home of snowbamboo ^ ^ 
[[email protected] ~]# ping 10.1.45.181
PING 10.1.45.181 (10.1.45.181) 56(84) bytes of data.
64 bytes from 10.1.45.181: icmp_seq=1 ttl=64 time=1.63 ms
64 bytes from 10.1.45.181: icmp_seq=2 ttl=64 time=0.354 ms
64 bytes from 10.1.45.181: icmp_seq=3 ttl=64 time=0.250 ms
64 bytes from 10.1.45.181: icmp_seq=4 ttl=64 time=0.514 ms
64 bytes from 10.1.45.181: icmp_seq=5 ttl=64 time=0.282 ms
64 bytes from 10.1.45.181: icmp_seq=6 ttl=64 time=0.252 ms
64 bytes from 10.1.45.181: icmp_seq=7 ttl=64 time=0.361 ms
64 bytes from 10.1.45.181: icmp_seq=8 ttl=64 time=0.310 ms
64 bytes from 10.1.45.181: icmp_seq=9 ttl=64 time=0.426 ms
64 bytes from 10.1.45.181: icmp_seq=10 ttl=64 time=0.439 ms
64 bytes from 10.1.45.181: icmp_seq=11 ttl=64 time=0.506 ms
64 bytes from 10.1.45.181: icmp_seq=12 ttl=64 time=0.502 ms
64 bytes from 10.1.45.181: icmp_seq=13 ttl=64 time=0.423 ms
64 bytes from 10.1.45.181: icmp_seq=14 ttl=64 time=0.230 ms
64 bytes from 10.1.45.181: icmp_seq=15 ttl=64 time=0.494 ms
64 bytes from 10.1.45.181: icmp_seq=16 ttl=64 time=0.417 ms
64 bytes from 10.1.45.181: icmp_seq=17 ttl=64 time=0.522 ms

现在我关闭一张网卡,看网络是否有波动

结论是任意断开其中一张网卡,另一张网卡会马上由备转主,接替工作!

总结:在使用bonding的mode1时,必须至少要有两块网卡,一张为活动网卡,另一张为备用状态,当主卡发生故障时备卡马上接替工作,继续完成数据传输。

时间: 2024-09-30 15:10:10

基于centos6.8配置多网卡绑定的相关文章

Ubuntu 配置双网卡绑定,实现负载均衡

Ubuntu 配置双网卡绑定,实现负载均衡 1.Bond的工作模式 Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余. bonding一共有7种工作模式(mode): 1).bond=0,(balance-rr) Round-robin policy: (平衡轮询策略):传输数据包顺序是依次传输,直到最后一个传输完毕,此模式提供负载平衡和容错能力. 2).bond=1,(active-backup) Active-backup

Windows Server 2012 R2配置双网卡绑定

生产环境的服务器硬件设备:2块网卡,分别接入2根网线 需要实现的效果:无论拔掉哪1根网线,都不会中断网络,实现网络的负载均衡,保证网络的持续可用. 前提条件:与这2块网卡相连的交换机必须做特殊配置(即这2个端口应该采取聚合方式),因为绑定的这2块网卡是使用同一个MAC地址. 1.在VMware Workstation中新增1块网卡,并查看网卡设备: 2.将2块网卡的IP地址都设置为"自动获得IP地址": Ethernet0: Ethernet1: 3.设置NIC组合: 点击NIC组合后

centos6上实现双网卡绑定-主备模式

网卡绑定,将多块物理网卡绑定,对外呈现为一块逻辑网卡.这样做的好处一是增加带宽,二是提供冗余增加安全性.一般多用棱块网卡做绑定. 常见的网卡绑定模式有如下三种: mode0:轮询链路 mode1:主备链路 node3:广播链路 绑定后多块网卡对外提供一个ip地址个一个mac地址 本实验中以model1为例进行操作: 第1步: 在/etc/sysconfig/network-scripts/目录下创建绑定网卡文件,如 ifcfg-bond0 第2步; 编辑ifcfg-bond0 DEVICE=bo

基于CentOS6.6配置Apache虚拟主机(多IP、多主机、多端口)

Apache配置虚拟主机(多IP.多主机.多端口)本文以CentOS6.6 作服务端,Win7作客户端.参考网上诸多文档加以实验,现总结如下.如有问题,有意还请指出.谢谢! [一 基于多IP地址]实验:Server=CentOS6.6,Client=win7.我以root权限直接操作了.1.安装和起服务httpd(即:Apache)[[email protected] ~]# yum install httpd -y    <==yum安装httpd[[email protected] ~]#

Linux如何配置双网卡绑定bond

什么是bind? 将多块网卡虚拟成为一块网卡的技术,通过bond技术让多块网卡看起来是一个单独的以太网接口设备并具有相同的ip地址. 原理: 网卡工作在混杂(promisc)模式,接收到达网卡的所有数据包,tcpdump工作用的也是混杂模式(promisc),将两块网卡的 MAC地址修改为相同接收特定MAC的数据帧,然后把相应的数据帧传送给bond驱动程序进行处理. mode=1:在主备模式下,只有主网卡eth0工作,eth1作为备份网卡是不工作的,只有当一个网络接口失效时(例如交换机掉电等),

RHEL6子接口及双网卡绑定配置

RHEL6子接口及双网卡绑定配置 1.子接口配置 Linux就是一台路由器,只要开启路由转发功能.CISCO中,我们知道子接口的配置为fa0/0.1,那么在Linux中,子接口如何配置呢? 虚拟主机可以配置多大254个子接口,下面且看子接口的配置: 创建子接口配置文件 [[email protected] ~]# cd /etc/sysconfig/net netconsole       network          networking/      network-scripts/ [[

实现多网卡绑定bonding

centos6,7实现多网卡绑定bonding 介绍 Bonding 1.将多块网卡绑定同一IP地址对外提供服务; 2.可以实现高可用或者负载均衡; 3.直接给两块网卡设置同一IP地址是不可以的; 4.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址 工作模式 1.Mode 0---轮转(Round-robin)策略 从头到尾顺序的在每一个slave接口上面发送数据包: 本模式提供负载均衡和容错的能力 2.Mode 1---活动-备份(主备)策略 只有一个slav

Lnux系统网卡绑定配置详解

一.CentOS 配置网卡绑定(bonding) 1.bonding概述 (1)作用:就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.当然,直接给两块网卡设置同一IP地址是不可能的.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址. (2)Bonding的工作模式 1)Mode 0 (balance-rr)轮转(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包.本模式提供负载均衡和容错的能力 2)Mode 1

Centos6.4下双网卡bond配置

1.环境描述 在esxi5.5中创建的虚拟机,系统为Centos6.4,原来只有一块网卡,名称为ifcfg-eth0.为实现网络冗余,登陆VMware vSphere Client后给虚拟机添加了一块网卡,网卡名为ifcfg-eth1. 2.双网卡绑定步骤: 2.1 修改/etc/sysconfig/network-scripts/ifcfg-eth0配置文档,修改后的内容如下: DEVICE=eth0 HWADDR=78:2B:CB:30:66:29  #网卡MAC地址,可去掉 TYPE=Et