Oracle Linux 6.4(BOND)双网卡绑定实战—附加说明

操作环境
Oracle Linux Server release 6.4
内核
Linux rac1 2.6.39-400.17.1.el6uek.x86_64

[[email protected] ~]# vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0

BOOTPROTO=static

IPADDR=192.168.254.2

NETMASK=255.255.255.0

BROADCAST=192.168.254.1

ONBOOT=yes

TYPE=Ethernet

GATEWAY=192.168.254.1

USERCTL=no

"/etc/sysconfig/network-scripts/ifcfg-bond0" [New] 17L, 163C written

[[email protected] ~]# cd /etc/sysconfig/network-scripts/

[[email protected] network-scripts]# vi ifcfg-eth1

DEVICE=eth1

BOOTPROTO=none

ONBOOT=yes

USERCTL=no

MASTER=bond0

SLAVE=yes
 ~
 "ifcfg-eth1" 11L, 77C written
 [[email protected] network-scripts]# vi ifcfg-eth2
DEVICE=eth2

BOOTPROTO=none

ONBOOT=yes

USERCTL=no

MASTER=bond0

SLAVE=yes
 ~
 "ifcfg-eth2" 11L, 77C written
 [[email protected] network-scripts]# vi /etc/modprobe.d/modprobe.conf

alias bond0 bonding

options bond0 miimon=100 mode=1
 ~
 ~
 "/etc/modprobe.d/modprobe.conf" [New] 4L, 54C written
说明:
miimon是用来进行链路监测的,比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.

[[email protected] network-scripts]# vi /etc/rc.d/rc.local
 #!/bin/sh
 #
 # This script will be executed *after* all the other init scripts.
 # You can put your own initialization stuff in here if you don‘t
 # want to do the full Sys V style init stuff.

touch /var/lock/subsys/local
ifenslave bond0 eth2 eth1
 ~
 "/etc/rc.d/rc.local" 8L, 246C written
 [[email protected] network-scripts]# ifconfig  bond0 192.168.254.2 up

#[[email protected] network-scripts]# ifenslave  bond0 eth2 eth1
 Illegal operation: The specified slave interface ‘eth0‘ is already a slave

最后重启服务器:

[[email protected] ~]# reboot

从下面BOND网卡已经启动了
[[email protected] ~]# ifconfig
bond0    Link encap:Ethernet  HWaddr 08:00:27:E7:1F:5D 
          inet addr:192.168.254.2  Bcast:192.168.254.1  Mask:255.255.255.0
          inet6 addr: fe80::a00:27ff:fee7:1f5d/64 Scope:Link
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:35 errors:0 dropped:15 overruns:0 frame:0
          TX packets:16 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:2498 (2.4 KiB)  TX bytes:1028 (1.0 KiB)

eth1      Link encap:Ethernet  HWaddr 08:00:27:E7:1F:5D 
          inet addr:192.168.254.2  Bcast:192.168.254.255  Mask:255.255.255.0
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:87 errors:0 dropped:12 overruns:0 frame:0
          TX packets:4 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:6411 (6.2 KiB)  TX bytes:288 (288.0 b)

eth2      Link encap:Ethernet  HWaddr 08:00:27:99:BE:CC 
          inet addr:192.168.254.2  Bcast:192.168.254.255  Mask:255.255.255.0
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:73 errors:0 dropped:62 overruns:0 frame:0
          TX packets:12 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:4935 (4.8 KiB)  TX bytes:740 (740.0 b)

lo        Link encap:Local Loopback 
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:4 errors:0 dropped:0 overruns:0 frame:0
          TX packets:4 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:240 (240.0 b)  TX bytes:240 (240.0 b)

下面看当前活动网卡ech1,状态是启动
[[email protected]2 ~]#  cat /proc/net/bonding/bond0
 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: fault-tolerance (active-backup)
 Primary Slave: None
Currently Active Slave: eth1
MII Status: up
 MII Polling Interval (ms): 100
 Up Delay (ms): 0
 Down Delay (ms): 0

Slave Interface: eth1
 MII Status: up
 Speed: 1000 Mbps
 Duplex: full
 Link Failure Count: 0
 Permanent HW addr: 08:00:27:e7:1f:5d
 Slave queue ID: 0

Slave Interface: eth2
 MII Status: up
 Speed: 1000 Mbps
 Duplex: full
 Link Failure Count: 1
 Permanent HW addr: 08:00:27:99:be:cc
 Slave queue ID: 0

七种bond模式说明
 
第一种模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)
 
特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降
 
第二种模式:mod=1,即: (active-backup) Active-backup policy(主-备份策略)
 
特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有
N 个网络接口的情况下,资源利用率为1/N
 
第三种模式:mod=2,即:(balance-xor) XOR policy(平衡策略)
 
特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力
 
第四种模式:mod=3,即:broadcast(广播策略)
 
特点:在每个slave接口上传输每个数据包,此模式提供了容错能力
 
第五种模式:mod=4,即:(802.3ad) IEEE 802.3adDynamic link aggregation(IEEE 802.3ad 动态链接聚合)
 
特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。
 
外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。
 
必要条件:
 
条件1:ethtool支持获取每个slave的速率和双工设定
 
条件2:switch(交换机)支持IEEE 802.3ad Dynamic link aggregation
 
条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式
 
第六种模式:mod=5,即:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡)
 
特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。
 
该模式的必要条件:ethtool支持获取每个slave的速率
 
第七种模式:mod=6,即:(balance-alb) Adaptive load balancing(适配器适应性负载均衡)
 
特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive
load balance,
rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

时间: 2024-11-08 21:14:35

Oracle Linux 6.4(BOND)双网卡绑定实战—附加说明的相关文章

bond双网卡绑定

centos双网卡绑定 在/etc/sysconfig/network-scripts/目录下建立ifcfg-bond0文件,文件内容如下: DEVICE=bond0 USERCTL=no BOOTPROTO=none ONBOOT=yes IPADDR=192.168.100.17 NETMASK=255.255.255.0 GATEWAY=192.168.100.1 TYPE=UnKnown BONDING_OPTS="miimon=80 mode=0" 绑定mode为0,是ron

Linux下bond双网卡绑定

bond,是一种双网卡绑定技术.即将多块物理网卡绑定成一个逻辑网卡,并实现网卡冗余.流量均衡等的一种可靠性强且高可用技术. 七种bond模式: 一.mod=0即banlance-rr(平衡轮循环策略) 特点:传输数据包的顺序是依次传输,第一个走eth0,第二个包走eth1--一直这样循环下去,直到传输完成.该模式提供负载均衡和容错能力. 假如当一个连接或会话的数据包从不同的接口发出,并经过不同的链路,客户端可能会出现数据包无序到达的情况,这样导致无序到达的数据需重新被发送,便会导致网络的吞吐量的

bond双网卡绑定总结

什么是bond? 所谓bond,是一种通过把多个物理网卡绑定成一个逻辑网卡实现网卡冗余.负载均衡.提高带宽,从而实现网络性能高可用高可靠的技术. bond有七种模型: mod0:(balance-rr,平衡轮循环策略,提供负载均衡和容错能力),数据包传输是依次传输,第一个包从网卡1传输,第二个包从网卡2传输,第三个包从网卡3.......,一直循环直到传输完最后一个数据包.这种模式的bond有一个不完善的地方,如果一个数据包从不同的网卡传输,而中途再经过不同的链路,当客户端接受到数据包的时候,数

bond 双网卡绑定

说明:两个网卡做成一个虚拟的网卡,一个坏掉以后不影响业务 1. 两个网卡  eth0 eth1 备注:没有eth1的话添加一块网卡,克隆的虚拟机要配置好 2.bond的主机 bond0 3.第一步:配置设置文件  [[email protected] network-scripts]# vim  /etc/sysconfig/network-scripts/ifcfg-bond0 内容: [[email protected] ~]# cat   /etc/sysconfig/network-sc

深度分析Linux下双网卡绑定七种模式

现在一般的企业都会使用双网卡接入,这样既能添加网络带宽,同时又能做相应的冗余,可以说是好处多多.而一般企业都会使用linux操作系统下自带的网卡绑定模式,当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(windows操作系统没有网卡绑定功能 需要第三方支持).进入正题,linux有七种网卡绑定模式:0. round robin,1.active-backup,2.load balancing (xor), 3.fault-tolerance (broadcast),

linux服务器双网卡绑定

Linux双网卡绑定 双网卡绑定在项目应用中较多,通常配置上网卡绑定有两种方法,第一种是采用传统方法修改配置文件,第二种是采用新的命令直接生成配置文件. 传统配置方法步骤如下: 第一步:编辑网卡eth1配置文件 第二步:复制网卡eth1配置文件,重命名为eth2 第三步:复制网卡eth1配置文件,重命名为bond0,并设置双网卡绑定的相关选项如:双网卡之间检测周期100ms,双网卡之间的模式模式1 为主被模式,模式0为双主模式,如BONDING_OPTS="miimon=100 mode=0&q

Linux下双网卡绑定(bonding技术)

http://www.cnblogs.com/qmfsun/p/3810905.html Linux网卡绑定探析 2013-08-20 15:39:31 现在很多服务器都自带双千兆网口,利用网卡绑定既能增加网络带宽,同时又能做相应的冗余,目前应用于很多的场景.linux操作系统下自带的网卡绑定模式,Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个网络接口设置来使用,用于网络负载均衡及网络冗余.当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(win

Linux 双网卡绑定技术

bond技术是在linux2.4以后加入内核. 一般步骤是1.把bonding模块加入内核, 2 编辑要绑定的网卡设置,去除地址设定 3 添加bond设备,设置地址等配置 4  重启网络 5 在交换机上做支持 具体信息看  内核文档 Documentation/networking/bonding.txt 参考实例: Linux 双网卡绑定一个IP地址,实质工作就是使用两块网卡虚拟为一块,使用同一个IP地址,是我们能够得到更好的更快的服务.其实这项技术在Sun和Cisco 中早已存在,被称为Tr

Linux平台双网卡绑定技术实现负载均衡(网卡聚合)bonding

Linux平台双网卡绑定技术实现负载均衡 保持服务器的高可用性是企业级 IT 环境的重要因素.其中最重要的一点是服务器网络连接的高可用性.网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能. 双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作.其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2