网卡的链路聚合--两个网卡接口变成一个

使用环境:由于本实验需要两个或者以上网可,所以建议在虚拟设备中作,可以虚拟出数个网卡

Linux双网卡bond方式简介

随着分步式计算、大数据大规模兴起,不断增长的计算节点之间海量数据传输交互,内部节点处理过程产生大量东西向流量,要求网络具有良好的扩展性和吞吐率,能够充分适应业务突发流量且具备高可靠性,对主机双网卡bond要求既能充分利用链路带宽资源又具备高可靠性显得尤其重要

基于linux的操作系统网卡bond模式有七种,模式 (0~6) mode=0、mode=1、mode=2、mode=3、mode=4、mode=5、mode=6,七种bond模式分别说明如下:

第一种模式:mode=0,即:(balance-rr) Round-robin policy(负载均衡轮询策略)

特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降。

第二种模式:mode=1,即: (active-backup) Active-backup policy(主-备用策略)

特点:只有一个网卡处于活动状态,当一个宕掉另一个即刻由备用状态转换为主用状态。从交换机上看,bond的MAC地址是唯一的,以避免SwitchARP表项发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有N个网络接口的情况下,资源利用率为1/N。

第三种模式:mode=2,即:(balance-xor) XOR policy(平衡策略)

特点:基于指定的传输HASH策略传输数据包。缺省的策略是:通过源和目标mac做hash因子来做xor算法来选路的。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力。

第四种模式:mode=3,即:broadcast(广播策略)

特点:在每个slave接口上传输每个数据包,一个报文会复制两份往bond下的两个接口分别发送出去,当有对端交换机失效时无感知。此方式过于浪费资源,但有很好的容错机制。

第五种模式:mode=4,即:(802.3ad) IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad动态链路聚合)

特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。

配置bond模式主备网卡的链路聚合

1:火墙

[[email protected] ~]# systemctl start NetworkManager-wait-online.service 
[[email protected] ~]# systemctl start NetworkManager-wait-online.service

2:添加bond

[[email protected] ~]# nmcli connection add type bond con-name bond0 ifname bond0 mode active-backup ip4 172.25.254.120/24
Connection ‘bond0‘ (20ade0e4-397d-446c-bd67-4c3dba8e76a0) successfully added.

##添加 类型为bond的bond0 改名为bond0 模式是主备 ip为172.25.254.120

3:添加网卡

nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
##给bond0上添加网卡eth0改名为eth0
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0
##给bond1上添加网卡eth0改名为eth1

4:查看bond0的情况 (监控)

  
[[email protected] ~]# cat /proc/net/bonding/bond0  ##查看bond0的信息
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth1
MII Status: up
Speed: Unknown
Duplex: Unknown
Link Failure Count: 0
Permanent HW addr: 52:54:00:04:a2:1e
Slave queue ID: 0

5:测试

[[email protected] ~]# ifconfig eth0 down        ##使eth0坏掉
[[email protected] ~]# cat /proc/net/bonding/bond0 
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1    ##eth1顶上去
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth1
MII Status: up
Speed: Unknown
Duplex: Unknown
Link Failure Count: 0
Permanent HW addr: 52:54:00:04:a2:1e
Slave queue ID: 0

Linux多网卡team方式简介

网卡(接口)绑定是将多块 网卡 逻辑地连接到一起从而允许故障转移或者提高吞吐率的方法。提高服务器网络可用性的一个方式是使用多个网卡。Linux 绑定驱动程序提供了一种将多个网卡聚合到一个逻辑的绑定接口的方法。这是个新的实现绑定的方法,并不影响 linux 内核中旧绑定驱动。

网卡Team概述在网络管理实践中,为了预防网络设备之间的链路故障,通常会采取多链路聚合Trunking技术来提供端口级或交换机级别的冗
余容错,同时实现负载均衡。对于服务器的网络连接而言,同样也可以通过类似的技术来提供容错能力,这就是Teaming技术。简单来讲,Teaming技
术就是通过专用工具将一台服务器的两块或最多八块物理网卡绑定成一个Team,这个Team中所有与交换机的物理连接共同形成一个虚拟的链路。不论这个
Team是由几个网卡构成的,对客户机来讲,对服务器的访问只能通过一个IP地址进行,也就是说,服务器的网卡是否配置成Team,客户机对服务器的访问
方式都不会发生改变。

服务器的两个或以上的网卡配置成Team后,能够带来的最大好处是可以实现服务器数据传输链路的冗余容错,有效消除单点故障隐患。当Team中的一
个物理网络连接失效时,其它的可用网络连接会自动接管负载,从而保证数据传输的可持续性。其应用效果如下图所示,当在线链路失效时,负载会自动切换到待用
链路,链路的中断和切换不会影响到正常的应用运行。

在实际应用中也可以更进一步,将服务器的两个或多个网卡分别接入到两台交换机上,通过交换机相关协议的支持,就可以实现服务器网络接入的交换机级别的冗余,从而提供更高级别的容错能力。


了提供传输链路的冗余容错外,网卡Team还可以带来的第二个好处,那就是能够实现服务器数据传输的负载均衡。在不考虑交换机协议支持或进行任何配置的情
况下,将服务器的多块网卡配置成负载均衡模式的Team后,服务器的网络连接带宽将变为构成Team的所有物理连接的带宽之和,所有的网络连接共同参与完
成服务器数据传输工作。

配置team模式主备网卡的链路聚合

1:添加team

nmcli connection add type team con-name team0 ifname team0 config ‘{"runner":{"name":"activebackup"}}‘ ip4 172.25.254.120/24           ##添加team0

2:添加网卡

nmcli connection add con-name eth0 ifname eth0 type team-slave master team0  ##给team0添加eth0 
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0

3:测试

4:监控

teamdctl team0 state
时间: 2024-07-30 18:10:51

网卡的链路聚合--两个网卡接口变成一个的相关文章

linux初学者-网卡的链路聚合篇

linux初学者-网卡的链路聚合篇 网卡的链路聚合就是将多块网卡连接起来,当一块网卡损坏,网络依旧可以正常运行,可以有效的防止因为网卡损坏带来的损失,同时也可以提高网络访问速度. 网卡的链路聚合一般常用的有"bond"和"team"两种模式,"bond"模式最多可以添加两块网卡,"team"模式最多可以添加八块网卡. 1.bond bond模式的配置步骤如下图所示,在配置之前需要有两块网卡: a."nmcli con

Linux 主机与虚拟机网桥制作与网卡链路聚合

一.网桥制作 1.主机的网桥制作 删除主机的/etc/sysconfig/network-scripts/ifcfg-enp0s25 在/etc/sysconfig/network-scripts/ifcfg-br0目录下添加文件 #编辑主机的物理网卡文件 vim /etc/sysconfig/network-scripts/ifcfg-enp0s25 DEVICE=enp0s25 BOOTPROTO=none NAME=westos BRIDGER=br0 #编辑虚拟网桥文件 vim /etc

linux 两块网卡设置同一ip地址

双网卡绑定为同一个虚拟的网卡(bond), 外界看到的好像是bond网卡在向外界提供服务, 而其实底层是两块真实的网卡在提供服务. 下面介绍一些简单的概念: 1>. Bonding 就是将多块网卡绑定同一IP 地址对外提供服务,可以实现高可用或者负载均衡.当然,直接给两块网卡设置同一IP 地址是不可能的.通过bonding ,虚拟一块网卡对外提供连接, 物理网卡的被修改为相同的MAC 地址. 2>. Bonding 的工作模式 Mode 0 (balance-rr) 轮转(Round-robi

Linux链路聚合

链路聚合是一个计算机网络术语,指将多个物理端口汇聚在一起,形成一个逻辑端口,以实现出/入流量吞吐量在各成员端口的负荷分担,交换机根据用户配置的端口负荷分担策略决定网络封包从那个成员端口发送到对端的交换机.当交换机检测到其中一个成员端口的链路发生故障时,就停止在此端口上发送封包,并根据负荷分担策略在剩下的链路中重新计算报文的发送端口,故障端口恢复后再次担任发送端口.链路聚合在增加链路带宽,实现链路传输弹性和工程冗余等方面是一项很重要的技术. 网卡的链路聚合一般常用的有"bond"(网络绑

Linux 链路聚合

Linux 链路聚合 链路聚合与双网卡绑定几乎相同,可以实现多网卡绑定主从荣誉,负载均衡,提高网络访问流量.但链路聚合与双网卡绑定技术(bond)不同点就在于,双网卡绑定只能使用两个网卡绑定,而链路聚合最多可将8个网卡汇聚同时做绑定,此聚合模式称之为team team 四种模式 广播容错:"broadcast" 平衡轮询:"roundrobin" 主备:"activebackup" 负载均衡:"loadbalance" tea

链路聚合基本概念

链路聚合:通过多条以太网物理链路捆绑在一起成为一条逻辑链路,从而增加链路带宽的目的,提高链路的可靠性 链路聚合两种类型二层聚合组/二层聚合接口:Bridge-aggregation interface,BAGG三层聚合组/三层聚合接口:Route-aggregation interface RAGG 聚合组内的成员端口状态选中(selected)状态:此状态下的成员端口可以参与用户的数据的转发,成员端口为"选中端口"非选中(unselected)端口:此状态下的成员端口不能参与用户数据

Eth-Trunk链路聚合配置

Eth-Trunk概述 Eth-Trunk接口能够实现负载分担.增加带宽和提高可靠性 Eth-Trunk接口把多个物理接口捆绑成一个逻辑接口 Eth-Trunk接口的链路聚合模式 链路聚合模式 应用场景 手工负载分担模式Eth-Trunk接口 当Eth-Trunk链路两端设备中有一台设备不支持LACP协议时,可在NE20E设备上创建手工负载分担模式的Eth-Trunk,并加入多个成员接口增加设备间的带宽及可靠性. 静态LACP (Link Aggregation Control Protocol

RHEL7 -- 使用team替换bonding实现链路聚合网卡绑定

将网卡enp0s8.enp0s9进行链路绑定 安装teamd包 # yum install teamd 创建一个team链接 # nmcli con add con-name team0 type team ifname team0 config '{"runner":{“name”:"activebackup"}}' Connection 'team0' (7100f55b-3fa5-46d3-84e8-26803f2a6117) successfully add

centos 6.2 网卡聚合及Cisco交换机链路聚合

一.配置环境 centos 6.2系统.网卡1口和2口做链路聚合.    交换机网口 6口和7口. 二.服务器操作步骤 1.创建一个channel bonding interface #vi /etc/sysconfig/network-scripts/ifcfg-bond0 添加如下几行: GATEWAY=192.168.10.1 DNS1=202.106.0.20 DEVICE=bond0 BOOTPROTO=none NETMASK=255.255.255.0 TYPE=Ethernet