Linux进阶之bond链路聚合

一、简述:

一般来讲,生产环境必须提供7×24小时的网络传输服务。借助于网卡绑定技术,不仅可以提高网络传输速度,更重要的是,还可以确保在其中一块网卡出现故障时,依然可以正常提供网络服务。假设我们对两块网卡实施了绑定技术,这样在正常工作中它们会共同传输数据,使得网络传输的速度变得更快;而且即使有一块网卡突然出现了故障,另外一块网卡便会立即自动顶替上去,保证数据传输不会中断。

二、三种模式:

常见的网卡绑定驱动有三种模式—mode0、mode1和mode6。下面以绑定两块网卡为例,讲解使用的情景。

mode0(平衡负载模式)(balance-rr):平时两块网卡均工作,且自动备援,但需要在与服务器本地网卡相连的交换机设备上进行端口聚合来支持绑定技术。

mode1(自动备援模式)(active-backup):平时只有一块网卡工作,在它故障后自动替换为另外的网卡。(优点:冗余性高;缺点:链路利用率低,两块网卡只有1块在工作)

mode6(平衡负载模式):平时两块网卡均工作,且自动备援,无须交换机设备提供辅助支持。

比如有一台用于提供NFS或者samba服务的文件服务器,它所能提供的最大网络传输速度为100Mbit/s,但是访问该服务器的用户数量特别多,那么它的访问压力一定很大。在生产环境中,网络的可靠性是极为重要的,而且网络的传输速度也必须得以保证。针对这样的情况,比较好的选择就是mode6网卡绑定驱动模式了。因为mode6能够让两块网卡同时一起工作,当其中一块网卡出现故障后能自动备援,且无需交换机设备支援,从而提供了可靠的网络传输保障。

三、操作

实验关掉NetworkManager

第一步:添加两块网卡,两块网卡需要在相同的网络模式

第二步:使用nmcli命令实现bond

命令:nmcli

nmcli connection add type bond ifname bond0 mode 0

nmcli connection add type bond-slave ifname ens37 master bond0

nmcli connection add type bond-slave ifname ens38 master bond0

第三步:编辑bond配置文件(设置网卡IP等信息)

vim ifcfg-bond-bond0

第四步:重启服务

systemctl restart network

第五步:确认bond状态

cat /proc/net/bonding/bond0

其它:(可在配置文件里相应修改bond模式)

BONDING_OPTS=mode=balance-rr

BONDING_OPTS=mode=active-backup

原文地址:https://www.cnblogs.com/renyz/p/11329043.html

时间: 2024-11-02 14:38:15

Linux进阶之bond链路聚合的相关文章

linux初学者-网卡的链路聚合篇

linux初学者-网卡的链路聚合篇 网卡的链路聚合就是将多块网卡连接起来,当一块网卡损坏,网络依旧可以正常运行,可以有效的防止因为网卡损坏带来的损失,同时也可以提高网络访问速度. 网卡的链路聚合一般常用的有"bond"和"team"两种模式,"bond"模式最多可以添加两块网卡,"team"模式最多可以添加八块网卡. 1.bond bond模式的配置步骤如下图所示,在配置之前需要有两块网卡: a."nmcli con

linux 记一次链路聚合

前言: 将多个linux网络端口绑定为1个,可以提升网络性能.公司做了glusterfs网络文件系统,读写都在一块网卡上,导致I/O很低,最后决定做链路聚合来提升服务器的网络吞吐(I/O)可以使用linux teaming 或 bond模块.目前发布的各个linux版本内核均已包含了该模块,大多数情况下不需要重新编译内核.公司的系统是centos6.5,使用bonding模块.Bonding模块提供了绑定/集成多个网卡作为一个虚拟逻辑网口的功能.本次采用了模式0负载均衡模式,常用的还有1冗余模式

链路聚合与权重

链路聚合通过聚合多条并行的物理链路,对上层协议表现为一条逻辑链路,来提高吞吐量和冗余性.常见的链路聚合技术有Cisco的Etherchannel ,华为的Eth-trunk 以及 linux bonding 等.链路聚合分为动态和静态两种,静态的通过手工配置,动态的通过协议协商.IEEE 规定的链路聚合标准 LACP(Link Aggregation Control Protocol)使用的最为广泛1. 以太网的链路带宽是以10Mbps.100Mbps.1000Mpbs.10Gbps等,速率增长

Linux进阶之链路聚合

CentOS7用命令配置链路聚合 链路聚合是一个计算机网络术语,将多个物理端口汇聚在一起,形成一个逻辑端口,以实现出入流量在各成员端口的负荷分担,交换机根据用户配置的端口负荷分担策略决定网络封包从哪个成员端口发送到对端的交换机. 一.实验环境准备 在VMware Workstation部署好CentOS7系统: 至少为安装好的CentOS7系统添加两块网卡. 二.创建虚拟网卡 nmcli connection add type team con-name team0 ifname team0 a

Linux 链路聚合

Linux 链路聚合 链路聚合与双网卡绑定几乎相同,可以实现多网卡绑定主从荣誉,负载均衡,提高网络访问流量.但链路聚合与双网卡绑定技术(bond)不同点就在于,双网卡绑定只能使用两个网卡绑定,而链路聚合最多可将8个网卡汇聚同时做绑定,此聚合模式称之为team team 四种模式 广播容错:"broadcast" 平衡轮询:"roundrobin" 主备:"activebackup" 负载均衡:"loadbalance" tea

Linux 主机与虚拟机网桥制作与网卡链路聚合

一.网桥制作 1.主机的网桥制作 删除主机的/etc/sysconfig/network-scripts/ifcfg-enp0s25 在/etc/sysconfig/network-scripts/ifcfg-br0目录下添加文件 #编辑主机的物理网卡文件 vim /etc/sysconfig/network-scripts/ifcfg-enp0s25 DEVICE=enp0s25 BOOTPROTO=none NAME=westos BRIDGER=br0 #编辑虚拟网桥文件 vim /etc

Linux的高级网络网桥、链路聚合

一.网桥实验 1.测试环境为网络搭建虚拟机 开始为NAT模式 安装过程NAT速度很慢 2.配置网桥参数文件 3.测试网桥模式下的虚拟机安装速度 与第一次实验相同,只是将网络模式换为网桥模式安装,速度很快 网桥设置 二.bond 三.链路聚合

Linux链路聚合

链路聚合是一个计算机网络术语,指将多个物理端口汇聚在一起,形成一个逻辑端口,以实现出/入流量吞吐量在各成员端口的负荷分担,交换机根据用户配置的端口负荷分担策略决定网络封包从那个成员端口发送到对端的交换机.当交换机检测到其中一个成员端口的链路发生故障时,就停止在此端口上发送封包,并根据负荷分担策略在剩下的链路中重新计算报文的发送端口,故障端口恢复后再次担任发送端口.链路聚合在增加链路带宽,实现链路传输弹性和工程冗余等方面是一项很重要的技术. 网卡的链路聚合一般常用的有"bond"(网络绑

linux网卡实现高可用:team链路聚合

一.链路聚合简介 1. TIC teaming 将多个物理端口绑定在一起当成一个逻辑端口使用 Rhel7是通过runner(可以视作一段代码)来实现高可用或负载均衡 2. Team结构 Mster:一个逻辑端口,可以看作一个组 Slave:所有的物理端口,可以看作成员 3. Team实现过程 配置一个mster(逻辑端口),并且同时通过runner设置模式(HA或者LB) 将物理网卡绑定到master 启用加入master的slave 配置IP 二.例 将物理网卡eno16777736和eno3