Linux进阶之链路聚合

CentOS7用命令配置链路聚合

链路聚合是一个计算机网络术语,将多个物理端口汇聚在一起,形成一个逻辑端口,以实现出入流量在各成员端口的负荷分担,交换机根据用户配置的端口负荷分担策略决定网络封包从哪个成员端口发送到对端的交换机。

一、实验环境准备

  1. 在VMware Workstation部署好CentOS7系统;
  2. 至少为安装好的CentOS7系统添加两块网卡。

二、创建虚拟网卡

nmcli connection add type team con-name team0 ifname team0 autoconnect yes config ‘{"runner": {"name": "activebackup"}}‘

注意:这个”runner”: {“name”: “activebackup”}两边不要有空格,否则一切重来。

三、添加成员网卡

  1. 向虚拟网卡team0中添加eth1网卡:

nmcli connection add type team-slave con-name team0-1 ifname eth1 master team0

2. 向虚拟网卡team0中添加eth2网卡:

nmcli connection add type team-slave con-name team0-2 ifname eth2 master team0

四、网卡配置地址

nmcli connection modify team0 ipv4.method manual ipv4.addresses 192.168.1.250 connection.autoconnect yes

注意:本例为虚拟网卡team0设置地址为192.168.1.250。

五、激活网卡配置

  1. 激活虚拟网卡:

nmcli connection up team0

2. 激活成员网卡:

nmcli connection up eth1

nmcli connection up eth2

六、查看运行状态

teamdctl team0 state

注意:结果中的runner表示目前使用的哪个网卡。

七、测试链路聚合

  1. 停掉成员网卡:

ifconfig eth1 down

2. 查看聚合状态:

teamdctl team0 state

八、聚合模式补充

CentOS7中的链路聚合有两种模式,一种是activebackup连接冗余,指当一个网卡出现问题,会自动切换到另外一个网卡;另一种roundrobin负载均衡,会把网络流量,分配给两个网卡一并去处理,理论上可增加端口带宽,不过需要交换设备支持。

原文地址:https://www.cnblogs.com/renyz/p/11232458.html

时间: 2024-11-08 05:13:43

Linux进阶之链路聚合的相关文章

linux 记一次链路聚合

前言: 将多个linux网络端口绑定为1个,可以提升网络性能.公司做了glusterfs网络文件系统,读写都在一块网卡上,导致I/O很低,最后决定做链路聚合来提升服务器的网络吞吐(I/O)可以使用linux teaming 或 bond模块.目前发布的各个linux版本内核均已包含了该模块,大多数情况下不需要重新编译内核.公司的系统是centos6.5,使用bonding模块.Bonding模块提供了绑定/集成多个网卡作为一个虚拟逻辑网口的功能.本次采用了模式0负载均衡模式,常用的还有1冗余模式

Linux多网卡绑定聚合链路—bond技术

Linux多网卡绑定聚合链路-bond技术 一.理论部分 将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈.其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题.因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O).Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参

linux初学者-网卡的链路聚合篇

linux初学者-网卡的链路聚合篇 网卡的链路聚合就是将多块网卡连接起来,当一块网卡损坏,网络依旧可以正常运行,可以有效的防止因为网卡损坏带来的损失,同时也可以提高网络访问速度. 网卡的链路聚合一般常用的有"bond"和"team"两种模式,"bond"模式最多可以添加两块网卡,"team"模式最多可以添加八块网卡. 1.bond bond模式的配置步骤如下图所示,在配置之前需要有两块网卡: a."nmcli con

Linux 链路聚合

Linux 链路聚合 链路聚合与双网卡绑定几乎相同,可以实现多网卡绑定主从荣誉,负载均衡,提高网络访问流量.但链路聚合与双网卡绑定技术(bond)不同点就在于,双网卡绑定只能使用两个网卡绑定,而链路聚合最多可将8个网卡汇聚同时做绑定,此聚合模式称之为team team 四种模式 广播容错:"broadcast" 平衡轮询:"roundrobin" 主备:"activebackup" 负载均衡:"loadbalance" tea

Linux 主机与虚拟机网桥制作与网卡链路聚合

一.网桥制作 1.主机的网桥制作 删除主机的/etc/sysconfig/network-scripts/ifcfg-enp0s25 在/etc/sysconfig/network-scripts/ifcfg-br0目录下添加文件 #编辑主机的物理网卡文件 vim /etc/sysconfig/network-scripts/ifcfg-enp0s25 DEVICE=enp0s25 BOOTPROTO=none NAME=westos BRIDGER=br0 #编辑虚拟网桥文件 vim /etc

linux网卡实现高可用:team链路聚合

一.链路聚合简介 1. TIC teaming 将多个物理端口绑定在一起当成一个逻辑端口使用 Rhel7是通过runner(可以视作一段代码)来实现高可用或负载均衡 2. Team结构 Mster:一个逻辑端口,可以看作一个组 Slave:所有的物理端口,可以看作成员 3. Team实现过程 配置一个mster(逻辑端口),并且同时通过runner设置模式(HA或者LB) 将物理网卡绑定到master 启用加入master的slave 配置IP 二.例 将物理网卡eno16777736和eno3

Linux的高级网络网桥、链路聚合

一.网桥实验 1.测试环境为网络搭建虚拟机 开始为NAT模式 安装过程NAT速度很慢 2.配置网桥参数文件 3.测试网桥模式下的虚拟机安装速度 与第一次实验相同,只是将网络模式换为网桥模式安装,速度很快 网桥设置 二.bond 三.链路聚合

Linux链路聚合

链路聚合是一个计算机网络术语,指将多个物理端口汇聚在一起,形成一个逻辑端口,以实现出/入流量吞吐量在各成员端口的负荷分担,交换机根据用户配置的端口负荷分担策略决定网络封包从那个成员端口发送到对端的交换机.当交换机检测到其中一个成员端口的链路发生故障时,就停止在此端口上发送封包,并根据负荷分担策略在剩下的链路中重新计算报文的发送端口,故障端口恢复后再次担任发送端口.链路聚合在增加链路带宽,实现链路传输弹性和工程冗余等方面是一项很重要的技术. 网卡的链路聚合一般常用的有"bond"(网络绑

链路聚合、Trunk、端口绑定和捆绑简析

关于链路聚合(Link Aggregation).Trunk和端口绑定/捆绑这三种概念很容易混淆,主旨都是利用链路冗余提供服务器.交换机和存储间的可靠性,或利用冗余端口实现负载均衡等:通常在大多数场景下被不加区别的混用,今天我们简单分析一下各自的含义和区别. 链路聚合是采用不同的聚合.合并方法把多个网络链路并行的连接起以便提供网络带宽和链路冗余,实现网络业务连续性:强调的是交换机端到端的链路,一般涉及端口.网卡和交换机(如LACP)绑定等.不同交换机厂商采用不同术语描述链路聚合,但目标都是一致的