网卡绑定技术teaning!

网络组Network Teaming

        网络组是将多块网卡逻辑的连接在一起从而允许故障传一或者提高吞吐率的方法。提高服务器网络可用性的一个方式是使用多块网卡。linux绑定驱动程序提供了一种将多个网卡聚合到一个逻辑的绑定接口的方法。这是个新的实现绑定的方法,并不影响linux内核中旧绑定驱动。

            1、网络组:是将多个网卡聚合在一起的方法,从而实现冗错和提高吞吐量。

            2、网络组不同于旧版中bonding,提高了更好的性能和扩展性。

            3、网络组有内核驱动和teamd守护进程实现。

            4、多种方式runner:

                    broadcast : 传输来自所有端口的包

                    roundrobin :以轮询的方式传输来自每个端口的包

                    activebackup :故障转移,监视链接更改并选择活动端口进行数据传输

                    lacp : 实施802.3链路聚合控制协议

            1、启动网络组接口不会自动启动网络组中的port接口

            2、启动网络组接口中的port接口始终会启动合作接口

            3、禁用网络组接口会自动禁用网络组中的port接口

            4、没有port接口的网络组接口可以启动静态IP连接

            5、启用DHCP链接时,没有port接口的网络组会等待port接口加入

创建网络组接口

            nmcli命令可用于创建和管理组和端口接口。

            1、创建组接口

            2、确定组接口的ipv4或ipv6属性

            3、分配端口接口

            4、启动/关闭组接口和端口接口

创建组接口命令格式

            nmcli con add type team con-name CNAME ifname INAME 【configJSON

                CNAME :连接名,INAME :接口名

                JSON指定runner方式(格式:‘{“runner”:{“METHOD”}}’)

                    METHOD 可以是 broadcast,roundrobin,activebackup,loadbalance,lacp

分配端口接口的命令格式

            nmcli con add type team-slave con-name CNAME ifname INAME master TEAM

                CNAME : 连接名(连接名若不指定,默认为team-slave-IFACE)

                INAME :网络接口名

                TEAM : 网络组接口

启动/关闭组接口和端口接口

            nmcli dev dis INAME

            nmcli con up CNAME

INAME设备名  CNAME网络组接口名或port接口

*注意*

1、当创建网络组team0时,会产生/etc/syscinfig/network-scripts/ifcfg-team0文件。

2、使用命令 teamdctl 组名 state 查看状态


例子:创建网络组team0

            nmcli con add con-name team0 type team ifname team0 config ‘{“runner”{“activebackup”}}’ ip4 10.0.0.1  gw4 10.0.0.2(红色部分如果不需要指定静态ip,可不写)

添加DNS

            nmcli con nodify team0 ipv4.dns 2.2.2.2

加入组成员

            nmcli con add con-name team0-ens33 type team-slave ifname ens33 master team0

启动

            nmcli con up team0

            nmcli con up team0-ens33

常看状态

            teamdctl team0 state

    

    

原文地址:http://blog.51cto.com/13214087/2117533

时间: 2024-10-16 13:14:28

网卡绑定技术teaning!的相关文章

Linux 双网卡绑定技术

bond技术是在linux2.4以后加入内核. 一般步骤是1.把bonding模块加入内核, 2 编辑要绑定的网卡设置,去除地址设定 3 添加bond设备,设置地址等配置 4  重启网络 5 在交换机上做支持 具体信息看  内核文档 Documentation/networking/bonding.txt 参考实例: Linux 双网卡绑定一个IP地址,实质工作就是使用两块网卡虚拟为一块,使用同一个IP地址,是我们能够得到更好的更快的服务.其实这项技术在Sun和Cisco 中早已存在,被称为Tr

LINUX网卡绑定技术

生产环境中LINUX服务器一般都要保证7*24小时不间断提供网络传输服务的,为保证单一网卡出现故障而数据传输不会中断而引用了网卡绑定技术-bonding. bonding就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.当然,直接给两块网卡设置同一IP地址是不可能的.通过bonding,虚拟一块网卡对外提供连接,物理网卡被修改为相同的MAC地址. 概览: 目前网卡绑定mode共有七种(0~6)bond0.bond1.bond2.bond3.bond4.bond5.bond6

Linux平台双网卡绑定技术实现负载均衡(网卡聚合)bonding

Linux平台双网卡绑定技术实现负载均衡 保持服务器的高可用性是企业级 IT 环境的重要因素.其中最重要的一点是服务器网络连接的高可用性.网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能. 双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作.其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2

Linux网卡高级命令、IP别名及多网卡绑定 转

http://www.cnblogs.com/xiaoluo501395377/archive/2013/05/26/3100065.html 本篇随笔将详细讲解Linux系统的网卡高级命令.IP别名以及Linux下多网卡绑定的知识 一.网卡高级命令 在之前的一篇随笔里Linux学习之CentOS(九)--Linux系统的网络环境配置,详细讲解了Linux系统下的网络环境配置等知识,我们了解了一些关于网络配置的一些基本命令.在这里将补充一些Linux系统下有关网卡的一些高级命令. ①mii-to

Linux下bond双网卡绑定

bond,是一种双网卡绑定技术.即将多块物理网卡绑定成一个逻辑网卡,并实现网卡冗余.流量均衡等的一种可靠性强且高可用技术. 七种bond模式: 一.mod=0即banlance-rr(平衡轮循环策略) 特点:传输数据包的顺序是依次传输,第一个走eth0,第二个包走eth1--一直这样循环下去,直到传输完成.该模式提供负载均衡和容错能力. 假如当一个连接或会话的数据包从不同的接口发出,并经过不同的链路,客户端可能会出现数据包无序到达的情况,这样导致无序到达的数据需重新被发送,便会导致网络的吞吐量的

Centos7双网卡绑定

(一)简述1.双网卡绑定技术在centos7中使用了teaming技术,而在rhel6/centos7中使用的是bonding技术,在centos7中双网卡绑定既能使用teaming也可以使用bonding,这里推荐使用teaming技术,方便与查看和监控. 原理这里介绍两种最常见的双网卡绑定模式:(1) roundrobin - 轮询模式所有链路处于负载均衡状态,这种模式的特点增加了带宽,同时支持容错能力.(2) activebackup - 主备模式一个网卡处于活动状态,另一个处于备份状态,

centos和ubunte网卡桥接和多网卡绑定

ubuntu和centos网卡桥接和多网卡绑定1.ubuntu桥接就是模拟出来一张新的网卡把原本要配置在真实网卡上面的ip地址拿到桥接网卡上,主要用于linux虚拟化. ubuntu 从 17.10 开始,已放弃在 /etc/network/interfaces 里固定IP的配置,而是改成 netplan 方 式,配置文件是:/etc/netplan/01-netcfg.yaml (1)配置单网卡桥接 vim /etc/netplan/01-netcfg.yaml network: versio

Linux下双网卡绑定(bonding技术)

http://www.cnblogs.com/qmfsun/p/3810905.html Linux网卡绑定探析 2013-08-20 15:39:31 现在很多服务器都自带双千兆网口,利用网卡绑定既能增加网络带宽,同时又能做相应的冗余,目前应用于很多的场景.linux操作系统下自带的网卡绑定模式,Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个网络接口设置来使用,用于网络负载均衡及网络冗余.当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(win

Linux多网卡绑定聚合链路—bond技术

Linux多网卡绑定聚合链路-bond技术 一.理论部分 将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈.其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题.因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O).Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参