redha7 链路聚合

配置链路聚合

在Redhat7链路聚合有两种:bond和team
bond 是把多个网卡绑定在一起,逻辑出一个接口,这样可以提高吞吐量,和冗余功能
bond 是依赖bonding.ko 这个内核模块。
查看内核有没有加载bonding.ko 模块
#modinfo binding
可以查看模块信息。如果有信息,说明已经加载
如果没有加载,可以用命令加载。

#modprobe binding


一个主接口master,由多个从接口slave组成。
接口进行控制管理时,使用的是NetworkManager服务进程
bond配置过程要注意一下几点;
master和slave是关闭和开启是分别进行。
slave不用做任何配置
master可以是用dhcp和可以使用
master 使用dhcp配置时,从接口必须保证物理连接是正确的



bond 的模式:
round-robin mode 0 轮询
active-backup mode 1 主备
broadcast mode 3 广播
实验环境说明:
一台Redhat7 虚拟机。虚拟机添加2块网卡,2块虚拟机网卡类型都设置为自动桥接(地址段为:192.168.9.0/24 网关为:192.168.9.254)
配置完成后,可以连接到互联网

配置步骤:
1,先创建一个bond的master
2,创建两个bond-slave 加入master
3,验证bond是不是生效

在桌面打开一个终端,su - 到root用户。查看一下网卡信息。可以看到除lo以外有两块网卡,
分别是eno16777736和eno33554992。这两块网卡没有任何配置信息(如果不是新添加的网卡,有信息,需要用nmcli connection delete xx 删除对应的网卡)

1,配置bond master 模式为active-backup

#nmcli connection add type bond ifname bond0 con-name bond0 mode active-backup ip4 192.168.9.5/24 gw4 192.168.9.254
现在ip addr show 能够查看到bond0

2创建两个bond-slave 加入master

#nmcli connection add type bond-slave ifname eno16777736 master bond0
 #nmcli connection add type bond-slave ifname eno33554992 master bond0

3验证bond创建是否生效。

#cat /proc/net/bonding/bond0能看到一下内容

[[email protected]host ~]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eno33554992
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eno16777736
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 00:0c:29:58:5e:6e
Slave queue ID: 0

Slave Interface: eno33554992
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:58:5e:78
Slave queue ID: 0

说明bond已经配置成功。现在我们用ssh 连接192.168.9.5 能够登录成功。
修改dns配置文件vim /etc/resolv.conf 添加nameserver 8.8.8.8就可以连接到互联网了

我们现在来看一下主备的效果。 另外开启一个ssh
把活动Currently Active Slave: eno33554992 断开连接。
#nmcli device disconnet eno33554992
我们现在查看一下cat /proc/net/bonding/bond0
Currently Active Slave: eno16777736
换成另外一个接口。
#可能是虚拟机的原因,活动的slave 切换了,但是还是掉线。有可能是虚拟机同步有问题。

team和bond的配置类似。(官方说bond和team不冲突)我就直接写步骤了

team的模式:注意和bond的写法区别
roundrobin 轮询
activebackup 主备
broadcast 广播

1,创建一个team master

#nmcli connection add type team con-name team0 ifname team0 autoconnect yes
config ‘{"runner": {"name": "activebackup"}}‘ ip4 192.168.9.7/24 gw4 192.168.9.254

注意,team 指定模式的格式 ‘{"runner": {"name": "activebackup"}}‘

2创建两个team-slave 加入master

#nmcli connection add type team-slave ifname eno16777736 autoconnect yes master team0
#nmcli connection add type team-slave ifname eno33554992 autoconnect yes master team0 

3检验team是否生效

#teamdctl team0 state 能够查看信息

[[email protected] ~]# teamdctl team0 state
setup:
  runner: activebackup
ports:
  eno16777736
    link watches:
      link summary: up
      instance[link_watch_0]:
        name: ethtool
        link: up
  eno33554992
    link watches:
      link summary: up
      instance[link_watch_0]:
        name: ethtool
        link: up
runner:
  active port: eno16777736

查看team有那些port组成
# teamnl team0 ports

 [[email protected] ~]# teamnl team0 ports
 3: eno33554992: up 1000Mbit FD
 2: eno16777736: up 1000Mbit FD 

验证方法还是可以上面一样。还是出现同样的问题,一切换网卡,就掉线。查看状态是正常的。

我用的版本是redhat 7.0的版本。vmwarestation 14.1.2的版本。你们有遇到这样的问题给我反馈。。。。

网桥的创建和bond 和team 类似。

#nmcli connection add type bridge ifname br0 con-name br0 autoconnect yes ip4 192.168.9.8  gw4 192.168.9.254
#nmcli connection add type bridge-slave autoconnect yes ifname eno16777736 master br0 

nmcli connection add type bridge-slave autoconnect yes ifname eno33554992 master br0

这样那两个接口就可以当交换机的两个网口用了

原文地址:http://blog.51cto.com/zhuxu91313/2149507

时间: 2024-10-16 02:28:08

redha7 链路聚合的相关文章

链路聚合测试

拓扑:cisco 3750====H3C 3600 说明: 1.当3750两个接口都是Pagp,3600两个接口都是Lacp时,port-channel状态为down down. 2.当3750一个接口是Pagp,另一个是Lacp时,两接口不聚合,链路对端以一致的协议通讯. 结论: 配置链路聚合时,链路两端的接口使用的链路聚合协议要一致.

思科2960交换机与Windows server 2012 实现LACP链路聚合

微软的Windows server 2012已经能支持LACP链路聚合了,由于使用链路聚合后可以实现线路的冗余以及带宽增加,在这里我用一台思科的2960做了一个测试,供有兴趣的朋友参考. 实验准备: 思科交换机2960一台.安装server 2012的服务器一台,内有两个千兆网卡,网线两根. 步骤: 1.思科交换机的配置 在特权模式下新建链路聚合channel 端口,并将端口加入Vlan sw2960(config)#int port-channel 6 sw2960(config)#switc

某虚拟化项目中思科与华为交换机链路聚合互连案例

在今年初的时候,我在实施一个VMware虚拟化项目中,涉及到华为与思科交换机通过"链路聚合"的方式互连,经过咨询华为的技术工程师,问题得以成功解决. 不像某些厂家的售后:我们的产品只支持与我们的产品互连,其他的不提供技术支持.华为售后没有因为我是询问与思科交换机的互连而不告诉我解决方法,而是直接告诉我现成的互连案例,并将案例文档及链接网页发到我邮箱,我通过参考案例解决了项目中碰到的问题.现在项目已经运行几个月,一切正常. 现在就此案例记录下来,同时感谢华为技术支持工程师! (小记:我咨

H3C 5560和5110链路聚合

5560和5110链路聚合 注意:最好按照[建立聚合接口-重置物理接口并加入聚合组-在聚合组里做相关配置]的顺序来建立链路聚合,以防出现问题. 我发现这个二层链路聚合和三层链路聚合不同:三层聚合端口 物理端口下只有加入聚合组的配置,而二层聚合组还有从聚合口那复制出来的配置.比如trunk.这也是我之前配置不成功的原因.其实不按顺序也行,只要每个接口下的配置和按顺序来弄得配置一样就行. 在5560一侧 [HN-PY-Core-HX-S5560-1]interface Bridge-Aggregat

链路聚合、Trunk、端口绑定和捆绑简析

关于链路聚合(Link Aggregation).Trunk和端口绑定/捆绑这三种概念很容易混淆,主旨都是利用链路冗余提供服务器.交换机和存储间的可靠性,或利用冗余端口实现负载均衡等:通常在大多数场景下被不加区别的混用,今天我们简单分析一下各自的含义和区别. 链路聚合是采用不同的聚合.合并方法把多个网络链路并行的连接起以便提供网络带宽和链路冗余,实现网络业务连续性:强调的是交换机端到端的链路,一般涉及端口.网卡和交换机(如LACP)绑定等.不同交换机厂商采用不同术语描述链路聚合,但目标都是一致的

链路聚合LACP 配置和结果验证(51cti实验11)

1. 实验线路连接图使用Cisco Packet Tracer6.0 构建拓扑结构图. 2. 实验内容(1) 按图配置各台计算机IP 地址.(2) 参阅教材中内容,完成链路聚合的配置内容,配置要求如图9.14 所示.在各台交换机上使用showrunning-config 和show etherchannel summary 查看链路聚合的配置情况,并使用Ping 指令测试各台计算机之间的连通性. SWA Switch>enable Switch#configure terminal SA(con

Linux 主机与虚拟机网桥制作与网卡链路聚合

一.网桥制作 1.主机的网桥制作 删除主机的/etc/sysconfig/network-scripts/ifcfg-enp0s25 在/etc/sysconfig/network-scripts/ifcfg-br0目录下添加文件 #编辑主机的物理网卡文件 vim /etc/sysconfig/network-scripts/ifcfg-enp0s25 DEVICE=enp0s25 BOOTPROTO=none NAME=westos BRIDGER=br0 #编辑虚拟网桥文件 vim /etc

配置LACP模式链路聚合

组网需求 在两台Router设备上配置LACP模式链路聚合组,提高两设备之间的带宽与可靠性,具体要求如下: 两条活动链路具有负载分担的能力. 两设备间的链路具有一条冗余备份链路,当活动链路出现故障链路时,备份链路替代故障链路,保持数据传输的可靠性. 配置LACP模式链路聚合组网图 配置思路 采用如下的思路配置LACP模式链路聚合: 1. 在Router设备上创建Eth-Trunk,配置Eth-Trunk为LACP模式,实现链路聚合功能. 2. 将成员接口加入Eth-Trunk. 3. 配置系统优

【提问】有关链路聚合的的问题

实验模式: 这张图是我做想要做链路聚合,但是在链路聚合实验中,出现了点儿小小小的问题,介于篇幅太长,所以单独把问题抛出来: (在这里我们不讨论关于生成树的问题,因为默认为我都掌握) 第一步:我们先进行链路聚合: 在我们进行链路聚合前.先用PC1pingPC3.看下报文传播的路径好了: 当我们进行一个简单的抓包之后,就会发现数据报传输的链路:从LSW1->LSW2->LSW3,但是在没有进行链路聚合之前,我们发现:这三条路,会根据生成树协议选择没有阻塞的端口发出,至于什么生成树就不过多解释: 不