步骤1:
- 第一种模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)
- 特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降
- 第二种模式:mod=1,即: (active-backup) Active-backup policy(主-备份策略)
- 特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有 N 个网络接口的情况下,资源利用率为1/N
- 一位童鞋给出的一个解决方案:
- linux网卡bonging的备份模式实验在真实机器上做完全没问题(前提是linux内核支持),但是在vmware workstation虚拟中做就会出现如下图问题。
- 配置完成后出现如上图问题,但是bond0能够正常启动也能够正常使用,只不过没有起到备份模式的效果。当使用ifdown eth0后,网络出现不通现象。上网找资料也没有说的太清楚的,所以就发表这篇博客。
- 其实上图也给出了答案,显示出“这个mac地址是eth0的,这个mac地址eth1不能够使用”。
- 我查了下内核文档:这个bond0获取mac地址有两种方式,一种是从第一个活跃网卡中获取mac地址,然后其余的SLAVE网卡的mac地址都使用该mac地址;另一种是使用fail_over_mac参数,是bond0使用当前活跃网卡的mac地址,mac地址或者活跃网卡的转换而变。
- 既然vmware workstation不支持第一种获取mac地址的方式,那么你可以使用fail_over_mac=1参数。当然了,在真实环境中就不用这么做了。。
步骤2:
步骤3:
步骤4:
步骤5:
步骤6:
步骤7:
步骤8:
步骤9:
时间: 2024-10-10 04:07:29