实现多网卡绑定bonding

centos6,7实现多网卡绑定bonding

介绍

Bonding
1.将多块网卡绑定同一IP地址对外提供服务;
2.可以实现高可用或者负载均衡;
3.直接给两块网卡设置同一IP地址是不可以的;
4.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址

工作模式
1.Mode 0---轮转(Round-robin)策略

  • 从头到尾顺序的在每一个slave接口上面发送数据包;
  • 本模式提供负载均衡和容错的能力
    2.Mode 1---活动-备份(主备)策略

  • 只有一个slave被激活,当且仅当活动的slave接口失败时才会激活其他slave
  • 为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见
    3.Mode 3---广播策略

  • 在所有的slave接口上传送所有的报文,提供容错能力
DEVICE=bond0
BOOTPROTO=none
BONDING_OPTS="miimon=100 mode=0"
miimon是设置检测链路的时间,单位为毫秒。如果miimon=100,那么系统每100毫秒检测一侧链路的连接状态,如果有一条线路不通就转入另一条线路。
mode用来指定模式

IPADDR=200.200.200.200
PREFIX=24
GATEWAY=200.200.200.1


通过nmcli实现Bonding

1.添加bonding接口

nmcli con add type bond con-name mybond0 ifname bond0 mode active-backup

2.添加从属接口(从属接口必须在同一网段)

nmcli con add type bond-slave ifname ens33 master mybond0

nmcli con add type bond-slave ifname ens34 master mybond0

注:如无为从属接口提供连接名,则该名称是接口名称加类型构成

3.要启动绑定,则必须首先启动从属接口

nmcli con up bond-slave-ens33

nmcli con up bond-slave-ens34

4.启动绑定

nmcli con up mybond0

5.配置IP地址

nmcli connection modify mybond0 ipv4.method manual ipv4.addresses 172.20.130.4/24 ipv4.gateway 172.20.0.1

6.查看Bonding状态

cat /proc/net/bonding/bond0


7.删除Bonding绑定

1.关闭Bonding

nmcli connection down mybond0

2.删除Bonding

nmcli connection delete mybond0

3.删除从属接口

nmcli connection delete bond-slave-ens33
nmcli connection delete bond-slave-ens34

原文地址:https://www.cnblogs.com/lqynkdcwy/p/9539658.html

时间: 2024-10-08 14:17:04

实现多网卡绑定bonding的相关文章

linux多网卡绑定bonding

Linux  多网卡绑定概述 本文 os:6.4  这里测试是四块网卡绑定 1 块 bond 我们在这介绍的Linux 双 网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链 接聚合成一个逻辑链路工作.其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel 技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding.bonding技术的最早应用是在

Gnu/Linux网卡绑定bonding

系统:    CentOS或RHEL5系列系统配置文件:/etc/modprobe.conf----------------------------------------系统:    CentOS或RHEL6系列系统配置文件:/etc/modprobe.d/dist.conf Linux bonding提供将多个网络接口设备捆绑为单个网络接口设置来使用,用于网络负载均衡及网络冗余. 网卡绑定主要有0~6七种模式,常用的有3种: 0:负载均衡,两个网卡都工作,当一个出现问题后,另一个还继续工作,

多网卡绑定bonding

bonding工作模式 mode 0 :论转策略,从头到尾顺序的在每个slave接口上面发送数据包,本模式提供了负载均衡和容错能力. mode 1 :备份(主备)策略,只有一个端口被激活,只有在被激活的端口失败时备用的端口才开始工作,为了避免交换机发送混乱此时绑定的MAC地址只有一个外部端口可见. mode 3 :广播策略,使用的接口上传送的报文都一样,提供了容错能力. 当然还有其他比较少用的模式,这里就不一一叙述了,需要注意的是模式0,3需要交换机的支持和设置,下面我们用2台虚拟机模拟bond

红帽7.2双网卡绑定bonding

添加2块网卡 vim /etc/sysconfig/network-scripts/ifcfg-bond0 ##新建 添加以下内容 DEVICE=bond0 BOOTPROTO="static" ONBOOT="yes" TYPE=bond IPADDR=192.168.1.12   ###IP地址自己配 NETMASK=255.255.255.0 GATEWAY=192.168.1.1    ####网关自己配 BONDING_OPTS="miimon=

Linux下双网卡绑定(bonding技术)

http://www.cnblogs.com/qmfsun/p/3810905.html Linux网卡绑定探析 2013-08-20 15:39:31 现在很多服务器都自带双千兆网口,利用网卡绑定既能增加网络带宽,同时又能做相应的冗余,目前应用于很多的场景.linux操作系统下自带的网卡绑定模式,Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个网络接口设置来使用,用于网络负载均衡及网络冗余.当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(win

生产环境网卡绑定汇总(bonding,team)

生产环境网卡绑定汇总 1 什么是bonding,team?   1.1 bonding,team简介    在了解正式的概念之前,我们先从不太专业的角度取解释这两个名词.    所谓bonding就是联结.以下是来自柯林斯英汉双解大词典对于bonding的解释.      the process by which individuals become emotionally attached to one another 形成的密切关系的过程 →see also   pair bond    所

RedHat 7配置bonding双网卡绑定

redhat 7虽然新增了teaming技术支持双网卡绑定,但bonding技术依然可以沿用,不过与redhat 6的配置稍微有一点区别. 配置负载均衡模式的bond绑定 创建并编辑bond0配置文件:vi ifcfg-bond0,并填写以下内容:其中mode=6代表MAC地址不同的负载均衡模式   BOOTPROTO=static DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes ONBOOT=yes IPADDR=192.168.10.

Linux平台双网卡绑定技术实现负载均衡(网卡聚合)bonding

Linux平台双网卡绑定技术实现负载均衡 保持服务器的高可用性是企业级 IT 环境的重要因素.其中最重要的一点是服务器网络连接的高可用性.网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能. 双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作.其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2

CentOS 5.x 6.x 网卡绑定(Bonding)脚本

工作中经常要为客户调整网卡绑定,为此制作了此脚本(比较粗糙,请见谅).使用时请查看脚本帮助 bond.sh #!/bin/bash usage() { cat << EOF create by [email protected] usage: $0 options OPTIONS:     -h  Show this message     -i Bonding IP,NETMASK,GATEWAY(optional)     -q Show Bonding Parameter Info