网络接口配置bonding

将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡。直接给两块网卡设置同一IP地址是不可以的通过bonding,虚拟一块网卡对外提供
连接,物理网卡的被修改为相同的MAC地址

bonding常见工作模式

  • 一共有7种模式
  • Mode 0 (balance-rr): 轮询(Round-robin)策略,从头到尾顺序的在每
    一个slave接口上面发送数据包。本模式提供负载均衡和容错的能力
  • Mode 1 (active-backup): 活动-备份(主备)策略,只有一个slave被激活,
    当且仅当活动的slave接口失败时才会激活其他slave.为了避免交换机发生混
    乱此时绑定的MAC地址只有一个外部端口上可见
  • Mode 3 (broadcast):广播策略,在所有的slave接口上传送所有的报文,提
    供容错能力
  • active-backup、balance-tlb 和 balance-alb 模式不需要交换机的任何特
    殊配置。其他绑定模式需要配置交换机以便整合链接。如:Cisco 交换机需
    要在模式 0、2 和 3 中使用 EtherChannel,但在模式4中需要 LACP和
    EtherChannel

    直接修改配置文件实现1模式

  • 切换到网卡的配置文件目录下,创建如下文件

    /etc/sysconfig/network-scripts/ifcfg-bond0
    DEVICE=bond0
    BOOTPROTO=none
    BONDING_OPTS= “miimon=100 mode=1”

  • 修改多个网卡配置文件
    /etc/sysconfig/network-scripts/ifcfg-eth0
    DEVICE=eth0
    BOOTPROTO=none
    MASTER=bond0
    SLAVE=yes
    USERCTL=no
  • 上面两步完成之后就可以通过配置ifcfg-bond0来配置网卡

    nmcli 实现模式1

  • 添加bonding接口
    nmcli connect add con-name mybond  ifname bond1 type bond  mode active-backup
  • 添加从属接口
    nmcli connect add type bond-slave ifname eth0 con-name xx master bond0
    nmcli connect add type bond-slave ifname eth1 con-name xx master bond0
  • 启用从属接口
    nmcli connect up xx
  • 启动绑定
    nmcli connect up mybond

原文地址:https://blog.51cto.com/14240018/2431061

时间: 2024-10-14 19:05:30

网络接口配置bonding的相关文章

网络管理和nmcli命令的使用——网络接口配置-bonding实验步骤

(实验)网络接口配置-bonding ? Bonding 将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.直接给两块网卡设置同\一IP地址是不可以的.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址. 实验步骤: 多网卡绑定bondign(Mode 1 active-backup,主备策略) 1.新建一个网卡配置文件ifcfg-bond0 DEVICE=bond0 IPADDR=192.168.99.110(共用的ip地址) PREFIX=24

网络接口配置 -- bonding

一:实验环境 ①两台centos虚拟机,一台做试验机,一台做测试机 ②两个网卡eth0.eth1 二:实验目的 在生产环境中,当多名用户同时访问一个IP时将会增大网卡负荷和风险,这时我们可以通过将多块网卡绑定同一IP地址对外提供服务,从而实现高可用和负载均衡 ※三:常用Bonding工作模式: Mode 0  ( balance-rr )轮转模式 轮转(Round-robin)策略: 从头到尾顺序的在每一个slave 接口上面发送数据包,当一个slave停止工作时,会出现丢包,但程序并不会死掉.

CentOS 6 / RHEL 6配置bonding 4模式

实现bond 802.3ad or 4 模式:(IEEE 802.3ad), 方式:创建一个整合的组,这个组会共享网速和网络双工(duplex)设置.模式 4 会根据 IEEE 802.3ad 标准使用活动组中的所有网络接口 1.需要交换机配合配置, 2.两端负载均衡模式:基于源IP和目的IP 系统配置: /etc/modprobe.d/bonding.conf alias bond1 bonding options bond1 mode=4 miimon=100 lacp_rate=fast

使用nmcli配置Bonding连接和Teaming连接

一.Bonding的模式 1.balance-rr:轮询模式 2.active-backup:热备模式 3.broadcast:广播模式 二.配置步骤(命令配置) 1. 创建主接口 nmcli con add type bond con-name bond0 ifname bond0 mode active-backup 2. 给主接口分配ip地址 nmcli con mod bond0 ipv4.addresses '192.168.0.100/24' nmcli con mod bond0

网卡接口配置——bonding

Bonding就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡.当然,直接给两块网卡设置同一IP地址是不可能的.通过bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址. 一.Bonding的常用工作模式 Mode 0 (balance-rr) 轮转( Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包.本模式提供负载均衡和容错的能力. Mode 1 (active-backup) 活动-备份(主备)策略:在绑定中,只有

系统运维篇之HP-DL580-Linux配置Bonding网卡组实例

各位好,首先就不多做介绍了,网络上太多类似的配置案例,什么样的部署方式都介绍了一遍,对于初入职场抑或首次参与企业网规划部署的工程师都会纠结用哪种方式.所以就产生了这篇博客. 因为个人是一名在一年内有幸参与了众多企业网项目案例,城域网BGP网络割接以及大大小小客户金融案例的"主刀"攻城师,所以我不介绍过多,只介绍实战型强,遇到最多的部署方式. 好了,不多说!上大菜!      第一步:配置网卡绑定之添加bonding内核模块参数 # vi /etc/modprobe.d/bonding.

RedHat 7配置bonding双网卡绑定

redhat 7虽然新增了teaming技术支持双网卡绑定,但bonding技术依然可以沿用,不过与redhat 6的配置稍微有一点区别. 配置负载均衡模式的bond绑定 创建并编辑bond0配置文件:vi ifcfg-bond0,并填写以下内容:其中mode=6代表MAC地址不同的负载均衡模式   BOOTPROTO=static DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes ONBOOT=yes IPADDR=192.168.10.

linux网络相关配置

网络配置文件 IP.MASK.GW.DNS相关配置文件: /etc/sysconfig/network-scripts/ifcfg-IFACE DEVICE:此配置文件应用到的设备,决定设备名 HWADDR:对应的设备的MAC地址 BOOTPROTO:激活此设备时使用的地址配置协议,常用的dhcp----动态, static---静态, none---手动指定, bootp NM_CONTROLLED:NM是NetworkManager的简写,此网卡是否接受NM控制:建议CentOS6"no&q

linux常用网络配置

网卡名称: 网络接口识别并命名相关的udev配置文件: /etc/udev/rules.d/70-persistent-net.rules 卸载网卡驱动: modprobe  -r e1000 装载网卡驱动: modprobe  e1000 网卡名定义在 /etc/udev/rules.d/70-persistent-net.rules 文件中,定义了网卡命名的详细方式, 这个文件是安装系统时自动生成的 可以在这个文件中,修改NAME选项,以更改网卡名,修改以后需要需改相应的配置文件,否则网卡无