管理聚合链路和桥接网络(多网卡绑定,redhat liunx 7.0) 基础知识

管理聚合链路和桥接网络(多网卡绑定)

一 配置bonding接口,实现多网卡绑定

绑定多网卡,可以有以下优点:

提升网络传输能力

避免网络链路单点故障

bonding的两种绑定工作模式:实际上有7种,其他不常用

0  balance-rr  轮训模式

1  active-backup  高可用模式

逻辑原理

--eth0---

app  --数据发送到---bond0               ---switch----

--eth1---

创建步骤:

创建主接口(master) bondx

给主接口bondx设定Ip信息

创建子接口(slave)

启动主接口

#nmcli con add type bond con-name bond0 ifname bond0 mode active-backup

#nmcli con mod bond0 ipv4.address ‘192.168.0.100/24‘

#nmcli con mod bond0 ipv4.method manual

#nmcli con add type bond-slave con-name bond-slave-eno1 ifname eno1 master bond0

#nmcli con add type bond-slave con-name bond-slave-eno2 ifname eno2 master bond0

#cat /proc/net/bonding/bond0

#nmcli con up bond-slave-eno1

#nmcli con up bond-slave-eno2

#nmcli con up bond0

#ip addr show dev bond0

二 teaming 聚合链路

rhce 7.0使用teaming实现聚合链路,能够提供网卡绑定之后的网络吞吐性能,并且提供网卡的故障切换处理能力。

team是基于一个小型内核驱动实现聚合链路,在用户层提供teamd命令实现链路管理。teamd可以实现以下模式的聚合链路:

broadcast

roundrobin

activebackup

loadbalance

lacp

具体操作:

时间: 2024-11-10 03:50:52

管理聚合链路和桥接网络(多网卡绑定,redhat liunx 7.0) 基础知识的相关文章

centos和ubunte网卡桥接和多网卡绑定

ubuntu和centos网卡桥接和多网卡绑定1.ubuntu桥接就是模拟出来一张新的网卡把原本要配置在真实网卡上面的ip地址拿到桥接网卡上,主要用于linux虚拟化. ubuntu 从 17.10 开始,已放弃在 /etc/network/interfaces 里固定IP的配置,而是改成 netplan 方 式,配置文件是:/etc/netplan/01-netcfg.yaml (1)配置单网卡桥接 vim /etc/netplan/01-netcfg.yaml network: versio

XenServer管理网络做网卡Bond最佳实践

在 XenServer 安装期间,系统会为每个物理网络接口卡 (NIC) 创建一个网络.向资源池添加服务器 时,这些默认网络会进行合并,以便设备名称相同的所有物理 NIC 均连接到同一网络. 通常情况下,如果您想要创建内部网络,使用现有 NIC 设置新 VLAN,或创建 NIC 绑定,只需添加一个新网络即可. 在 XenServer 中您可以配置四种不同类型的网络: 外部网络,与物理网络接口相关联,可在虚拟机与连接到网络的物理网络接口之间提供桥接,从而使虚拟机能够通过服务器的物理网络接口卡连接到

Linux6/Centos6 聚合链路

简介 链路聚合(Link Aggregation),是指将多个物理端口捆绑在一起,成为一个逻辑端口,以实现出/ 入流量在各成员端口中的负荷分担,交换机根据用户配置的端口负荷分担策略决定报文从哪一个成员端口发送到对端的交换机.当交换机检测到其中一个成员端口的链路发生故障时,就停止在此端口上发送报文,并根据负荷分担策略在剩下链路中重新计算报文发送的端口,故障端口恢复后再次重新计算报文发送端口.链路聚合在增加链路带宽.实现链路传输弹性和冗余等方面是一项很重要的技术.如果聚合的每个链路都遵循不同的物理路

docker(五)配置桥接网络

配置桥接网络 复制网卡配置文件ifcfg-ens33为ifcfg-br0,修改ifcfg-br0 [[email protected] ~]# cd /etc/sysconfig/network-scripts/ [[email protected] network-scripts]# cp ifcfg-ens33 ifcfg-br0 [[email protected] network-scripts]# vim ifcfg-br0 //修改TYPE,NAME,DEVICE 修改网卡配置文件

中标麒麟系统进行双网卡绑定

cd /etc/sysconfig/network-scripts/ [[email protected] network-scripts]# cat ifcfg-bond0 DEVICE=bond0 NM_CONTROLLED=no  #yes的话是不需要network restart,直接生效. BOOTPROTO=static ONBOOT=yes IPADDR=10.225.3.164 NETMASK=255.255.255.0 GATEWAY=10.225.3.254 DNS1=10.

Linux多网卡绑定聚合链路—bond技术

Linux多网卡绑定聚合链路-bond技术 一.理论部分 将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈.其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题.因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O).Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参

docker-网络管理-桥接网络

一.配置桥接网络 需求:为了使本地网络中的机器和Docker容器更方便的通信,我们经常会有将Docker容器配置到和主机同一网段的需求.这个需求其实很容易实现,我们只要将Docker容器和宿主机的网卡桥接起来,再给Docker容器配上IP就可以了. 思路:新添加一块宿主机br0网卡桥接本地ens33网卡,从git上clone 借助第四方 pipwork包为容器桥接宿主机br0网卡实现桥接通信!! 1:新增一块br0网卡,并配置br0网卡 [[email protected] ~]# cd /et

Selinux、聚合链路、IPV6、防火墙基础

SELinux安全机制,系统安全保护 ? Security-Enhanced Linux– 美国NSA国家安全局主导开发,一套增强Linux系统安全的强制访问控制体系– 集成到Linux内核(2.6及以上)中运行– RHEL7基于SELinux体系针对用户.进程.目录和文件提供了预设的保护策略,以及管理工具 ? SELinux的运行模式– enforcing(强制).permissive(宽松)– disabled(彻底禁用) 任何状态变成disabled(彻底禁用)都需要重起 ? 切换运行模式

linux多网卡绑定聚合-Bond详细完整版

Linux Bonding 一.什么是bondingLinux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余 二.bonding应用方向 1.网络负载均衡 对 于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题. 对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题