linux系统多网卡热备实现高并发负载均衡

#nmcli实现bonding

#先停止NetworkManager
service NetworkManager stop
chkconfig NetworkManager off   //开机自启动 关闭

#虚拟主机网卡类型要一致选(桥接)模式:

#添加bonding接口:
nmcli con add type bond con-name mybond0 ifname bond0 mode active-backup
#生成的配置文件路径:
cd /etc/sysconfig/network-scripts
#配置文件名称:
ifcfg-mybond0
#如果要设置静态IP地址,修改配置文件内:
BOOTPROTO=dhcp             修改为:BOOTPROTO=static
                           新增静态ip地址:IPADDR=172.20.37.200
                           子网掩码:PREFIX=16
#新增bond0的机制及模式(Mode 1 (active-backup): 活动-备份(主备)策略,只有一个slave被激活,当且仅当活动的slave接口失败时才会激活其他slave.为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见)
BONDING_OPTS="miimon=100 mode=1"

#添加从属网卡接口(我的网卡端口名称为:ens33/ens34):
nmcli con add type bond-slave ifname ens33 master bond0
nmcli con add type bond-slave ifname ens34 master bond0
#生成的配置文件路径:
cd /etc/sysconfig/network-scripts
#配置文件名称:
ifcfg-bond-slave-ens33
ifcfg-bond-slave-ens34

#重新加载网卡:
nmcli con reload

#检查bond0的链接信息:
nmcli con

#如有多余链接端口(非bond0的从属接口,直接关闭):
    [[email protected] network-scripts 10:51:15]#nmcli con
    NAME              UUID                                  TYPE      DEVICE
    mybond0           e9660986-e80b-40b2-938b-2c0b1e093a8a  bond      bond0  
    virbr0            d172ee2f-c59c-4128-9867-ee7e8a2e60c8  bridge    virbr0
    bond-slave-ens33  c5330bec-dd78-4991-81ba-7ffbb8740493  ethernet  ens33  
    bond-slave-ens34  ec9a5f9e-d7b8-4411-b813-8d7a3c407282  ethernet  ens34  
    bond-slave-ens38  4aa576a2-aef3-4852-8e2d-a5876cfff407  ethernet  ens38  
    ens33             cda2e0f9-5936-4cf3-b32d-59846c30cbd5  ethernet  --     
    ens34             61294f12-63bb-45d0-8fc3-6c6a977e0777  ethernet  --  
    #例入:ens33、ens34及virbr0属于多余,直接down,命令:
    nmcli con down ens33
#修改路径/etc/sysconfig/network-scripts/下的ens33和ens34的配置文件
#ifcfg-ens33和ifcfg-ens34文件内开机自启参数的:
ONBOOT="yes"  改修: ONBOOT="no"

#启动绑定,先启动从属接口
nmcli con up bond-slave-ens34
nmcli con up bond-slave-ens33

#启动绑定的mybond0
nmcli con up mybond0

#启动网络服务:

centos6/7:service network restart

centos8:systemctl restart NetworkManager

#配置完成查看bondo参数:
cat /proc/net/bonding/bond0

#删除bond网络
    1.nmcli connection delete bond0   删除bond0
    2.nmcli connection delete eth0   删除eth0
    3.nmcli connection delete eth1  删除eth1
    4.rmmod bonding(很重要)
#重启reboot

方法二:
在/etc/sysconfig/network-scripts/目录下建立ifcfg-bond0文件:
DEVICE=bond0
USERCTL=no
BOOTPROTO=none
ONBOOT=yes
IPADDR=192.168.100.17    
NETMASK=255.255.255.0
GATEWAY=192.168.100.1
TYPE=UnKnown    
BONDING_OPTS="miimon=80 mode=0"

记得ifcfg-eth0和ifcfg-eth1文件记得备份出来,用于恢复:

然后分别修改ifcfg-eth0文件,如下:
DEVICE="eth0"
ONBOOT="yes"
BOOTPROTO=none:
MASTER=bond0
SLAVE=yes
USERCTL=no
在把ifcfg-eth1文件修改如下:
DEVICE="eth1"
ONBOOT="yes"
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
USERCTL=no

在/etc/modprobe.d/目录下建立bonding.conf文件,文件内容如下:
alias bond0 bonding

执行modprobe  bonding

然后重启网络
service network restart

此命令查看绑定情况
cat/proc/net/bonding/bond0

网卡绑定解除:

删除ifcfg-bond0,/etc/modprobe.d/bonding.conf

修改ifcfg-eth0和ifcfg-eth0为绑定之前的样子

rmmod bonding(很重要)

service network restart

原文地址:https://www.cnblogs.com/joker-apologize/p/11734836.html

时间: 2024-10-28 22:02:44

linux系统多网卡热备实现高并发负载均衡的相关文章

Nginx+Keepalived(双机热备)搭建高可用负载均衡环境(HA)

原文:https://my.oschina.net/xshuai/blog/917097 摘要: Nginx+Keepalived搭建高可用负载均衡环境(HA) http://blog.csdn.net/xyang81/article/details/52554398可以看更多介绍 Keepalived的介绍可以百度一堆一堆的资料.一定要看看哦. 1.基于上一篇博客总结,再次安装一个虚拟机当backup服务器,这个服务器只安装Keepalived+Nginx即可 2.Master还是上一篇博文的

keepalived的详细介绍,主辅热备,主主负载均衡

Keepalived介绍 Keepalived是一个基于VRRP协议来实现的WEB 服务高可用方案,可以利用其来避免单点故障.一个WEB服务至少会有2台服务器运行Keepalived,一台为主服务器(MASTER),一台为备份服务器(BACKUP),但是对外表现为一个虚拟IP,主服务器会发送特定的消息给备份服务器,当备份服务器收不到这个消息的时候,即主服务器宕机的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性. 1      +-------------VIP(192.168

LVS高并发负载均衡实现

首先说下负载均衡服务器: LVS:LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一. Nginx:Nginx ("engine x") 是一个高性能的 HTTP 和 反向代理 服务器,也是一个 IMAP/POP3/SMTP 服务器. Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本0.1

Django 高并发负载均衡

1 什么是负载均衡? 当一台服务器的性能达到极限时,我们可以使用服务器集群来提高网站的整体性能.那么,在服务器集群中,需要有一台服务器充当调度者的角色,用户的所有请求都会首先由它接收,调度者再根据每台服务器的负载情况将请求分配给某一台后端服务器去处理. 那么在这个过程中,调度者如何合理分配任务,保证所有后端服务器都将性能充分发挥,从而保持服务器集群的整体性能最优,这就是负载均衡问题. 下面详细介绍负载均衡的四种实现方式 2 HTTP重定向实现负载均衡 过程描述 当用户向服务器发起请求时,请求首先

千万级高并发负载均衡软件HAPROXY

一.HAProxy 基于硬件的负载均衡设备:f5,big-ip等 基于软件的负载均衡产品:haproxy,lvs,nginx等 在软件的负载均衡产品中,分为基于系统的软负载实现和基于第三方软件的软负载实现,LVS是基于系统实现的一种软负载.HA proxy是基于第三方应用实现的软负载均衡 1.haproxy简介 haproxy是一个开源的,高性能的,基于tcp第四层和http第七层应用的负载均衡软件 优点:可靠性和稳定性非常好 最高可以同时维护40000-50000个并发连接.单位时间内处理最大

初识千万级高并发负载均衡软件HaProxy

什么是HaProxy? 负载均衡的实现方式一般有两种方式,硬件负载均衡和软件负载均衡,硬件负载均衡最具代表性的当属F5,软件负载均衡的实现方案很多,大致分为两类,一种为操作系统级的负载均衡,另一种为第三方应用的软件负载均衡.LVS就是基于操作系统的一种软件负载均衡,HaProxy和Nginx等就是开源的基于第三方应用的软件负载均衡. HaProxy是TCP / HTTP 反向代理服务器,尤其适合于高可用性环境.HAProxy 可以在4和7两层作负载均衡.它支持两种主要的代理模式:"tcp&quo

Linux系统架构(LB-HA集群)-nginx负载均衡集群配置

nginx负载均衡集群配置 [[email protected] ~]# cd/usr/local/nginx/conf/vhosts/ [[email protected] vhosts]# ls default.conf  test.conf [[email protected] vhosts]# vim lb.conf upstream wang { server 192.168.137.21:80; server 192.168.137.23:80; } server { listen

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡【转】

CentOS 6.3下部署LVS(NAT)+keepalived实现高性能高可用负载均衡 一.简介 VS/NAT原理图: 二.系统环境 实验拓扑: 系统平台:CentOS 6.3 Kernel:2.6.32-279.el6.i686 LVS版本:ipvsadm-1.26 keepalived版本:keepalived-1.2.4 三.安装 0.安装LVS前系统需要安装popt-static,kernel-devel,make,gcc,openssl-devel,lftp,libnl*,popt*

linux HAProxy及Keepalived热备

HAProxy 它是免费,快速且可靠的一种解决方案没,适用于那些负载特大的web站点这些站点通常又需要会话保持或七层处理提供高可用性,负载均衡及基于tcp和http应用的代理 衡量负载均衡器性能的因素 Session rate 会话率: 每秒钟产生的会话数 Session concurrency 并发会话数: 服务器处理会话的时间越长,并发会话数越多 Data rate 数据速率: 以MB/s或Mbps衡量,大的对象导致并发会话数增加, 高会话数,高数据速率要求更多的内存 haproxy工作模式