LVS负载均衡群集详解

此博文包含以下内容:
1、 群集类型
2、负载均衡的分层结构
3、负载均衡的工作模式
4、LVS的负载调度算法
5、LVS相关的基础命令
6、使用ipvsadm管理工具
7、搭建NFS共享存储服务器

根据生产环境的不同,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋。关于群集技术的相关概念如下:

1、 群集类型

无论是哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。根据群集所针对的目标差异,可以分为以下三种类型:

  • 负载均衡群集(LB):以提高应用系统的响应能力、尽可能处理更多的访问请求、较少延迟为目的,获得高并发、高负载的整体性能。例如,“DNS轮询” 、“应用层交换”、“反向代理”等都可用做负载均衡群集。LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。
  • 高可用群集(HA):以提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果,例如,“故障切换”。“双机热备”、“多机热备”、等都属于高可用群集技术,HA的工作方式包括双工和主从两种模式。双工就是所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点,和Cisco路由器的HSRP原理类似。
  • 高性能运算群集(HPC):以提高应用系统的CPU运算速度,扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力。例如,“云计算”、“网格计算”也可以当成HPC的一种。HPC群集的高性能依赖于“分布式计算” “并行计算”,通过专用硬件和软件将多台服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。

不同类型的群集可以根据实际需求进行合并,如高可用的负载均衡群集。

2、负载均衡的分层结构

上图是一个典型的负载均衡群集,共三层,每层的作用如下:

  • 第一层:负载调度器,这是访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP(虚拟IP)地址,也称为群集IP。通常会配置主、备两台调度器实现热备份。确保高可用性。
  • 第二层:服务器池,群集所提供的应用服务(如HTTP、FTP)由服务器池承担,其中每个节点具有独立的RIP(真实IP)地址,只处理调度器分发过来的客户机请求,当某个节点暂时失效,负载调度器的容错机制会将其隔离,等待错误排除后在将其重新纳入服务器池。
  • 第三层:共享存储,为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。在Linux/UNIX环境中,共享存储可以使用NAS设备,或者提供NFS(网络文件系统)共享服务的专用服务器。

3、负载均衡的工作模式
.

  • NAT模式:类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式,但负载调度器的压力较大。
  • TUN模式:采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器,服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。
  • DR模式:采用半开放的网络结构,与TUN模式的结构类似,但各节点不是分散在各地的,而是与调度器位于同一个物理网络,负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。

LVS是针对Linux内核开发的一个负载均衡项目,官网是:http://www.linuxvirtualserver.org/ 可以进入官网查阅相关的技术文档。LVS现在已经成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。

4、LVS的负载调度算法

轮询(rr):将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每台服务器,而不管服务器实际的连接数和系统负载。

加权轮询(wrr):根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询个节点的负载情况,并动态调整其权重。这样可以保证处理能力强的服务器承担更多的访问流量。

最少连接(lc):根据真实服务器已建立的连接数进行分配,将受到的访问请求优先分配给连接数最少的节点,如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。

加权最少连接(wlc):在服务器节点的性能差异较大的情况下,可以为真实服务器自动调整权重,权重较高的节点将承担更大比例的活动连接负载。

5、LVS相关的基础命令

默认ip_vs模块没有加载,可以执行如下命令加载ip_vs模块:

[[email protected] ~]# modprobe ip_vs                 #加载ip_vs模块
[[email protected] ~]# lsmod | grep ip_vs             #查看ip_vs模块是否已加载
ip_vs                 141432  0
nf_conntrack          133053  8 ip_vs,nf_nat,nf_nat_ipv4,......
libcrc32c              12644  4 xfs,ip_vs,nf_nat,nf_conntrack
[[email protected] ~]# modprobe -r ip_vs             #移除ip_vs模块
[[email protected] ~]# lsmod | grep ip_vs
[[email protected] ~]# modprobe ip_vs
[[email protected] ~]# cat /proc/net/ip_vs            #查看ip_vs版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

6、使用ipvsadm管理工具

ipvsadm是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs模块来添加、删除服务器节点,以及查看群集的运行状态。

[[email protected] ~]# yum -y install ipvsadm               #安装ipvsadm工具
[[email protected] ~]# ipvsadm -v                                 #查看ipvsadm版本
ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)

1)使用ipvsadm工具创建虚拟服务器:

若群集的VIP地址为200.0.0.1,针对TCP 80端口提供负载分流服务,使用的调度算法为轮询(rr),则对应的命令如下,对于负载均衡调度器来说,VIP必须是本机实际已启用的IP地址:

[[email protected] ~]# ipvsadm -A -t 200.0.0.1:80 -s rr

<!--以上命令中,选项-A表示添加虚拟服务器,-t用来指定虚拟VIP地址和TCP端口,
-s用来指定负载调度算法——轮询(rr)、加权轮询(wrr)、最少连接(lc)、
加权最少连接(wlc)。
若希望使用保持连接,还需要添加“-p 60”选项,其中60为保持时间(单位为s)-->

2)添加服务器节点:

为虚拟服务器200.0.0.1添加四个服务器节点,IP地址依次为192.168.1.2~5,命令如下:

[[email protected] ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.2:80 -m -w 1
[[email protected] ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.3:80 -m -w 1
[[email protected] ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.4:80 -m -w 1
[[email protected] ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.5:80 -m -w 1
<!--以上命令中,选项-a表示添加真实服务器,-t用来指定VIP地址及TCP端口,
-r用来指定RIP(真实IP)地址及TCP端口,-m表示使用NAT群集模式
(-g DR模式和-i TUN模式),-w用来设置权重(权重为0时表示暂停节点)。-->

[[email protected] ~]# ipvsadm -ln                #查看节点状态
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  200.0.0.1:80 rr
  -> 192.168.1.2:80               Masq    1      0          0
  -> 192.168.1.3:80               Masq    1      0          0
  -> 192.168.1.4:80               Masq    1      0          0
  -> 192.168.1.5:80               Masq    1      0          0
<!--上述输出结果中,forward列下的Masq对应masquerade(地址伪装),
表示采用的群集模式为NAT,如果是Route,则表示采用的群集模式为DR。-->

3)删除服务器节点:

需要从服务器池中删除某一个节点时,使用选项-d。执行删除操作必须指定目标对象,包括节点地址,虚拟IP地址,例如,如下操作将会删除LVS群集200.0.0.1中的节点192.168.1.5。

[[email protected] ~]# ipvsadm -d -r 192.168.1.5:80 -t 200.0.0.1:80

需要删除整个虚拟服务器时,使用选项-D并指定虚拟IP即可,不需指定节点。例如执行“ipvsadm -D -t 200.0.0.1:80”,则删除此虚拟服务器。

4)保存负载分配策略:

使用导出/导入工具ipvsadm-save/ipvsadm-restore可以保存、恢复LVS策略(服务器重启后策略需要重新导入)。

[[email protected] ~]# hostname lvs         #更改主机名
<!--若主机名为默认的localhost,在导出策略时,VIP地址将会自动转为127.0.0.1,
若是这样,再次导入后,将会导致负载服务器无法正常工作。-->
[[email protected] ~]# bash                 #使更改的主机名马上生效
[[email protected] ~]# ipvsadm-save > /etc/sysconfig/ipvsadm.bak                 #保存策略
[[email protected] ~]# cat /etc/sysconfig/ipvsadm.bak                          #确认保存结果
-A -t 200.0.0.1:http -s rr
-a -t 200.0.0.1:http -r 192.168.1.2:http -m -w 1
-a -t 200.0.0.1:http -r 192.168.1.3:http -m -w 1
-a -t 200.0.0.1:http -r 192.168.1.4:http -m -w 1
[[email protected] ~]# ipvsadm -C                  #清除当前策略
[[email protected] ~]# ipvsadm -ln                  #确认当前群集策略已被清除
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[[email protected] ~]# ipvsadm-restore < /etc/sysconfig/ipvsadm.bak     #导入刚才备份的策略
[[email protected] ~]# ipvsadm -ln              #查看群集策略是否导入成功
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  200.0.0.1:80 rr
  -> 192.168.1.2:80               Masq    1      0          0
  -> 192.168.1.3:80               Masq    1      0          0
  -> 192.168.1.4:80               Masq    1      0          0         

7、搭建NFS共享存储服务器

NFS是一种基于TCP/IP传输的网络文件系统协议,通过使用NFS协议,客户机可以像访问本地目录一样访问远程服务器中的资源,对于大多数负载均衡群集来说,使用NFS协议来共享数据存储是比较常见的做法,NFS也是NAS存储设备必然支持的一种协议。

使用NFS发布共享资源:

1)安装相关软件包:

[[email protected] ~]# yum -y install nfs-utils rpcbind                 #安装所需软件包
[[email protected] ~]# systemctl enable nfs                               #设置NFS开机自启
[[email protected] ~]# systemctl enable rpcbind                       #设置rpcbind开机自启

2)设置共享目录:

[[email protected] ~]# mkdir -p /opt/wwwroot                           #创建需要共享的目录
[[email protected] ~]# vim /etc/exports                         #编辑NFS的配置文件,默认为空

/opt/wwwroot  192.168.1.0/24(rw,sync,no_root_squash)

<!--上述配置中“192.168.1.0/24”表示允许访问的客户机地址,
可以是主机名、IP地址、网段地址、允许使用*、?通配符;
权限选项中的rw表示允许读写(ro为只读),
sync表示同步写入,因为在客户机挂载该共享目录后,若向该目录中写入什么东西的话,
会先保存在自己的缓存中,而不会写入到共享目录中,加上sync则不会存在自己的缓存,
直接保存到共享目录中;
no_root_squash表示当前客户机以root身份访问时赋予本地root权限
(默认是root_squash,将作为nfsnobody用户对待),若不加no_root_squash,
可能会导致被降权,而无法进行读写(wr)-->

当需要将同一个目录共享给不同的客户机,且分配不同权限时,只要用空格分隔指定多个“客户机(权限选项)”即可。如下:

[[email protected] ~]# vim /etc/exports
/var/ftp/pub  192.168.2.1(ro,sync) 192.168.2.3(rw,sync)

3)重载NFS服务程序:

[[email protected] ~]# systemctl restart rpcbind
[[email protected] ~]# systemctl restart nfs
[[email protected] ~]# netstat -anpt | grep rpc
tcp        0      0 0.0.0.0:43759         0.0.0.0:*      LISTEN      76336/rpc.statd
tcp        0      0 0.0.0.0:111           0.0.0.0:*       LISTEN      76307/rpcbind
tcp        0      0 0.0.0.0:20048       0.0.0.0:*     LISTEN      76350/rpc.mountd
tcp6       0      0 :::111                  :::*          LISTEN      76307/rpcbind
tcp6       0      0 :::20048                :::*         LISTEN      76350/rpc.mountd
tcp6       0      0 :::38355                :::*         LISTEN      76336/rpc.statd
[[email protected] ~]# showmount -e                      #查看本机发布的NFS共享目录
Export list for localhost.localdomain:
/opt/wwwroot 192.168.1.0/24
/var/ftp/pub 192.168.2.3,192.168.2.1

4)在客户端访问NFS共享资源:

NFS协议的目标是提供一种网络文件系统,因此对NFS共享的访问也使用mount命令进行挂载,对应的文件系统类型为nfs,既可以手动挂载,也可以加入fstab配置文件来实现开机自动挂载,考虑到群集系统中的网络稳定性,NFS服务器与客户机之间最好使用专有网络进行连接。

1.安装rpcbind软件包,并启动rpcbind服务,为了使用showmount查询工具,所以将nfs-utils也一起装上:

[[email protected] ~]# yum -y install nfs-utils rpcbind
[[email protected] ~]# systemctl enable rpcbind
[[email protected] ~]# systemctl start rpcbind

2.查询NFS服务器端共享了哪些目录:

[[email protected] ~]# showmount -e 192.168.1.1               #需指定要查询的服务器地址
Export list for 192.168.1.1:
/opt/wwwroot 192.168.1.0/24
/var/ftp/pub 192.168.2.3,192.168.2.1

3.手动挂载NFS共享目录,并设置开机自动挂载:

[[email protected] ~]# mount 192.168.1.1:/opt/wwwroot /var/www/html      #挂载到本地
[[email protected] ~]# df -hT /var/www/html                     #查看是否挂载成功
文件系统                 类型  容量  已用  可用 已用% 挂载点
192.168.1.1:/opt/wwwroot nfs4   17G  6.2G   11G   37% /var/www/html
[[email protected] ~]# vim /etc/fstab                #设置自动挂载
                 .........................
192.168.1.1:/opt/wwwroot    /var/www/html     nfs     defaults,_netdev    0    0
<!--文件系统为nfs,挂载参数添加_netdev(设备需要网络)-->

完成挂载后,访问客户机的/var/www/html文件夹,就相当于访问NFS服务器中的/opt/wwwroot文件夹,其中网络映射过程对于用户程序来说是完全透明的。

原文地址:https://blog.51cto.com/14154700/2415159

时间: 2024-10-02 22:40:41

LVS负载均衡群集详解的相关文章

LVS 负载均衡群集详解、地址转换模式(LVS-NAT)案例详解

前言 · Linux Virtual Server (LVS)是针对 Linux 内核开发的一个负载均衡项目,是由我国章文嵩博士在 98 年 5月创建.· LVS 实际上相当于基于 IP 地址的虚拟化应用,为基于 IP 地址和内容请求分发的负载均衡提出了一种搞笑的解决办法.·LVS 现在已称为 Linux 内核的一部分,默认编译为 ip_vs 模块,必要时能够自动调用 群集的类型 1· 负载均衡群集·以提高应用系统的响应能力.尽可能处理更多的访问请求.减少延迟为目标,获得高并发.高负载(LB)的

LVS负载均衡使用详解

一.基本概览介绍 二.LVS的类型及原理 三.LVS调度算法 四.利用DR及NAT实现web负载均衡 一.基本概览介绍 LVS是一个工作在传输层面上的一个负载均衡软件,它是由用户空间的ipvsadm和内核空间的ipvs两个组件组成.其中ipvsadm是用户空间的命令行工具,主要是用于管理集群服务及集群服务上的RS.ipvs是工作与内核上的netfilter的INPUT链上的程序,可以根据用户事先定义的集群实现转发. 二.LVS的类型及原理 LVS的类型可以分为:NAT.DR.TUN.FULLNA

Centos 7基于DR(直接路由)模式的负载均衡配置详解

DR(直接路由)是三种负载均衡模式其中之一,也是使用最多的一种模式,关于该模式的介绍,可以参考博文:LVS负载均衡群集详解. DR的工作模式示意图如下: 该模式的原理已经在上面链接的博文中写了下来.现在直接搭建一个基于DR模式的负载均衡群集. 环境如下: 在上面这个环境中,需要解决的问题有下面几点: 1.所有web节点和调度器都配置上VIP:客户端访问VIP(群集的虚拟IP地址)时,若是 调度器将请求转发给web节点,然后由web节点直接去响应客户端,那么客户端在收到 数据包后,发现收到的数据包

LVS负载均衡群集之构建NAT模式,可跟做!!!

有关于LVS负载均衡群集的相关概念可以参考博文:LVS负载均衡群集详解 一.案例概述 LVS负载均衡模式-NAT模式:NAT用法本来是因为网络IP地址不足而把内部保留IP地址通过映射转换成公网地址的一种上网方式(源地址NAT).如果把NAT的过程稍微变化,就可以 成为负载均衡的一种方式.原理其实就是把从客户端发来的IP包的IP头目的地址在DIR上换成其中一台Web节点服务器的IP地址并发至此Web节点服务器,而Web节点服务器则在处理完成后把数据经过DIR主机发回给客户端,DIR在这个时候再把数

LVS负载均衡群集之构建DR模式,可跟做!!!

有关于LVS负载均衡群集的相关概念可以参考博文:LVS负载均衡群集详解 一.案例概述 LVS负载均衡模式-DR模式:lvs负载调度器作为群集的访问入口,但不作为网关使用,服务器池中的所有节点都各自接入internet,发送给客户机(互联网)的web响应数据包不需要经过lvs负载调度器. LVS负载均衡模式-DR模式:优点:负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户.所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为 超过100台的物理服务器服务,负载

LVS负载均衡群集(三种工作模式原理详解)

LVS负载均衡群集(三种工作模式原理详解) 一.前言 ? 在互联网应用中,随着站点对硬件性能.响应速度.服务稳定性.数据可靠性等要求越来越高,单台服务器力不从心.所以我们需要通过一些方法来解决这样的瓶颈. ? 最简单的方法就是使用价格昂贵的大.小型的主机:但这样在大多数企业中显然是不可取或者说不现实的.那么我们就需要通过多个普通服务器构建服务器群集. 二.相关概念概述 2.1何为LVS? ? LVS--Linux Virtual Server,即Linux虚拟服务器(虚拟主机.共享主机),虚拟主

LVS负载均衡群集之DR模式+keepalived群集机构(理论+实践篇)

LVS-DR数据包流向分析 为方便进行原理分析,将Client与群集机器放在同一网络中,数据包流经的路线为1-2-3-4 Client向目标VIP发出请求, Director (负载均衡器)接收 Director根据负载均衡算法选择RealServer 1,不修改也不封装IP报文,而是将数据帧的MAC地址改为RealServer 1的MAC地址,然后在局域网上发送. RealServer_ _1收到这个帧,解封装后发现目标IP与本.机匹配(RealServer事先绑定 了VIP),于是处理这个报

Nginx的负载均衡方案详解

Nginx的负载均衡方案详解 作者:chszs,转载需注明.博客主页:http://blog.csdn.net/chszs Nginx的负载均衡方案有: 1.轮询 轮询即Round Robin,根据Nginx配置文件中的顺序,依次把客户端的Web请求分发到不同的后端服务器. 配置的例子如下: http{ upstream sampleapp { server <<dns entry or IP Address(optional with port)>>; server <&l

LVS负载均衡群集基础(一)

LVS负载均衡群集(一) 1.      群集(或集群)的称呼来自于英文单词"Cluster",用在服务器的领域表示大量的服务器集合,以便与区分单个服务器. 2.      群集的类型: (1)      负载均衡群集(load balance cluster):提高系统的响应能力,尽可能的处理更多的访问请求等,获得高并发,高负载的整体性能.例如应用于:"DNS轮询"."反向代理"等. (2)      高可用群集(high availabili