LVS详解及基于LVS实现web服务器负载均衡

前言

LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能、高可用的服务器群集,从而以低成本实现最优的服务性能。

集群基础

集群简介

集群(Cluster)是一组相互独立的、通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理。一个客户与集群相互作用时,集群像是一个独立的服务器。集群配置是用于提高可用性和可缩放性。集群系统的主要优点:高可扩展性、高可用性、高性能、高性价比。

集群类型

LB:Load Balancing 高可拓展,伸缩集群

HA:High Availability 高可用集群

HP:High Performance 高性能集群

集群方案

LB:

硬件级:F5 BIG-IP、Citrix Netscaler、 A10 A10、Array、Redware

软件级:lvs (传输层)、haproxy, nginx (应用层)

HA:

heartbeat 、corosync + pacemaker、 cman + rgmanager、cman + pacemaker、keepalived

HP:

hadoop

LVS详解

LVS组成

ipvsadm:用于管理集群服务的命令行工具,工作于Linux系统中的用户空间。

ipvs:为lvs提供服务的内核模块,工作于内核空间

LVS术语

VIP:Director用来向外部提供服务的IP地址,也就是DNS通过域名解析到的IP

RIP:集群节点(后台真正提供服务的服务器)所使用的IP地址

DIP:Director用来和RIP进行交互的IP地址

CIP:客户端使用的IP或公网IP

RS:集群节点服务器Real server

LVS类型

LVS-NAT:Network Address Translation 网络地址转换

LVS-DR:Direct Routing 直连路由

LVS-TUN:Tunneling 隧道

LVS各类型特性

NAT类型的特性:

①RS应用使用私有地址,RS的网关必须指向DIP

②请求和响应都要经过Director,高负载场景中,Director易成为性能瓶颈

③支持端口映射

④RS可以使用任意OS

DR类型的特性:

①保证前端路由将目标地址为VIP的报文统统发往Directory,而不能是RS

解决方案:

(1) 静态地址绑定:在前端路由器上操作

前提:必须要有路由操作权限

(2) aprtables

(3) 修改RS上内核参数,将RS上的VIP配置在lo接口的别名上,并限制其不能响应对VIP地址解析请求

②RS可以使用私有地址,但也可以使用公网地址,此时可通过互联网通过RIP对其直接访问

③RS跟Directory必须在同一物理网络中

④请求报文经由Director,但响应报文必须不能经过Director

⑤不支持端口映射

⑥RS可以是大多数常见的OS

⑦RS的网关绝不允许指向DIP

TUN类型的特性:

①RIP、VIP、DIP全部是公网地址

②RS的网关不会也不可能指向DIP

③请求报文经由Director,但响应报文必须不能经过Director

④不支持端口映射

⑤RS的OS必须支持隧道功能

LVS调度算法

静态方法:仅根据调度算法本身进行调度

rr: round robin,轮流,轮询,轮叫
wrr: weighted round robin, 加权轮询
sh:source hashing,session绑定
dh: destination hashing, 目标地址hash

动态方法:根据算法及各RS当前的负载状况进行调度

lc: least connection,最少连接
wlc: weighted lc,加权最少连接
sed: shortest expection delay,最少期望延迟
nq: never queue,永不排队
lblc: Locality-Based Least Connection,基于局部性的最少连接
lblcr:Replicated lblc,基于局部性的带复制功能的最少连接

LVS配置(ipvsadm)

命令格式

ipvsadm -A|E -t|u|f service-address [-s scheduler]
              [-p [timeout]] [-M netmask]
      ipvsadm -D -t|u|f service-address
      ipvsadm -C
      ipvsadm -R
      ipvsadm -S [-n]
      ipvsadm -a|e -t|u|f service-address -r server-address
              [-g|i|m] [-w weight] [-x upper] [-y lower]
      ipvsadm -d -t|u|f service-address -r server-address
      ipvsadm -L|l [options]
      ipvsadm -Z [-t|u|f service-address]
      ipvsadm --set tcp tcpfin udp
      ipvsadm --start-daemon state [--mcast-interface interface]
              [--syncid syncid]
      ipvsadm --stop-daemon state
      ipvsadm -h

命令详解

定义集群服务:
-A 添加一个集群服务
-D 删除一个集群服务 
-E 修改一个集群服务
-t VIP:端口 定义集群服务的类型为TCP的某个端口
-u VIP:端口 定义集群服务的类型为UDP的某个端口
-f 防火墙标记 定义集群服务的类型为防火墙标记
-s 调度算法 指定集群服务的调度算法 
定义集群节点:
-a 添加一个节点到集群服务
-d 从集群服务中删除一个节点
-e 修改集群服务器中的节点
-r 节点IP:端口  定义节点的IP及类型
-m 定义为NAT模型
-g 定义为DR模型
-i 定义为TUN模型
-w 权重 定义服务器的权重
查看已经定义的集群服务及RS:
ipvsadm -L -n
    -c: 查看各连接
    --stats: 统计数据
    --rate: 速率
    --exact: 精确值
从集群服务中删除RS:
ipvsadm -d -t|u|f service-address -r server-address
删除集群服务:
ipvsadm -D -t|u|f service-address
清空所有的集群服务:
ipvsadm -C 
保存集群服务定义:
ipvsadm -S > /path/to/some_rule_file
ipvsadm-save > /path/to/some_rule_file
让规则文件中的规则生效:
ipvsadm -R < /path/from/some_rule_file
ipvsadm-restore < /path/from/some_rule_file

LVS-NAT模型

配置过程

#以下实验都是临时性配置,若要永久生效,请自行配置
Real Server 1
#ifconfig eth0 172.16.10.100/16 up
#route add default gw 172.16.10.12
Real Server 2
#ifconfig eth0 172.16.10.212/16 up
#route add default gw 172.16.10.12
Director Server
#ifconfig eth0 192.168.1.10/24 up
#ifconfig eth1 172.16.10.12/16 up
#yum -y install ipvsadm 
#echo 1 > /proc/sys/net/ipv4/ip_forward
#ipvsadm -A -t 192.168.1.10:80 -s rr
#ipvsadm -a -t 192.168.1.10:80 -r 172.16.10.100 -m 
#ipvsadm -a -t 192.168.1.10:80 -r 172.16.10.212 -m

LVS-DR模型

上面说了NAT模型的实现方式,但NAT模型有个缺陷,因为进出的每个数据包都要经过Director Server,当集群系统负载过大的时候Director Server将会成为整个集群系统的瓶颈,而DR模型就避免了这样的情况发生,DR模型在只有请求的时候才会经过Director Server, 回应的数据包由Real Server 直接响应用户不需要经过Director Server。

配置过程

内核参数:
arp_ignore: 定义接收到ARP请求时的响应级别
0:只要本地配置的有相应地址,就给予响应
1:仅在请求的目标地址配置请求到达的接口上的时候,才给予响应
arp_announce:定义将自己地址向外通告时的通告级别
0:将本地任何接口上的任何地址向外通告
1:试图仅向目标网络通告与其网络匹配的地址
2:仅向与本地接口上地址匹配的网络进行通告
Real Server 1
#ifconfig eth0 172.16.10.100/16 up
#echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore
#echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
#echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce
#ifconfig lo:0 192.168.1.10 netmask 255.255.255.255 broadcast 192.168.1.10 up
#route add -host 192.168.1.10 dev lo:0
Real Server 2
#ifconfig eth0 172.16.10.212/16 up
#echo 1 > /proc/sys/net/ipv4/conf/eth0/arp_ignore
#echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
#echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#echo 2 > /proc/sys/net/ipv4/conf/eth0/arp_announce
#ifconfig lo:0 192.168.1.10 netmask 255.255.255.255 broadcast 192.168.1.10 up
#route add -host 192.168.1.10 dev lo:0
Director Server
#ifconfig eth0 172.16.10.12/16 up
#ifconfig eth0:0 192.168.1.10 netmask 255.255.255.255 broadcast 192.168.1.10 up
#echo 1 > /proc/sys/net/ipv4/ip_forward
#route add -host 192.168.1.10 dev eth0:0
#yum install ipvsadm -y
#ipvsadm -A -t 192.168.1.10:80 -s rr
#ipvsadm -a -t 192.168.1.10:80 -r 172.16.10.100 -g 
#ipvsadm -a -t 192.168.1.10:80 -r 172.16.10.212 -g

基于LVS实现web服务器负载均衡

实验拓扑

环境介绍

系统环境:CentOS6.6

Director Server:192.168.1.10(VIP) 172.16.10.12(DIP)

Real Server 1:192.168.1.10(VIP) 172.16.10.100(RIP )

Real Server 2:192.168.1.10(VIP) 172.16.10.212(RIP )

PHP服务器:172.16.10.110

NFS服务器:172.16.10.110

数据库服务器:172.16.10.211

要求:web服务器上部署discuz,基于LVS实现负载均衡

NFS服务器配置

创建共享目录,并设置权限

编辑配置文件,设置共享目录及客户端

[[email protected] ~]# vim /etc/exports 

/web/discuz     172.16.10.100(rw,sync) 172.16.10.212(rw,sync)

站点文件准备

[[email protected] ~]# unzip Discuz_7.2_FULL_SC_GBK.zip
[[email protected] ~]# chmod -R 777 upload 
[[email protected] ~]# mv upload/* /web/discuz/
[[email protected] ~]# chown -R apache.apache /web/discuz

启动服务,设置开机自启

数据库服务器配置

RS1和RS2配置

配置VIP

配置虚拟主机

[[email protected] ~]# vim /etc/httpd24/extra/httpd-vhosts.conf 

<VirtualHost *:80>
    DocumentRoot "/web/discuz"
    ProxyRequests Off
    ProxyPassMatch ^/(.*\.php)$ fcgi://172.16.10.110:9000/web/discuz/$1
</VirtualHost>

挂载共享目录

#可设置开机自动挂载
[[email protected] ~]# vim /etc/fstab 
 
172.16.10.110:/web/discuz  /web/discuz             nfs     defaults,_netdev 0 0

检查语法,启动服务

Director Server配置

配置VIP

定义集群

安装测试及访问测试

安装完成,我们来发一个帖子测试一下

过一会儿,刷新一下页面

此过程中是否实现了负载均衡,我们在Director Server上查看一下是哪台服务器响应的请求就知道了

由此可见,基于LVS实现web服务器的负载均衡功能已完成

The end

OK,基于LVS的负载均衡就说到这里了,负载均衡集群的配置还是比较简单的,几条命令就搞定了,不要因为简单看一眼就略过,只有理解原理结合实践才能真正掌握知识,配置过程中遇到问题可留言呦。以上仅为个人学习整理,如有错漏,大神勿喷~~~

时间: 2024-10-27 11:05:26

LVS详解及基于LVS实现web服务器负载均衡的相关文章

LAMP平台基于NFS实现web服务器负载均衡

前言 随着访问量的逐渐增大,一台web服务器可能已经无法满足需求,这就需要增加web服务器的数量了,于是问题就来了:如何保证两台服务器数据同步呢?本文将讲解如何基于NFS实现web服务器的负载均衡及数据同步. NFS服务介绍 NFS(Network File System)网络文件系统,允许一个系统通过网络共享目录和文件,通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件.NFS本身没有提供数据传输的功能,必须借助于远程过程调用(RPC)协议来实现数据的传输. 配置文件 NFS

公司网络web服务器负载均衡解决方案

公司网络web服务器负载均衡解决方案 随着公司产品业务的推广发展壮大,对服务器的硬件性能.相应速度.服务稳定性.数据可靠性的要求越来越高.今后服务器的负载将难以承受所有的访问.从公司的实际情况,运营成本网络安全性考虑,排除使用价格昂贵的大型服务器.以及部署价格高昂的专用负载均衡设备. DNS轮询负载均衡解决方案虽然成本低廉但是安全性能不是很好,加上公司产品的特殊性需要用户验证的体系,在会话保持方面是一大缺陷,会话保持,如果是需要身份验证的网站,在不修改软件构架的情况下,这点是比较致命的,因为DN

HAProxy+Keepalived实现Web服务器负载均衡

2014年03月31日  HAProxy  暂无评论  被围观 12,941次+ 说明: 操作系统:CentOS 5.X 64位 Web服务器:192.168.21.127.192.168.21.128 站点:bbs.osyunwei.com和sns.osyunwei.com部署在两台Web服务器上 实现目的: 增加两台服务器(主主模式),通过HAProxy+Keepalived实现Web服务器负载均衡 架构规划: HAProxy服务器:192.168.21.129.192.168.21.130

LVS详解及基于DR模型的案例

LVS简介 LVS(Linux Virtual Server),即Linux上虚拟的服务器集群系统.其实LVS就是一个前端的负载调度器,它在软件层次上实现了负载均衡,将接收到的请求均衡地转移至多个不同的服务器上运行,用较低的成本实现了将一组服务器构建成高性能.高可用的服务器集群. LVS由两部分组成ipvsadm和ipvs,ipvsadm工作于用户空间,用于编写集群服务.ipvs工作于内核空间.ipvsadm编写的集群服务交由ipvs来具体实现.ipvs是基于netfilter实现的,它工作在i

分别使用Nginx反向代理和Haproxy调度器实现web服务器负载均衡

1.1 使用nginx实现静态分离得负载均衡集群 1.1.1 Nginx负载均衡基础知识 本实验使用的主机是: 主机 IP地址 角色 centos23.cn 192.168.3.23 Nginx反向代理服务器 centos24.cn 192.168.3.24 web服务器 centos25.cn 192.168.3.25 web服务器 网络拓扑图: Nginx的upstream负载的5种方式,目前最常用得前3种方式 1.轮询(默认) 每个请求按时间顺序逐一分配到不同得后端服务器,如果后端服务器d

web服务器负载均衡与集群基本概念二

前面已经说过负载均衡的作用是在多个节点之间按照一定的策略(算法)分发网络或计算处理负载.负载均衡可以采用软件和硬件来实现.一般的框架结构可以参考下图.    后台的多个Web节点上面有相同的Web应用,用户的访问请求首先进入负载均衡分配节点(可能是软件或者硬件),由它根据负载均衡策略(算法)合理地分配给某个Web应用节点.每个Web节点相同的内容做起来不难,所以选择负载均衡策略(算法)是个关键问题.下面会专门介绍均衡算法. web负载均衡的作用就是把请求均匀的分配给各个节点,它是一种动态均衡,通

Web服务器负载均衡的几种方案 : DNS轮询

本篇主要讲一下最简单的方案——DNS轮询. DNS轮询 大多域名注册商都支持多条A记录 的解析,其实这就是DNS轮询 ,DNS 服务器 将解析请求按照A记录 的顺序,逐一分配到不同的IP上,这样就完成了简单的负载均衡 . 优点 基本上无成本,因为往往域名注册商的这种解析都是免费的: 部署方便,除了网络拓扑的简单扩增,新增的Web服务器只要增加一个公网IP即可. 缺点 健康检查,如果某台服务器宕机,DNS服务器是无法知晓的,仍旧会将访问分配到此服务器.修改DNS记录全部生效起码要3-4小时,甚至更

nginx配置详解-url重写、反向代理、负载均衡

应用层的负载均衡nginx请求的连接方式epoll 是Linux下多路复用IO接口select/poll的增强版本 select 遍历epoll无需遍历 1.nginx安装(未安装邮件服务器模块) ./configure --help查看编译选项 配置文件中路径没加/以prefix指定的路径开始./configure \--prefix=/usr \--sbin-path=/usr/sbin/nginx \--conf-path=/etc/nginx/nginx.conf \--error-lo

VRRP原理详解&amp;实例说明实现路由设备的负载均衡

VRRP概述:#VRRP(Virtual Router Redundancy Protocol)虚拟路由冗余协议,容错协议,它通过把几台路由设备联合组成一台虚拟的路由设备,并通过一定的机制来保证当主机的下一跳设备出现故障时 ,可以及时将业务切换到其它设备,从而保持通讯的连续性和可靠性.VRRP的工作原理 #VRRP(虚拟路由冗余协议):通过把几台路由设备联合组成一台虚拟路由设备,将虚拟路由设备的ip地址作为用户的默认网关地址实现与外部的通讯.当网关设备发生故障时,VRRP协议能够快速选举新的网关