81-linux cluster : lvs

一. Linux Cluster:

Cluster:计算机集合,为解决某个特定问题组合起来形成的单个系统;

Linux Cluster类型:

LB:Load Balancing,负载均衡;

HA:High Availiablity,高可用;

A=MTBF无故障运行时长/(MTBF无故障运行时长+MTTR故障时间)

衡量指数: (0,1):90%, 95%, 99%, 99.5%,  99.9%, 99.99%, 99.999%

HP:High Performance,高性能;

系统扩展方式:

Scale UP:向上扩展

Scale Out:向外扩展

二. LB  Cluster:

LB Cluster的实现:

硬件:

F5 Big-IP

Citrix Netscaler

A10 A10

软件:

lvs:Linux Virtual Server

nginx

haproxy

ats:apache traffic server (流量调度器)

perlbal

pound

基于工作的协议层次划分:

传输层(通用解决方案):(DPORT)

lvs:未涉及套接字,仅在内核中直接转发报文

nginx:(stream)利用隧道机制,监听在指定端口,并分发流量,最多也仅支持65534个监听套接字

haproxy:(mode tcp)

应用层(专用解决方案):(自定义的请求模型分类)

proxy sferver:

http:nginx, httpd, haproxy(mode http), ...

fastcgi:nginx, httpd, ...

mysql:mysql-proxy, ...

..

站点指标:

PV:Page View

UV:Unique Vistor

IP:独立IP访问量

会话保持:

(1) session sticky

Source IP

Cookie

(2) session replication;

session cluster

(3) session server

注意: 集群中,全部主机的时间必须一致! 否则会出错,因此建议使用同一的时间服务器

vim /etc/chrony.conf:

在开头部分的server pool 中,注释其他时间服务器,添加指定的时间服务器:

server 10.1.0.1 iburst

保存后,重启chronyd.service

三. lvs 简介

1.

lvs:Linux Virtual Server

VS: Virtual Server

RS: Real Server

工作机制--l4:四层路由器,四层交换机;

VS:根据请求报文的目标IP和目标协议及端口将其调度转发至某RealServer,

根据调度算法来挑选RS;

lvs机制类比:

iptables/netfilter:

iptables:用户空间的管理工具;

netfilter:内核空间上的框架;

流入:PREROUTING --> INPUT

流出:OUTPUT --> POSTROUTING

转发:PREROUTING --> FORWARD --> POSTROUTING

DNAT:目标地址转换; PREROUTING;

2. lvs: ipvsadm/ipvs

ipvsadm:用户空间的命令行工具,规则管理器,用于管理集群服务及RealServer;

ipvs:工作于内核空间的netfilter的INPUT钩子之上的框架;

3. lvs集群类型中的术语:

vs:Virtual Server, Director, Dispatcher, Balancer

rs:Real Server, upstream server, backend server

CIP:Client IP,    VIP: Virtual serve IP,   RIP: Real server IP,    DIP: Director IP

4.   数据报文流向:

CIP <--> VIP == DIP <--> RIP

四. lvs 集群类型详解

1. lvs集群的类型:

lvs-nat:修改请求报文的目标IP

lvs-dr:操纵封装新的MAC地址;

lvs-tun:在原请求IP报文之外新加一个IP首部;

lvs-fullnat:修改请求报文的源和目标IP;

2. lvs-nat:

多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的

RIP和PORT实现转发;

拓扑示意图:

(1)RIP和DIP必须在同一个IP网络,且应该使用私网地址;RS的网关要指向DIP;

(2)请求报文和响应报文都必须经由Director转发;Director易于成为系统瓶颈;

(3)支持端口映射,可修改请求报文的目标PORT;

(4)vs必须是Linux系统,rs可以是任意系统;

3. lvs-dr:

Direct Routing,直接路由;

通过为请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的

MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;

源IP/PORT,以及目标IP/PORT均保持不变;

(此时,RS物理网卡地址为RIP, lo 网卡地址设置为VIP)

vip与dip/rip不在同一网段的实现拓扑:

数据报文流向:

client -->router-->sw-->DIrector-->RS--->sw-->router-->client

Director和各RS都得配置使用VIP;

(1) 确保前端路由器将目标IP为VIP的请求报文发往Director:

实现方法:

(a) 在前端网关做静态绑定;

(b) 在RS上使用arptables;

(c) 在RS上修改内核参数以限制arp通告及应答级别;

arp_announce

arp_ignore

(2) RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;

RIP的网关不能指向DIP,以确保响应报文不会经由Director;

(3) RS跟Director要在同一个物理网络;

(4) 请求报文要经由Director,但响应不能经由Director,而是由RS直接发往

Client;

RS的响应报文,可以用原路由返回client,也可以从其他网关返回至client

(注意: 路由转发报文时候,只关注目标IP,忽略源IP,因此RIP,VIP均不影响

响应报文发送)

(5) 不支持端口映射;

4.lvs-tun:

转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原IP报

文之外再封装一个IP首部(源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;

(1) DIP, VIP, RIP都应该是公网地址;

(2) RS的网关不能,也不可能指向DIP;

(3) 请求报文要经由Director,但响应不能经由Director;

(4) 不支持端口映射;

(5) RS的OS得支持隧道功能;

5.lvs-fullnat:

通过同时修改请求报文的源IP地址和目标IP地址进行转发;

CIP --> DIP

VIP --> RIP

(1) VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;

因此,RIP的网关一般不会指向DIP;

(2) RS收到的请求报文源地址是DIP,因此,只需响应给DIP;

但Director还要将其发往Client;

(3) 请求和响应报文都经由Director;

(4) 支持端口映射;

注意:此类型默认不支持;

-------------------------------------------------------------------------------------------------

回顾:

lvs类型:

lvs-nat:通过修改请求报文的目标IP地址完成调度并转发;请求和响应报文都经由Director;

lvs-dr:通过直接封装新的MAC首部完成调度并转发;仅请求报文经由Director;

lvs-tun:通过在原IP报文首部之外新封装一个IP首部完成调度并转发;仅请求报文经由Director;

lvs-fullnat:通过修改请求报文的目标IP地址和源IP地址完成调度并转发;请求和响应报文都经由Director;

会话保持:

session sticky, session replication, session server;

lvs:

ipvsadm/ipvs

------------------------------------------------------------------------------------------------

五.调度算法:

ipvs scheduler:

根据其调度时是否考虑各RS当前的负载状态,可分为静态方法和动态方法两种:

静态方法:仅根据算法本身进行调度;

RR:roundrobin,轮询;

WRR:Weighted RR,加权轮询;

SH:Source Hashing,实现session sticy,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定;

DH:Destination Hashing;目标地址哈希,将发往同一个目标地址的请求始终转发至第一次挑中的RS;

动态方法:主要根据每RS当前的负载状态及调度算法进行调度;

Overhead=

LC:least connections

Overhead=activeconns*256+inactiveconns

WLC:Weighted LC

Overhead=(activeconns*256+inactiveconns)/weight

SED:Shortest Expection Delay

Overhead=(activeconns+1)*256/weight

NQ:Never Queue

LBLC:Locality-Based LC,动态的DH算法;

LBLCR:LBLC with Replication,带复制功能的LBLC;

六.ipvsadm/ipvs

ipvsadm/ipvs:

1. ipvs:内核集成的报文处理模块

~]# grep -i -C 10 "ipvs" /boot/config-3.10.0-327.el7.x86_64

支持的协议:TCP, UDP, AH, ESP, AH_ESP, SCTP;

ipvs集群:

集群服务

服务上的RS

2. ipvsadm命令:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask] [--pe persistence_engine] [-b sched-flags]

ipvsadm -D -t|u|f service-address

ipvsadm -C

ipvsadm -R

ipvsadm -S [-n]

ipvsadm -a|e -t|u|f service-address -r server-address [options]

ipvsadm -d -t|u|f service-address -r server-address

ipvsadm -L|l [options]

ipvsadm -Z [-t|u|f service-address]

管理集群服务:增、改、删;

增、改:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

删:

ipvsadm -D -t|u|f service-address

service-address:

-t|u|f:

-t: TCP协议的端口,VIP:TCP_PORT

-u: TCP协议的端口,VIP:UDP_PORT

-f:firewall MARK,是一个数字;

[-s scheduler]:指定集群的调度算法,默认为wlc;

管理集群上的RS:增、改、删;

增、改:

ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]

删:

ipvsadm -d -t|u|f service-address -r server-address

server-address:

rip[:port]

选项:

lvs类型:

-g: gateway, dr类型

-i: ipip, tun类型

-m: masquerade, nat类型

-w weight:权重;

清空定义的所有内容:

ipvsadm -C

查看:

ipvsadm -L|l [options]

--numeric, -n:numeric output of addresses and ports

--exact:expand numbers (display exact values)

--connection, -c:output of current IPVS connections

--stats:output of statistics information

--rate :output of rate information

保存和重载:

ipvsadm -S = ipvsadm-save

ipvsadm -R = ipvsadm-restore

保存:建议保存至/etc/sysconfig/ipvsadm

ipvsadm-save > /PATH/TO/IPVSADM_FILE

ipvsadm -S > /PATH/TO/IPVSADM_FILE

systemctl stop ipvsadm.service

重载:

ipvsadm-restore < /PATH/FROM/IPVSADM_FILE

ipvsadm -R < /PATH/FROM/IPVSADM_FILE

systemctl restart ipvsadm.service

七. lvs --nat  模型实例

1.   负载均衡集群的设计要点:

(1) 是否需要会话保持;

(2) 是否需要共享存储;

共享存储:NAS, SAN, DS(分布式存储)

数据同步:

课外作业:rsync+inotify实现数据同步

2. lvs-nat:

设计要点:

(1) RIP与DIP在同一IP网络, RIP的网关要指向DIP;

(2) 支持端口映射;

八. lvs-dr 模式实例

lvs-dr:

1. dr模型中,各主机上均需要配置VIP,解决地址冲突的方式有三种:

(1) 在前端网关做静态绑定;

(2) 在各RS使用arptables;

(3) 在各RS修改内核参数,来限制arp响应和通告的级别;

限制响应级别:arp_ignore

0:默认值,表示可使用本地任意接口上配置的任意地址进行响应;

1: 仅在请求的目标IP配置在本地主机的接收到请求报文接口上时,

才给予响应;

限制通告级别:arp_announce

0:默认值,把本机上的所有接口的所有信息向每个接口上的网络进

行通告;

1:尽量避免向非直接连接网络进行通告;

2:必须避免向非本网络通告;

2.  RS的预配置脚本:

#!/bin/bash

#

vip=10.1.0.5

mask=‘255.255.255.255‘

case $1 in

start)

echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore

echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore

echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce

echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce

ifconfig lo:0 $vip netmask $mask broadcast $vip up

route add -host $vip dev lo:0

;;

stop)

ifconfig lo:0 down

echo 0 > /proc/sys/net/ipv4/conf/all/arp_ignore

echo 0 > /proc/sys/net/ipv4/conf/lo/arp_ignore

echo 0 > /proc/sys/net/ipv4/conf/all/arp_announce

echo 0 > /proc/sys/net/ipv4/conf/lo/arp_announce

;;

*)

echo "Usage $(basename $0) start|stop"

exit 1

;;

esac

3.  VS的配置脚本:

#!/bin/bash

#

vip=‘10.1.0.5‘

iface=‘eno16777736:0‘

mask=‘255.255.255.255‘

port=‘80‘

rs1=‘10.1.0.7‘

rs2=‘10.1.0.8‘

scheduler=‘wrr‘

type=‘-g‘

case $1 in

start)

ifconfig $iface $vip netmask $mask broadcast $vip up

iptables -F

ipvsadm -A -t ${vip}:${port} -s $scheduler

ipvsadm -a -t ${vip}:${port} -r ${rs1} $type -w 1

ipvsadm -a -t ${vip}:${port} -r ${rs2} $type -w 1

;;

stop)

ipvsadm -C

ifconfig $iface down

;;

*)

echo "Usage $(basename $0) start|stop"

exit 1

;;

esac

九.FWM:FireWall Mark

1. fwm: 借助于防火墙标记来分类报文,而后基于标记定义集群服务;可将多个不同的应用使

用同一个集群服务进行调度;

2. 打标记方法(在Director主机):

# iptables -t mangle -A PREROUTING -d $vip -p $proto --dport $port -j MARK

--set-mark NUMBER

3. 基于标记定义集群服务:

# ipvsadm -A -f NUMBER [options]

十. lvs persistence

lvs persistence:持久连接  (用于session 绑定)

持久连接模板:实现无论使用任何算法,在一段时间内,实现将来自同一个地址的请求始终

发往同一个RS;

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

5. port Affinity:

每端口持久:每集群服务单独定义,并定义其持久性;

每防火墙标记持久:基于防火墙标记定义持久的集群服务;可实现将多个端口上的应用

统一调度,即所谓的port Affinity;

每客户端持久:基于0端口定义集群服务,即将客户端对所有应用的请求统统调度至后

端主机,而且可使用持久连接进行绑定;

考虑:

(1) Director不可用,整个系统将不可用;SPoF

解决方案:高可用

keepalived

heartbeat/corosync

(2) 某RS不可用时,Director依然会调度请求至此RS;

解决方案:对各RS的健康状态做检查,失败时禁用,成功时启用;

keepalived

heartbeat/corosync, ldirectord

检测方式:

(a) 网络层检测;

(b) 传输层检测,端口探测;

(c) 应用层检测,请求某关键资源;

ok --> failure

failure --> ok

时间: 2024-08-04 04:43:42

81-linux cluster : lvs的相关文章

linux cluster LB集群之LVS

Linux Cluster 类型分类: 负载均衡集群:Load balancing 高可用集群:High Avaiability 高性能集群:High Performance 及分布式系统 LB:LB的实现是在提供相同服务的多台服务器之前添加调度器即负载均衡集群 工作协议层来划分: tcp:根据请求报文中的目标地址和端口进行调度: 应用层:根据请求的内容进行调度,而且此种调度为"代理"方式: lvs: Linux Virtual Server,虚拟服务, 由章文嵩研发工作于layer4

概念.linux Cluster

Linux Cluster:linux 集群 (或成为分布式系统) Cluster:计算机集合.为解决某个特定问题组合起来: 系统扩展的方式: Scale Up:向上扩展:更好的硬件 Scale Out:向外扩展: 更多的机器 Linux Cluster类型: LB:Load Balancing,负载均衡: SPoF(单点故障), 瓶径 HA:High Availiablity, 高可用: A=MTBF/(MTBF+MTTR) 平均无故障时间/(平均无故障时间+平均修复时间) (0,1), 90

Linux Cluster

http://www.geekpeek.net/linux-cluster-corosync-pacemaker/ Linux Cluster Part 1 – Install Corosync and Pacemaker on CentOS 6 I have been using Linux Cluster Engine called Corosync and Linux Cluster Resource Manager called Pacemaker for a while now and

linux Cluster Basic

摘要 一.集群概述 为什么需要集群?来源是系统扩展的需求,而系统扩展自身能力有2种方式:Scale UP,即使用性能更好的计算机来满足,例如使用更好的固态硬盘等等,但是这种方式扩展性和上限较低,因此还有另外一种方式Scale OUT,即水平扩展,利用多台主机来解决问题. 集群是什么?由多个独立的主机(可以是物理机,也可以是虚拟机)组织起来解决一个特定问题,这种组织的方式就称为集群.而集群大体上有以下几种类型: LB: Load Blancing 负载均衡,负载均衡类型的集群往往有一个上游的调度器

Linux Cluster(二)

LVS-dr ============================================================================ 概述: ============================================================================ ipvs-dr类型的实现 ipvs-dr设计要点: ★dr模型中,各主机上均需要配置VIP,解决地址冲突的方式有三种: (1)在前端网关做静态绑定: (2)在各RS使用a

linux下lvs搭建负载均衡集群

常用开源集群软件有:lvs,keepalived,haproxy,nginx,apache,heartbeat 常用商业集群硬件有:F5,Netscaler,Radware,A10等 一.LVS介绍 LVS是linux virtual server的简写linux虚拟服务器,是一个虚拟的服务器集群系统,可以再unix/linux平台下实现负载均衡集群功能.该项目在1998年5月由章文嵩博士组织成立. LVS的三种工作模式:1.VS/NAT模式(Network address translatio

Linux之LVS 20180708

LVS负载均衡项目,是Linux开源项目中专门用于负载均衡的,主要应用在client访问server时,通过LVS来分配对应的server来响应client的请求.client访问时,都是访问的LVS的VIP虚拟地址,LVS有三种工作模式: NAT模式,client访问LVS时,LVS会将client的数据包,对源地址进行NAT转换,同时对目标地址,根据一定的负载均衡算法,改成内网的一个server地址,然后从内网转发出去,内网server收到数据包之后,会进行响应,源地址是本机的地址,目标地址

Consul+Nginx+Upsync+Linux+Keepalived+Lvs的动态负载均衡

注: Nginx版本必须大于等于1.9,linux我使用的是7.0版本,记得关闭防火墙 开始正文: 这里只提一下两个比较会出错的配置,consul,upsync,PCRE库,SSL库,ZLIB库的配置网上很多不一一详解(我是在/usr/local中配置的) Nginx的配置: cd /usr/local/ wget http://nginx.org/download/nginx-1.9.10.tar.gz tar -zxvf nginx-1.9.10.tar.gz groupadd nginx

Linux系统LVS搭建笔记

因为客户是国有企业,且一次性购买了14台服务器(16核),14台中暂且先用8台,其中LVS使用5台,NFS一台主要为了共享WEB系统(多台电脑的1.5T的硬盘容量浪费了).MySQL两台,Memcache和LVS搭在同样的服务器 一.LVS+keepalived+nginx+php+mysql+memcache+NFS 二.msyql主从 三.NFS MASTER 192.168.1.39 BACKUP 192.168.1.44 NFS  192.168.1.43 RealServer 192.