利用ldirectord实现lvs后端realserver健康状态检查

ldirectord用来实现LVS负载均衡资源在主、备节点间的故障转移。在首次启动时,ldirectord可以自动创建IPVS表。此外,它还可以监控各RealServer的运行状态,一旦发现某RealServer运行异常时,还可以将其从IPVS表中移除。

ldirectord进程通过向RealServer的RIP发送资源访问请求并通过由RealServer返回的响应信息来确定RealServer的运行状态。在Director上,每一个VIP需要一个单独的ldirectord进程。如果RealServer不能正常响应Director上ldirectord的请求,ldirectord进程将通过ipvsadm命令将此RealServer从IPVS表中移除。而一旦RealServer再次上线,ldirectord会将其重新添加至IPVS表中。

例如,为了监控一组提供web服务的RealServer,ldirectord进程使用HTTP协议请求访问每台RealServer上的某个特定网页。ldirectord进程根据自己的配置文件中事先定义的RealServer正常响应结果来判断当前的返回结果是否正常。比如,在每台web服务器的网站目录中存放一个页面".ldirectord.html",其内容为"Nice",ldirectord进程每隔一段时间就访问一次此网页,并根据获取到的响应信息来判断RealServer的运行状态是否正常。如果其返回的信息不是"Nice",则表明服务不正常。

ldirectord 官方下载地址:现ldirectord可从heartbeat源码包里获得,或者从以下官方链接获得。

http://download.opensuse.org/repositories/network:/ha-clustering:/Stable/

ldirectordhttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/ldirectord-3.9.6-0rc1.1.1.x86_64.rpm

resource-agentshttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/resource-agents-3.9.6-0rc1.1.1.x86_64.rpm

cluster-glue-libshttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/cluster-glue-libs-1.0.12-1.16.1.x86_64.rpm

实现过程:在上一篇文章已经配置好VS/DR,进而直接进行ldirectord配置。

1、安装ldirectord及其依赖

# yum install ldirectord-3.9.6-0rc1.1.1.x86_64.rpm resource-agents-3.9.6-0rc1.1.1.x86_64.rpm cluster-glue-libs-1.0.12-1.16.1.x86_64.rpm

2、配置ldirectord

# rpm -ql ldirectord

# cp /usr/share/doc/ldirectord-3.9.6/ldirectord.cf /etc/ha.d/

# vim /etc/ha.d/ldirectord.cf

# Global Directives

checktimeout=20          # ldirectord等待RealServer健康检查完成的时间,单位为秒;

checkinterval=5             # 每次检查的时间间隔,即检查的频率;

autoreload=yes             # 此项用来定义ldirectord是否每隔一段时间检查此配置文件是否发生改变并自动重新加载;

logfile="/var/log/ldirectord.log"    # 定义日志文件存放位置;

quiescent=yes               # 当某台RealServer出现异常,此项可将其设置为静默状态(即其权重为"0")从而不再响应客户端的访问请求;

# Sample for an http virtual service

virtual=192.168.101.168:80         # 此项用来定义LVS服务及其使用的VIP和PORT

real=10.10.10.11:80 gate 100     # 定义RealServer,语法:real=RIP:port gate|masq|ipip [weight]

real=10.10.10.12:80 gate 300

fallback=127.0.0.1:80 gate         # 当IPVS表没有任何可用的RealServer时,此"地址:端口"作为最后响应的服务;

service=http                                # 定义基于什么服务来测试RealServer;

scheduler=wlc                            # 调度算法为wlc;

#persistent=600                         # 持久连接超时时间;

#netmask=255.255.255.255

protocol=tcp                              # 定义此虚拟服务用到的协议;

checktype=negotiate                # ldirectord进程用于监控RealServer的方法;{negotiate|connect|A number|off}

checkport=80                             # 指健康检查使用的端口;

request=".ldirectord.html"         # 检查RealServer用到的页面

receive="Nice"                            # 检查RealServer用到的页面内容

3、提供当后端RS全部宕掉后,返回的fallback页面,为本机httpd服务

# yum install httpd

# echo "404 Page." > /var/www/html/index.html

# service httpd start

4、启动ldirectord

/etc/rc.d/init.d/ldirectord start

# 至此,Director服务器配置完毕。

5、RS1、RS2提供".ldirectord.html"检测页面

# echo "Nice" > /var/www/html/.ldirectord.html

6、浏览器访问:http://192.168.101.168

7、模拟后端RS故障

RS1:service httpd stop

RS2:service httpd stop

8、Director查看ipvs信息,并使用浏览器访问http://192.168.101.168

# ipvsadm -L -n

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  192.168.101.168:80 wlc

-> 10.10.10.11:80               Route   0      0          12

-> 10.10.10.12:80               Route   0      0          101

-> 127.0.0.1:80                 Local   1      0          0

9、测试后端RS恢复

RS1:service httpd start

RS2:service httpd start

时间: 2024-10-24 15:09:29

利用ldirectord实现lvs后端realserver健康状态检查的相关文章

使用ldirectord实现后端RS健康状态监测及LVS调度功能

Ldirectord功能描述: 如果在高可用服务中直接将ipvsadm定义为一种资源代理,使用ipvsadm来生成ipvs规则,这样生效的lvs不能实现对后端的RealServer实现健康监测的功能,而heartbeat中的ldirectord可以实现对后端RealServer健康状态监测的功能,同时能使用内核中的ipvs功能利用ipvsadm规则启动lvs服务,实现对后端RealServer的调度功能,即有请求至前端的Director时,可以将请求转发至各RealServer而定义的ipvsa

LVS自动化添加及删除ipvsadm和后端服务器健康状态检测脚本

  LVS director 负载均衡器增加IPVSADM脚本 #vim director.sh #!/bin/bash #chkconfig: - 88 66 #description: this script to add lvs IP VIP=192.168.0.254 DIP=192.168.0.100 RIP1=192.168.0.101 RIP2=192.168.0.102 PORT=80 SCHELE=wrr LOCKFILE=/var/lock/subsys/ipvsadm ca

分析shell实现nginx反向代理后端realserver健康检查

今天阅读老男孩教育博客http://oldboy.blog.51cto.com/ 中一篇关于shell实现nginx反向代理后端realserver健康检查的文章,根据其中一个学员朋友的思路自己写了一个脚本. 一.nginx.conf部分内容如下:     upstream rs_pools {     server 10.0.0.8:80 weight=5;     server 10.0.0.9:80 weight=5;     server 10.0.0.10:80 weight=5;  

完成rs健康状态检查。

VS具有很好的伸缩缩性.可靠性和管埋性,通过LVS要实现的最终目标是:利用linux 操作系统和LVS集群软件实现一个高可用.高性能,低成本的服务器应用集群. LVS集群的组成利用LVS架设的服务器群系统由3个部分组成:最前端的是负栽均衡层(这里用 Lo ad Balancer表示),中间是服务器集群层(用Server Array表示).LVS体系结构如下图所示: 下面对LVS的各个组成部分进行详细介绍负 栽均衡层:位于整个集群系统的最前端,由一台或多台负栽调度器(Dircctm Server)

服务器健康状态检查脚本

在日常工作中,我们经常会定期的检查各个服务器的状态,通过此shell脚本系统可以定期的将每日服务器的检查结果发送到邮箱中,此脚本在正式环境中已稳定运行. 因为我们需要通过邮件发送检测结果,首先必须在服务器上开启sendmail服务并设置为开机自启动,然后需要在/etc/mail.rc中设置相应的参数,/etc/mail.rc中参数的设置如下: set from=邮箱地址 set smtp=smtp服务器的地址 set smtp-auth-user=邮箱的用户名 set smtp-auth-pas

Oracle 数据库健康状态检查

数据库健康状态检查 使用utl指令.statspack.awr来检查数据库的健康状态 前提: > show parameter time_ timed_statistics; NAME TYPE VALUE ------------------------------------ ----------- ------------------------------ timed_statistics boolean TRUE 1:utl ##在8i之前只有这个方式,当然在后续的版本中还是有这个功能

pod管理调度约束、与健康状态检查

pod的管理 [[email protected] ~]# vim pod.yaml apiVersion: v1 kind: Pod metadata: name: nginx-pod labels: app: nginx spec: containers: - name: nginx image: nginx 创建pod [[email protected] ~]# kubectl create -f pod.yaml 查看pod信息 [[email protected] ~]# kubec

如何利用nginx_upstream_check_module-master对nginx的后端机器进行健康状态检查

用nginx做前端反向代理,如果后端服务器宕掉的话,nginx是不会把这台realserver踢出upstream的,还会把请求转发到后端的这台realserver上面.所以当某台机器出现问题时,我们会看到nginx的日志会有一段转发失败然后转发正常的日志.这次借助与淘宝技术团队开发的nginx模快nginx_upstream_check_module来检测后方realserver的健康状态,如果后端服务器不可用,则会将其踢出upstream,所有的请求不转发到这台服务器.当期恢复正常时,将其加

nginx下后端realserver健康检测模块ngx_http_upstream_check_module

想用Nginx或者Tengine替代LVS,即能做七层的负载均衡,又能做监控状态检测,一旦发现后面的realserver挂了就自动剔除,恢复后自动加入服务池里,可以用Tengine的ngx_http_upstream_check_module模块.本文主要介绍在工作中,搭建遇到问题及处理方法,便以后查询. 首先,我们大多数站点都是nginx+tomcat这个比较常见模式,其实nginx本身也有自己的健康检测模块,本人觉得不好用,故使用ngx_http_upstream_check_module.