tengine检查后端服务状态

ngx_http_upstream_check_module

http://tengine.taobao.org/document_cn/http_upstream_check_cn.html

该模块可以为Tengine提供主动式后端服务器健康检查的功能。

该模块在Tengine-1.4.0版本以前没有默认开启,它可以在配置编译选项的时候开启:./configure --with-http_upstream_check_module

Examples

http {    upstream cluster1 {        # simple round-robin        server 192.168.0.1:80;        server 192.168.0.2:80;

        check interval=3000 rise=2 fall=5 timeout=1000 type=http;        check_http_send "HEAD / HTTP/1.0\r\n\r\n";        check_http_expect_alive http_2xx http_3xx;    }

    upstream cluster2 {        # simple round-robin        server 192.168.0.3:80;        server 192.168.0.4:80;

        check interval=3000 rise=2 fall=5 timeout=1000 type=http;        check_keepalive_requests 100;        check_http_send "HEAD / HTTP/1.1\r\nConnection: keep-alive\r\n\r\n";        check_http_expect_alive http_2xx http_3xx;    }

    server {        listen 80;

        location /1 {            proxy_pass http://cluster1;        }

        location /2 {            proxy_pass http://cluster2;        }

        location /status {            check_status;

            access_log   off;            allow SOME.IP.ADD.RESS;            deny all;        }    }}

指令

Syntax: check interval=milliseconds [fall=count] [rise=count] [timeout=milliseconds] [default_down=true|false] [type=tcp|http|ssl_hello|mysql|ajp] [port=check_port]
Default: 如果没有配置参数,默认值是:interval=30000 fall=5 rise=2 timeout=1000 default_down=true type=tcp
Context: upstream

该指令可以打开后端服务器的健康检查功能。

指令后面的参数意义是:

  • interval:向后端发送的健康检查包的间隔。
  • fall(fall_count): 如果连续失败次数达到fall_count,服务器就被认为是down。
  • rise(rise_count): 如果连续成功次数达到rise_count,服务器就被认为是up。
  • timeout: 后端健康请求的超时时间。
  • default_down: 设定初始时服务器的状态,如果是true,就说明默认是down的,如果是false,就是up的。默认值是true,也就是一开始服务器认为是不可用,要等健康检查包达到一定成功次数以后才会被认为是健康的。
  • type:健康检查包的类型,现在支持以下多种类型
    • tcp:简单的tcp连接,如果连接成功,就说明后端正常。
    • ssl_hello:发送一个初始的SSL hello包并接受服务器的SSL hello包。
    • http:发送HTTP请求,通过后端的回复包的状态来判断后端是否存活。
    • mysql: 向mysql服务器连接,通过接收服务器的greeting包来判断后端是否存活。
    • ajp:向后端发送AJP协议的Cping包,通过接收Cpong包来判断后端是否存活。
  • port: 指定后端服务器的检查端口。你可以指定不同于真实服务的后端服务器的端口,比如后端提供的是443端口的应用,你可以去检查80端口的状态来判断后端健康状况。默认是0,表示跟后端server提供真实服务的端口一样。该选项出现于Tengine-1.4.0。

Syntax: check_keepalive_requests request_num
Default: 1
Context: upstream

该指令可以配置一个连接发送的请求数,其默认值为1,表示Tengine完成1次请求后即关闭连接。


Syntax: check_http_send http_packet
Default: "GET / HTTP/1.0\r\n\r\n"
Context: upstream

只要符合http get请求协议,可以指定path和host等,范例:check_http_send "GET /test_status HTTP/1.0\r\n HOST www.redhat.sx\r\n\r\n";

该指令可以配置http健康检查包发送的请求内容。为了减少传输数据量,推荐采用"HEAD"方法。

当采用长连接进行健康检查时,需在该指令中添加keep-alive请求头,如:"HEAD / HTTP/1.1\r\nConnection: keep-alive\r\n\r\n"
同时,在采用"GET"方法的情况下,请求uri的size不宜过大,确保可以在1个interval内传输完成,否则会被健康检查模块视为后端服务器或网络异常。


Syntax: check_http_expect_alive [ http_2xx | http_3xx | http_4xx | http_5xx ]
Default: http_2xx | http_3xx
Context: upstream

该指令指定HTTP回复的成功状态,默认认为2XX和3XX的状态是健康的。


Syntax: check_shm_size size
Default: 1M
Context: http

所有的后端服务器健康检查状态都存于共享内存中,该指令可以设置共享内存的大小。默认是1M,如果你有1千台以上的服务器并在配置的时候出现了错误,就可能需要扩大该内存的大小。


Syntax: check_status [html|csv|json]
Default: check_status html
Context: location

显示服务器的健康状态页面。该指令需要在http块中配置。

在Tengine-1.4.0以后,你可以配置显示页面的格式。支持的格式有: htmlcsv、 json。默认类型是html

你也可以通过请求的参数来指定格式,假设‘/status’是你状态页面的URL, format参数改变页面的格式,比如:

/status?format=html/status?format=csv/status?format=json

同时你也可以通过status参数来获取相同服务器状态的列表,比如:

/status?format=html&status=down/status?format=csv&status=up

下面是一个HTML状态页面的例子(server number是后端服务器的数量,generation是Nginx reload的次数。Index是服务器的索引,Upstream是在配置中upstream的名称,Name是服务器IP,Status是服务器的状态,Rise是服务器连续检查成功的次数,Fall是连续检查失败的次数,Check type是检查的方式,Check port是后端专门为健康检查设置的端口):

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN    "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd">    <html xmlns="http://www.w3.org/1999/xhtml">    <head>    <title>Nginx http upstream check status</title>    </head>    <body>        <h1>Nginx http upstream check status</h1>        <h2>Check upstream server number: 1, generation: 3</h2>        <table style="            <tr bgcolor="#C0C0C0">                <th>Index</th>                <th>Upstream</th>                <th>Name</th>                <th>Status</th>                <th>Rise counts</th>                <th>Fall counts</th>                <th>Check type</th>                <th>Check port</th>            </tr>            <tr>                <td>0</td>                <td>backend</td>                <td>106.187.48.116:80</td>                <td>up</td>                <td>39</td>                <td>0</td>                <td>http</td>                <td>80</td>            </tr>        </table>    </body>    </html>

下面是csv格式页面的例子:

0,backend,106.187.48.116:80,up,46,0,http,80

下面是json格式页面的例子:

{"servers": {  "total": 1,  "generation": 3,  "server": [   {"index": 0, "upstream": "backend", "name": "106.187.48.116:80", "status": "up", "rise": 58, "fall": 0, "type": "http", "port": 80}  ] }}

原文地址:https://www.cnblogs.com/sidesky/p/12536502.html

时间: 2024-11-02 19:23:39

tengine检查后端服务状态的相关文章

利用tengine的nginx_upstream_check_module来检测后端服务状态

nginx_upstream_check_module 是专门提供负载均衡器内节点的健康检查的外部模块,由淘宝的姚伟斌大神开发,通过它可以用来检测后端 realserver 的健康状态.如果后端 realserver 不可用,则后面的请求就不会转发到该节点上,并持续检查几点的状态.在淘宝自己的 tengine 上是自带了该模块.项目地址:https://github.com/yaoweibin/nginx_upstream_check_module 参考文档:https://www.cnblog

openrestry 后端服务upstream 健康检查配置

openrestry 后端服务upstream 健康检查配置 http { # 在http模块中增加以下配置 lua_package_path "/usr/local/openresty/lualib/resty/?.lua;/usr/local/openresty/lualib/resty/upstream/?.lua;;"; lua_shared_dict healthcheck 1m; lua_socket_log_errors off; init_worker_by_lua_b

后端服务性能压测实践

转自:https://mp.weixin.qq.com/s/XW9geHZ9odHdI7srDiKBIg 目录 背景 环境检测 压力机及压力工具检测 Linux openfiles limit 设置 排查周边依赖 空接口压测检测 聚合报告中 throughput 计算 压测及性能排查方法 关注各纬度 log Linux 常规命令 性能排查两种方式(从上往下.从下往上) 总结 背景 最近大半年内有过两次负责性能压测的一些工作.一件事情做了一次可能还无法总结出一些东西,两次过后还是能发现一些共性问题

(转)后端服务性能压测实践

作者:王清培(Plen wang) 传送门:https://www.cnblogs.com/wangiqngpei557/p/7953453.html ---------------------------------------------------------------------分割线------------------------------------------------------ 入职新公司,没人理我,负责的需求开发一直很忙,要么环境有问题,要么Bug卡住我找开发,回了一句

zabbix自定义KEY监控服务状态[不需要端口]

zabbix监控Windows下的服务并实现告警和重启服务 首先 创建获取服务状态的脚本 一.Windows脚本 @echo off set srvname=%1 for /f "skip=3 tokens=4" %%i in ('sc query %srvname%') do set "zt=%%i" &goto :next :next if /i "%zt%"=="RUNNING" ( :服务运行正常,返回1. e

监控FTP服务状态,并自动重启servU

在公司的一台FTP服务器上,servU的服务经常自动处于离线状态,每次都需要手动上去点一下很麻烦. 于是写一个脚本设置计划任务检查FTP服务的状态,重启服务. 思路: 设置计划任务:使用ftp命令连接该FTP上传文件,然后检测文件是否上传成功,如果上传成功记录success信息到log文件.如果上传失败,则说明FTP服务异常,杀掉相关FTP进程,并记录重新进程信息,然后重启相关程序. 细节: 1.使用ping命令做个简单的延迟检查. 2.计划任务需要设置执行超时停止任务,因为bat调用其他程序后

System Center 2012 R2 POC部署之Orchestrator设计监控DHCP服务状态流程

System Center 2012 R2 POC部署之Orchestrator设计监控DHCP服务状态流程 本文介绍如何设计流程以监控DHCP服务状态,当服务停止时触发流程自动启动DHCP服务. 打开Runbook Designer,右键Runbook---新建---文件夹 输入文件夹名称Monitor 右键Monitor---新建----Runbook 输入Runbook名称 Monitor DHCP 从右侧窗口中,找到SC 2012 Operations Manager中的Monitor

Silverlight项目笔记6:Linq求差集、交集&amp;检查网络连接状态&amp;重载构造函数复用窗口

一.使用Linq求差集.交集 使用场景: 需要从数据中心获得用户数据,并以此为标准,同步系统的用户信息,对系统中多余的用户进行删除操作,缺失的用户进行添加操作,对信息更新了的用户进行编辑操作更新. 所以需要通过对数据中心以及系统现有用户信息进行比较,分为三部分: (1) Linq取差集,找出需要删除的用户数据,进行删除(USERNAME为唯一值字段). 使用的是Except这个方法. (2)使用Linq提供的Intersect方法,取得两个用户集合的交集,遍历检查进行更新. (3)同样再次取差集

工作框架各种使用整理---服务状态变更数据

1 <moqui.basic.StatusFlow statusFlowId="Zc3plDefault_Product" statusTypeId="Product" description="Default status flow for 3pl services across entire system."/> 2 <moqui.basic.StatusFlowItem statusFlowId="Zc3plDe