快速体验 Sentinel 集群限流功能,只需简单几步


? Pic by Alibaba Tech on Facebook

集群限流 可以限制某个资源调用在集群内的总 QPS,并且可以解决单机流量不均导致总的流控效果不佳的问题,是保障服务稳定性的利器。

Sentinel 从 1.4.0 版本开始提供集群流控特性,但使用 Sentinel 集群限流需要对一系列的动态数据源进行相关配置,并且需要对开源控制台进行一些改造,有一定的使用成本。为了大家更好地理解集群流控并快速地使用,我们提供了云上版本的 Sentinel 集群限流控制台示例。只需要简单的几步即可快速接入 AHAS Sentinel 集群限流控制台,无需手动配置动态数据源。

注:本控制台示例位于云上环境,需要使用阿里云账号登录。

  1. 引入依赖
    我们只需要在 Maven 中引入以下依赖:

<dependency>
<groupId>com.alibaba.csp</groupId>
<artifactId>ahas-sentinel-client</artifactId>
<version>1.1.0</version>
</dependency>
ahas-sentinel-client 中会包含 sentinel-core 以及集群限流等必要依赖(基于 Sentinel 1.4.1 版本),以及连接阿里云 AHAS Sentinel 控制台所需模块(鉴权、通信等)。同时 ahas-sentinel-client 实现了 push 模式的数据源并且会自动注册所有规则配置和集群配置数据源,在控制台推送即可实时生效:

若之前接入了开源 Sentinel 控制台,则需要将相关的通信依赖(如 sentinel-transport-simple-http 或 sentinel-transport-netty-http)替换成此依赖,否则将无法正确连接 AHAS Sentinel 控制台。若希望从 AHAS Sentinel 控制台切换到开源 Sentinel 控制台,只需要将依赖替换回来,修改一下启动参数即可。

注意:ahas-sentinel-client 1.1.x 仅兼容 Sentinel 1.4.1 及以上版本。

  1. 开通 AHAS,获取启动参数
    引入依赖后,我们需要到 阿里云控制台 开通 AHAS 功能(免费)。可以根据 开通 AHAS 文档 和 Sentinel 流控降级 Demo 快速入门 里面的指引进行开通。注意若应用运行在非阿里云 ECS 环境或本地,需要在左上角选择切换 公网 环境。

开通后我们可以点击左侧侧边栏的 流控降级,进入 Sentinel 控制台应用总览页面。在页面右上角,单击 应用接入,选择 Java SDK 接入页签,到 配置启动参数 页签拿到需要的 JVM 启动参数(详情请参考 SDK 接入文档),类似于:

-Dproject.name=AppName -Dahas.license=<License>
其中 project.name 代表应用名(会显示在控制台),ahas.license 代表自己的授权 license。

注意:若应用运行在非阿里云 ECS 环境或本地,需要在左上角切换到 公网 环境。

详细接入步骤可以参考 AHAS Sentinel 控制台文档。

  1. 启动应用实例
    接下来我们就可以在本地启动应用了,启动应用时需要加上拿到的启动参数。若要在本地体验集群限流功能,需要在本机启动多个应用实例,并额外添加 -Dcsp.sentinel.log.use.pid=true 参数(用于区分同个应用多个实例)。启动之后,我们就可以在对应应用的机器列表页面看到接入的机器了:

  1. 分配 Token Server
    集群限流中共有两种身份:

Token Client 即集群流控客户端,用于向所属 Token Server 通信请求 token。集群限流服务端会返回给客户端结果,决定是否限流。Sentinel 集群流控的通信底层采用 Netty 实现。
Token Server 即集群流控服务端,处理来自 Token Client 的请求,根据配置的集群规则判断是否应该发放 token(是否允许通过)。
本示例中 Token Server 模式为嵌入模式,即作为内置的 Token Server 与应用在同一进程中启动,无需单独部署:

我们需要通过特定的 URL 来进入 AHAS 集群流控 Demo 页面(其中 appName 后面的参数替换成我们的应用名):

https://ahas.console.aliyun.com/#/SystemGuardClusterServerPage?appName=web-demo&regionId=public

然后我们就进入到了集群流控 Token Server 列表页面:

我们可以点击右上角的 新增 Token Server 按钮来新增 Token Server 并执行分配。我们首先需要在新增 Token Server 对话框内选择一台 Token Server,并配置该 Token Server 的端口以及最大的 QPS 配额(用于限制资源使用,防止嵌入模式下影响应用本身)。接下来我们就在下面的选择框中为该 Token Server 分配 Token Client。在上面图中的例子中,我们的应用共有两个实例,其中一个指定为 Token Server,另一个指定为 Token Client。选择完成后点击“保存”按钮保存分配。

保存成功后,我们就能在 Token Server 列表页面看到刚刚分配的 Token Server 了:

点击左侧的下拉按钮,可以看到该 Token Server 和所管理的 Token Client 的实时信息:

  1. 配置规则,查看效果
    接下来我们去流控规则页面给我们的应用配置流控规则。先对某个资源配置普通的流控规则,单机 QPS 阈值设置为 10:

然后分别持续请求两台机器对应的资源,可以在监控页面看到总 QPS 为 20(每个单机 QPS 各为 10):

接下来我们编辑刚才新建的规则,开启集群模式,阈值模式选择“总体阈值”,代表对该资源限制集群内的调用总量为 10。保存规则:

等待一段时间,我们可以在监控页面看到资源的总 QPS 被限到了 10:

有关 Sentinel 集群流控的更多特性和用法,可以参考 Sentinel 集群流控文档 以及之前的集群流控的文章。我们同时提供了嵌入模式下应用配置集群流控配置源的 Demo,可以参考:sentinel-demo-cluster-embedded。

本文作者:
宿何,社区昵称sczyh30,阿里巴巴高可用架构组开发工程师,目前主要负责Sentinel 开源项目的开发和社区维护。

原文地址:http://blog.51cto.com/14031893/2352540

时间: 2024-10-06 13:27:14

快速体验 Sentinel 集群限流功能,只需简单几步的相关文章

更好用的集群限流功能,Sentinel 发布 v1.4.2

摘要: 感谢 Sentinel 社区的贡献者们 ? Sentinel 发布 v1.4.2 正式发布,该版本主要变更如下: 特性/功能改进 新增 Zuul 1.x 适配模块(sentinel-zuul-adapter),结合集群限流特性可以更好地在 API Gateway 发挥流控的作用 热点参数限流添加线程数模式支持 在 BlockException 中携带更多的信息(如触发的规则) 完善 Tracer,支持针对某个 Entry 或 Context 记录异常数目 优化 ClusterStateM

MariaDB Galera Cluster 部署(如何快速部署 MariaDB 集群)

MariaDB Galera Cluster 部署(如何快速部署 MariaDB 集群)  OneAPM蓝海讯通7月3日 发布 推荐 4 推荐 收藏 14 收藏,1.1k 浏览 MariaDB 作为 Mysql 的一个分支,在开源项目中已经广泛使用,例如大热的 openstack,所以,为了保证服务的高可用性,同时提高系统的负载能力,集群部署是必不可少的. MariaDB Galera Cluster 介绍 MariaDB 集群是 MariaDB 同步多主机集群.它仅支持 XtraDB/ Inn

Redis中sentinel集群的搭建和Jedis测试 图文教程[一]

一.测试环境 master: 127.0.0.1 6379 slave1: 127.0.0.1 6479 slave2: 127.0.0.1 6579 master-sentinel: 127.0.0.1 26379 slave1-sentinel: 127.0.0.1 26479 slave2-sentinel: 127.0.0.1 26579 二.下载安装redis 2.8.3 wget http://download.redis.io/releases/redis-2.8.3.tar.gz

redis sentinel集群配置

本文使用的是redis2.8.24的版本: 1.测试环境 master:   192.168.136.130 6379 slave1:    192.168.136.130 6479 slave2:    192.168.136.130 6579 master-sentinel: 192.168.136.130 26379 slave1-sentinel: 192.168.136.130 26479 slave2-sentinel: 192.168.136.130 26579 2.下载安装 地址

Shell脚本快速部署Kubernetes集群系统

本文紧跟上节所讲的手动部署Kubernetes管理Docker篇所写,本篇主要内容利用Shell脚本完成快速部署Kubernetes集群.上节博文看过的朋友也能感觉到部署过程相对比较简单,那么,出于简化工作流程,推进运维自动化角度来说,于是花了2/3天时间写这个部署Kubernetes脚本. 运维工作中,常常会遇到部署各种各样的服务,建议:常规部署都应该尽量使用脚本完成,一方面提高自身脚本编写能力,另一方面推进运维自动化. 详细部署说明文档:http://lizhenliang.blog.51c

Redis中sentinel集群的搭建和Jedis测试 图文教程[三]

在前两篇Redis中sentinel集群的搭建和Jedis测试 图文教程[一] 和Redis中sentinel集群的搭建和Jedis测试 图文教程[二] 中分别简述了Redis中sentinel集群的搭建和Java代码的Jedis测试. 这篇主要来简单分析一下Redis-sentinel集群的原理,根据追踪sentinel信息来完成Redis-sentinel集群测试中的详细的原理分析.包括master-slave各个中的sentinel信息的分析,failover过程,master宕机后的le

Redis sentinel 集群方案

Redis sentinel 集群方案--部署 公司新项目需要使用redis集群,综合考虑了一些方案,最后选择了Redis sentinel, 先在虚拟机部署测试环境如下: sentinel 2台 redis 实例 3个 部分配置如下,采用的默认配置,记得开启认证及最大内存限制,即使是测试环境也要开启认证, 好的习惯是安全生产第一步. ip:192.168.162.130 redis-6380: bind 192.168.162.128 protected-mode yes port 6380

Redis中sentinel集群的搭建和Jedis测试 图文教程[二]

在Redis中sentinel集群的搭建和Jedis测试 图文教程[一] 中已经写了Redis中sentinel集群的搭建和测试,这一章主要写Redis中sentinel的Jedis测试. 一般sentinel架构图为至少4台机子测试 我这里测试的时候只用两台机子,一台跑Redis-Sentinel和所有的Redis master-slave,一台跑java测试程序. xserver.ini为项目工程的配置文件 [Redis] REDIS_NUMBERS=3 REDIS_SERVER_1=tcp

Docker快速构建Redis集群(cluster)

Docker快速构建Redis集群(cluster) 以所有redis实例运行在同一台宿主机上为例子 搭建步骤 redis集群目录清单 . ├── Dockerfile ├── make_master_slave.sh ├── run_master_slave.sh ├── compose_master_slave.sh ├── redis-trib.rb ├── master │?? ├── 7000 │?? │?? ├── data │?? │?? │?? ├── appendonly.ao