使用RateLimiter完成简单的大流量限流,抢购秒杀限流

RateLimiter是guava提供的基于令牌桶算法的实现类,可以非常简单的完成限流特技,并且根据系统的实际情况来调整生成token的速率。

通常可应用于抢购限流防止冲垮系统;限制某接口、服务单位时间内的访问量,譬如一些第三方服务会对用户访问量进行限制;限制网速,单位时间内只允许上传下载多少字节等。

下面来看一些简单的实践,需要先引入guava的maven依赖。

一 有很多任务,但希望每秒不超过N个

    import com.google.common.util.concurrent.RateLimiter;  

    import java.util.ArrayList;
    import java.util.List;
    import java.util.concurrent.ExecutorService;
    import java.util.concurrent.Executors;  

    /**
     * Created by wuwf on 17/7/11.
     * 有很多个任务,但希望每秒不超过X个,可用此类
     */
    public class Demo1 {  

        public static void main(String[] args) {
            //0.5代表一秒最多多少个
            RateLimiter rateLimiter = RateLimiter.create(0.5);
            List<Runnable> tasks = new ArrayList<Runnable>();
            for (int i = 0; i < 10; i++) {
                tasks.add(new UserRequest(i));
            }
            ExecutorService threadPool = Executors.newCachedThreadPool();
            for (Runnable runnable : tasks) {
                System.out.println("等待时间:" + rateLimiter.acquire());
                threadPool.execute(runnable);
            }
        }  

        private static class UserRequest implements Runnable {
            private int id;  

            public UserRequest(int id) {
                this.id = id;
            }  

            public void run() {
                System.out.println(id);
            }
        }  

    }  

该例子是多个线程依次执行,限制每2秒最多执行一个。运行看结果


我们限制了2秒放行一个,可以看到第一个是直接执行了,后面的每2秒会放行一个。

rateLimiter.acquire()该方法会阻塞线程,直到令牌桶中能取到令牌为止才继续向下执行,并返回等待的时间。

二 抢购场景限流

譬如我们预估数据库能承受并发10,超过了可能会造成故障,我们就可以对该请求接口进行限流。

[

    package com.tianyalei.controller;  

    import com.google.common.util.concurrent.RateLimiter;
    import com.tianyalei.model.GoodInfo;
    import com.tianyalei.service.GoodInfoService;
    import org.springframework.web.bind.annotation.RequestMapping;
    import org.springframework.web.bind.annotation.RestController;  

    import javax.annotation.Resource;  

    /**
     * Created by wuwf on 17/7/11.
     */
    @RestController
    public class IndexController {
        @Resource(name = "db")
        private GoodInfoService goodInfoService;  

        RateLimiter rateLimiter = RateLimiter.create(10);  

        @RequestMapping("/miaosha")
        public Object miaosha(int count, String code) {
            System.out.println("等待时间" + rateLimiter.acquire());
            if (goodInfoService.update(code, count) > 0) {
                return "购买成功";
            }
            return "购买失败";
        }  

        @RequestMapping("/add")
        public Object add() {
            for (int i = 0; i < 100; i++) {
                GoodInfo goodInfo = new GoodInfo();
                goodInfo.setCode("iphone" + i);
                goodInfo.setAmount(100);
                goodInfoService.add(goodInfo);
            }  

            return "添加成功";
        }
    }  

这个是接着之前的文章(秒杀系统db,http://blog.csdn.net/tianyaleixiaowu/article/details/74389273)加了个Controller

代码很简单,就是请求过来时,调用RateLimiter.acquire,如果每秒超过了10个请求,就阻塞等待。我们使用jmeter进行模拟100个并发。

创建一个线程数为100,启动间隔时间为0的线程组,代表100个并发请求。

启动jmeter请求,看控制台结果

初始化10个的容量,所以前10个请求无需等待直接成功,后面的开始被1秒10次限流了,基本上每0.1秒放行一个。

三 抢购场景降级

上面的例子虽然限制了单位时间内对DB的操作,但是对用户是不友好的,因为他需要等待,不能迅速的得到响应。当你有1万个并发请求,一秒只能处理10个,那剩余的用户都会陷入漫长的等待。所以我们需要对应用降级,一旦判断出某些请求是得不到令牌的,就迅速返回失败,避免无谓的等待。

由于RateLimiter是属于单位时间内生成多少个令牌的方式,譬如0.1秒生成1个,那抢购就要看运气了,你刚好是在刚生成1个时进来了,那么你就能抢到,在这0.1秒内其他的请求就算白瞎了,只能寄希望于下一个0.1秒,而从用户体验上来说,不能让他在那一直阻塞等待,所以就需要迅速判断,该用户在某段时间内,还有没有机会得到令牌,这里就需要使用tryAcquire(long
timeout, TimeUnit unit)方法,指定一个超时时间,一旦判断出在timeout时间内还无法取得令牌,就返回false。注意,这里并不是真正的等待了timeout时间,而是被判断为即便过了timeout时间,也无法取得令牌。这个是不需要等待的。

看实现:

    /**
         * tryAcquire(long timeout, TimeUnit unit)
         * 从RateLimiter 获取许可如果该许可可以在不超过timeout的时间内获取得到的话,
         * 或者如果无法在timeout 过期之前获取得到许可的话,那么立即返回false(无需等待)
         */
        @RequestMapping("/buy")
        public Object miao(int count, String code) {
            //判断能否在1秒内得到令牌,如果不能则立即返回false,不会阻塞程序
            if (!rateLimiter.tryAcquire(1000, TimeUnit.MILLISECONDS)) {
                System.out.println("短期无法获取令牌,真不幸,排队也瞎排");
                return "失败";
            }
            if (goodInfoService.update(code, count) > 0) {
                System.out.println("购买成功");
                return "成功";
            }
            System.out.println("数据不足,失败");
            return "失败";
        }  

在不看执行结果的情况下,我们可以先分析一下,一秒出10个令牌,0.1秒出一个,100个请求进来,假如100个是同时到达,那么最终只能成交10个,90个都会因为超时而失败。事实上,并不会完全同时到达,必然会出现在0.1秒后到达的,就会被归入下一个周期。这是一个挺复杂的数学问题,每一个请求都会被计算未来可能获取到令牌的概率。

还好,RateLimiter有自己的方法去做判断。

我们运行看结果

多执行几次,发现每次这个顺序都不太一样。

经过我多次试验,当设置线程组的间隔时间为0时,最终购买成功的数量总是22.其他的78个都是失败。但基本都是开始和结束时连续成功,中间的大段失败。

我修改一下jmeter线程组这100个请求的产生时间为1秒时,结果如下

除了前面几个和最后几个请求连续成功,中间的就比较稳定了,都是隔8个9个就会成功一次。

当我修改为2秒内产生100个请求时,结果就更平均了

基本上就是前10个成功,后面的就开始按照固定的速率而成功了。

这种场景更符合实际的应用场景,按照固定的单位时间进行分割,每个单位时间产生一个令牌,可供购买。

看到这里是不是有点明白抢小米的情况了,很多时候并不是你网速快,手速快就能抢到,你需要看后台系统的分配情况。所以你能否抢到,最好是开很多个账号,而不是一直用一个账号在猛点,因为你点也白点,后台已经把你的资格排除在外了。

当然了,真正的抢购不是这么简单,瞬间的流量洪峰会冲垮服务器的负载,当100万人抢1万个小米时,连接口都请求不进来,更别提接口里的令牌分配了。

此时就需要做上一层的限流,我们可以选择在上一层做分布式,开多个服务,先做一次限流,淘汰掉绝大多数运气不好的用户,甚至可以随机丢弃某些规则的用户,迅速拦截90%的请求,让你去网页看单机排队动画,还剩10万。10万也太大,足以冲垮数据层,那就进队列MQ,用MQ削峰后,然后才放进业务逻辑里,再进行RateLimiter的限流,此时又能拦截掉90%的不幸者,还剩1万,1万去交给业务逻辑和数据层,用redis和DB来处理库存。恭喜,你就是那个漏网之鱼。

重点在于迅速拦截掉99%的不幸者,避免让他们去接触到数据层。而且不能等待时间太长,最好是请求的瞬间就能确定你是永远看单机动画最好。

/***************************************************************************************************/

补充:

只在本地时效果不怎么明显,我把这个小工程部署到线上服务器压测了一下。

首先试了一下去掉了RateLimiter,只用db的Service处理数据的情况,发现mysql的服务占CPU约20%,总体请求失败率较高。多是Tomcat超时。

使用RateLimiter阻塞后,数据库CPU基本没动静,压力几乎没有,Tomcat超时还有一些,因为还是并发数大,处理不了。

使用RateLimiter非阻塞,超时和请求失败极少,总体QPS上升了不少。

测试不太正规,就大概跑了跑。

原文地址:https://www.cnblogs.com/leeego-123/p/11493335.html

时间: 2024-08-29 20:17:19

使用RateLimiter完成简单的大流量限流,抢购秒杀限流的相关文章

京东商品详情页应对“双11”大流量的技术实践

大家来京东打开商品页一般会看到如通用版.闪购.全球购等不同的页面风格,这里面会牵扯到各种各样垂直化的模板页面渲染.以前的解决方案是做静态化,但是静态化一个很大的问题就是页面改版时需要重新全量生成新的静态页.我们有几亿个商品,对于这么多商品,你如果生成页面的话需要跑很多天,而且还无法应对一些突发情况. 比如新的<广告法>,需要对一些数据进行清洗,后端清洗时间和成本来不及,那么很多时候就是从前台展示系统来进行数据过滤.因此需要非常灵活的前端展示架构来支持这种需求. 首先这是我们前端首屏大体的结构.

【转】京东商品详情页应对“双11”大流量的技术实践

原文链接:http://www.csdn.net/article/2015-12-28/2826570 大家来京东打开商品页一般会看到如通用版.闪购.全球购等不同的页面风格,这里面会牵扯到各种各样垂直化的模板页面渲染.以前的解决方案是做静态化,但是静态化一个很大的问题就是页面改版时需要重新全量生成新的静态页.我们有几亿个商品,对于这么多商品,你如果生成页面的话需要跑很多天,而且还无法应对一些突发情况. 比如新的<广告法>,需要对一些数据进行清洗,后端清洗时间和成本来不及,那么很多时候就是从前台

对于大流量的网站,您采用什么样的方法来解决访问量问题?

当一个网站发展为知名网站的时候(如新浪,腾讯,网易,雅虎),网站的访问量通常都会非常大,如果使用虚拟主机的话,网站就会因为访问量过大而引起 服务器性能问题,这是很多人的烦恼,有人使用取消RSS等错误的方法来解决问题,显然是下错药,那么对于大流量的网站,需要采用什么样的方法来解决访问量 问题? 解决方法参考如下: 首先,确认服务器硬件是否足够支持当前的流量. 普通的P4服务器一般最多能支持每天10万独立IP,如果访问量比这个还要大,那么必须首先配置一台更高性能的专用服务器才能解决问题,否则怎么优化

对于大流量网站怎样解决访问量的问题

当一个网站发展为知名网站的时候(如新浪,腾讯,网易,雅虎),网站的访问量通常都会非常大,如果使用虚拟主机的话,网站就会因为访问量过大而引起 服务器性能问题,这是很多人的烦恼,有人使用取消RSS等错误的方法来解决问题,显然是下错药,那么对于大流量的网站,需要采用什么样的方法来解决访问量 问题? 解决方法参考如下: 首先,确认服务器硬件是否足够支持当前的流量. 普通的P4服务器一般最多能支持每天10万独立IP,如果访问量比这个还要大,那么必须首先配置一台更高性能的专用服务器才能解决问题,否则怎么优化

大流量高并发量网站的之解决方案

一.对于网站访问速度影响的条件如下: 瓶颈主要有: 1.磁盘搜索 优化方法是:将数据分布在多个磁盘上 2.磁盘读/写 优化方法是:从多个磁盘并行读写. 3.CPU周期 优化方法:扩充内存 4.内存带宽 二.大流量高并发量网站的解决方案 1.确认服务器硬件是否足够支持当前的流量. 2.使用memcache缓存技术,将动态数据缓存到内存中,动态网页直接调用这些文件,而不必在访问数据库. 3.禁止外部的盗链. 4.外部网站的图片或者文件盗链往往会带来大量的负载压力,因此应该严格限制外部对自身图片或者文

对于大流量的网站,您采用什么样的来解决访问量分问题?

当一个网站发展为知名网站的时候(如新浪,腾讯,网易,雅虎),网站的访问量通常都会非常大,如果使用虚拟主机的话,网站就会因为访问量过大而引起 服务器性能问题,这是很多人的烦恼,有人使用取消RSS等错误的方法来解决问题,显然是下错药,那么对于大流量的网站,需要采用什么样的方法来解决访问量 问题? 解决方法参考如下: 首先,确认服务器硬件是否足够支持当前的流量. 普通的P4服务器一般最多能支持每天10万独立IP,如果访问量比这个还要大,那么必须首先配置一台更高性能的专用服务器才能解决问题,否则怎么优化

大流量的网站如何解决访问量的问题

当一个网站发展为知名网站的时候(如新浪,腾讯,网易,雅虎),网站的访问量通常都会非常大,如果使用虚拟主机的话,网站就会因为访问量过大而引起 服务器性能问题,这是很多人的烦恼,有人使用取消RSS等错误的方法来解决问题,显然是下错药 对于当今大流量的网站,每天几千万甚至上亿的流量,是如何解决访问量问题的呢?以下是一些总结的方法: 第一,确认服务器硬件是否足够支持当前的流量. 普通的P4服务器一般最多能支持每天10万独立IP,如果访问量比这个还要大,那么必须首先配置一台更高性能的专用服务器才能解决问题

PHP商品秒杀计时实现(解决大流量方案)

PHP商品秒杀功能我们多半以整点或时间点为例子,这样对于php来说处理不复杂,但有一个问题就是如果流量大要如何来处理,下面我们一起来看看解决办法. 要求要有小时分钟秒的实时倒计时的显示,用户端修改日期时间不会影响到倒计时的正常显示(也就是以服务器时间为准). 其实这和很多的考试等系统的时间限制功能同样的要求. 总不能用ajax每秒都获取服务器时间吧,所以实时倒计时一定要用javascript实现.这很简单,网上一大把的例子. 现在问题是解决用户端修改日期时间对我们的显示的影响. 解决的办法是计算

中型10万IP大流量网站服务器配置解决方案

中型10万IP大流量网站服务器配置解决方案你有没有想过,如果你的网站有日访问独立IP上10万,PV上百万左右,怎样的服务器配置,怎样的带宽都可以保证网站正常运作呢?也许你没有想过,也许你想过不少方案,下面转载整理知名博客之月光博客的分享经验: 首先,确认服务器硬件是否足够支持当前的流量. 普通的P4服务器一般最多能支持每天10万独立IP,如果访问量比这个还要大,那么必须首先配置一台更高性能的专用服务器才能解决问题,否则怎么优化都不可能彻底解决性能问题. 其次,优化数据库访问. 服务器的负载过大,