那些年我们一起追过的缓存写法(一)

介绍

本篇主要说下楼主平常项目中缓存使用经验和遇到过的问题。

目录

一: 基本写法

二:缓存雪崩

  1:全局锁,实例锁

2:字符串锁

三:缓存穿透

四:再谈缓存雪崩

五:总结

一:基本写法

为了方便演示,我们用Runtime.Cache做缓存容器,并定义个简单操作类。如下:

 public class CacheHelper
    {
        public static object Get(string cacheKey)
        {
            return HttpRuntime.Cache[cacheKey];
        }
        public static void Add(string cacheKey, object obj, int cacheMinute)
        {
            HttpRuntime.Cache.Insert(cacheKey, obj, null, DateTime.Now.AddMinutes(cacheMinute),
                Cache.NoSlidingExpiration, CacheItemPriority.Normal, null);
        }
    }

  

简单读取:

    public object GetMemberSigninDays1()
        {
            const int cacheTime = 5;
            const string cacheKey = "mushroomsir";

            var cacheValue = CacheHelper.Get(cacheKey);
            if (cacheValue != null)
                return cacheValue;

            cacheValue = "395"; //这里一般是 sql查询数据。 例:395 签到天数
            CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            return cacheValue;
        }

  

在项目中,有不少这样写法。这样写没有错,但在并发量上来后就会有问题。继续看

二:缓存雪崩

缓存雪崩是由于缓存失效(过期),新缓存未到期间。

这个中间时间内,所有请求都去查询数据库,而对数据库CPU和内存造成巨大压力,前端连接数不够、查询阻塞。

这个中间时间并没有那么短,比如sql查询1秒,加上传输解析0.5秒。  就是说1.5秒内所有用户查询,都是直接查询数据库的。

这种情况下,我们想到最多的就是加锁排队了。

1:全局锁,实例锁

public static object obj1 = new object();  public object GetMemberSigninDays2()
        {
            const int cacheTime = 5;
            const string cacheKey = "mushroomsir";

            var cacheValue = CacheHelper.Get(cacheKey);

            if (cacheValue != null)
                return cacheValue;

            //lock (obj1)         //全局锁
            //{
            //    cacheValue = "395"; //这里一般是 sql查询数据。 例:395 签到天数
            //    CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            //}
            lock (this)
            {
                cacheValue = "395"; //这里一般是 sql查询数据。 例:395 签到天数
                CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            }
            return cacheValue;
        }

第一种:lock (obj1)  是全局锁可以满足,但我们要为每个函数都声明一个obj,不然在A、B函数都锁obj1时,必然会让其中一个阻塞。

第二种:lock (this)  这个锁当前实例,对其他实例无效,这个锁就没什么效果了。使用单例模式的可以锁。

但在当前实例中:A函数锁当前实例,其他锁当前实例的函数读写,也被阻塞。  不可取

2:字符串锁

既然锁对象不行,利用字符串的特性,我们直接锁缓存key呢。来看下

 public object GetMemberSigninDays3()
        {
            const int cacheTime = 5;
            const string cacheKey = "mushroomsir";

            var cacheValue = CacheHelper.Get(cacheKey);
            if (cacheValue != null)
                return cacheValue;
            const string lockKey = cacheKey + "n(*≧▽≦*)n";

            //lock (cacheKey)
            //{
            //    cacheValue = "395"; //这里一般是 sql查询数据。 例:395 签到天数
            //    CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            //}
            lock (lockKey)
            {
                cacheValue = "395"; //这里一般是 sql查询数据。 例:395 签到天数
                CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            }
            return cacheValue;
        }

第一种:lock (cacheName)  有问题,因为字符串也是共享的,会阻塞其他使用key的操作行为。  具体请看之前的博文 c#语言-多线程中的锁系统(一)

第二种:lock (lockKey)  可以满足。其实目就是为了保证锁的粒度最小并且全局唯一性,只锁当前缓存的查询行为。

三:缓存穿透

举个简单例子:一般我们会缓存用户搜索结果。而数据库查询不到,是不会做缓存的。但如果频繁查这个关键字,就会每次都直查数据库了。

这样缓存就没意义了,这也是常提的缓存命中率问题。

  public object GetMemberSigninDays4()
        {
            const int cacheTime = 5;
            const string cacheKey = "mushroomsir";

            var cacheValue = CacheHelper.Get(cacheKey);
            if (cacheValue != null)
                return cacheValue;
            const string lockKey = cacheKey + "n(*≧▽≦*)n";

            lock (lockKey)
            {
                cacheValue = null; //数据库查询不到,为空。
                //if (cacheValue2 == null)
                //{
                //    return null;  //一般为空,不做缓存
                //}
                if (cacheValue == null)
                {
                    cacheValue = string.Empty; //如果发现为空,我设置个默认值,也缓存起来。
                }
                CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            }
            return cacheValue;
        }

例子中我们把查询不到的结果,也给缓存起来了。这样就可以避免,查询为空时,引起缓存穿透了。

当然我们也可以单独设置个缓存区,进行第一层控制校验。 以便和正常缓存区分开了。

四:再谈缓存雪崩

额 不是用加锁排队方式就解决了吗?其实加锁排队只是为了减轻DB压力,并没有提高系统吞吐量。

在高并发下: 缓存重建期间,你是锁着的,1000个请求999个都在阻塞的。  用户体验不好,还浪费资源:阻塞的线程本可以处理后续请求的。

  public object GetMemberSigninDays5()
        {
            const int cacheTime = 5;
            const string cacheKey = "mushroomsir";

            //缓存标记。
            const string cacheSign = cacheKey + "_Sign";
            var sign = CacheHelper.Get(cacheSign);

            //获取缓存值
            var cacheValue = CacheHelper.Get(cacheKey);
            if (sign != null)
                return cacheValue; //未过期,直接返回。

            lock (cacheSign)
            {
                sign = CacheHelper.Get(cacheSign);
                if (sign != null)
                    return cacheValue;

                CacheHelper.Add(cacheSign, "1", cacheTime);
                ThreadPool.QueueUserWorkItem((arg) =>
                {
                    cacheValue = "395"; //这里一般是 sql查询数据。 例:395 签到天数
                    CacheHelper.Add(cacheKey, cacheValue, cacheTime*2); //日期设缓存时间的2倍,用于脏读。
                });
            }
            return cacheValue;
        }

代码中,我们多用个缓存标记key,双检锁校验。它设置为正常时间,过期后通知另外的线程去更新缓存数据。

而实际的缓存由于设置了2倍的时间,仍然可以能用脏数据给前端展现。

这样就能提高不少系统吞吐量了。

五:总结

补充下: 这里说的阻塞其他函数指的是,高并发下锁同一对象。

实际使用中,缓存层封装往往要复杂的多。  关于更新缓存,可以单开一个线程去专门跑这些,图方便就扔线程池吧。

具体使用场景,可根据实际用户量来平衡。

如有错误之处,欢迎指出纠正。  对您有帮助的,请推荐下n(*≧▽≦*)n。

作者:蘑菇先生

出处:http://www.cnblogs.com/mushroom/p/4199701.html

时间: 2024-12-28 21:04:21

那些年我们一起追过的缓存写法(一)的相关文章

那些年我们一起追过的缓存写法(三)

目录 一:分析设计 二:O(1)LRU实现 三:过期删除策略 四: 总结 一:分析设计 假设有个项目有一定并发量,要用到多级缓存,如下: 在实际设计一个内存缓存前,我们需要考虑的问题: 1:内存与Redis的数据置换,尽可能在内存中提高数据命中率,减少下一级的压力. 2:内存容量的限制,需要控制缓存数量. 3:热点数据更新不同,需要可配置单个key过期时间. 4:良好的缓存过期删除策略. 5:缓存数据结构的复杂度尽可能的低. 关于置换及命中率:我们采用LRU算法,因为它实现简单,缓存key命中率

那些年我们一起追过的缓存写法(二)

引言 感谢园子里的同学对上一篇的支持,很高兴楼主的一些经验及想法能够对大家有一些帮助. 上次主要讨论缓存读写这块各种代码实现.本篇是就上次的问题接着来,继续看那些年我们各种缓存用法. 目录 一:缓存预热 二:多级缓存 2.1 介绍 2.2 线程缓存 2.3 内存缓存 2.4 文件缓存 2.5 分布式缓存 2.6 DB缓存 三:多层缓存 四:总结 一:缓存预热 上次有同学问过.在第一次加载时,我们的缓存都为空,怎么进行预热. 单机Web情况下,一般我们使用RunTimeCache.相对于这种情况下

那些年我们一起追过的缓存写法(转)

出处:http://www.codeceo.com/article/cache-01.html ------------------------------------------------------------------------------ 介绍 本篇主要说下楼主平常项目中缓存使用经验和遇到过的问题. 目录 一: 基本写法 二:缓存雪崩 1:全局锁,实例锁 2:字符串锁 三:缓存穿透 四:再谈缓存雪崩 五:总结 一:基本写法 为了方便演示,我们用Runtime.Cache做缓存容器,

那些年我们一起追过的缓存写法(四)

阅读目录:  介绍 进程缓存 通信方式 速度对比 总结 介绍 之前有童鞋问到关于首次为空的问题,这里简单补充下: 一般来说并发量小.缓存数据量小的网站让用户自行触发页面让其缓存即可. 大点网站都会多台部署,用负载均衡路由.常见的策略是在每台机器发布应用时,节点从负载均衡节点集合中移除,发布结束后,首次访问通过人工或自动请求下页面让其缓存,也包括预编译. 还有一种是并发量大,缓存数据量大的情况,这也是本文的主题,下面会详细介绍. 如果缓存数据量大的情况下,预热就麻烦些.比如LZ公司单在内存中的缓存

缓存写法总结

基本写法 为了方便演示,这里使用Runtime.Cache做缓存容器,并定义个简单操作类.如下: 1 2 3 4 5 6 7 8 9 10 11 12 public class CacheHelper    {        public static object Get(string cacheKey)        {            return HttpRuntime.Cache[cacheKey];        }        public static void Add(

浅谈缓存写法(一):缓存的雪崩和穿透

基本写法 为了方便演示,这里使用Runtime.Cache做缓存容器,并定义个简单操作类.如下: <pre class="brush:csharp;gutter:true;" style="margin: 0px; padding: 0px; white-space: pre-wrap; overflow-wrap: break-word;"> public class CacheHelper { public static object Get(str

浅谈缓存写法(三):内存缓存该如何设计

分析设计 假设有个项目有比较高的并发量,要用到多级缓存,如下: 在实际设计一个内存缓存前,需要考虑的问题: 1:内存与Redis的数据置换,尽可能在内存中提高数据命中率,减少下一级的压力. 2:内存容量的限制,需要控制缓存数量. 3:热点数据更新不同,需要可配置单个key过期时间. 4:良好的缓存过期删除策略. 5:缓存数据结构的复杂度尽可能的低. 关于置换及命中率:采用LRU算法,因为它实现简单,缓存key命中率也很好. LRU即是:把最近最少访问的数据给淘汰掉,经常被访问到即是热点数据. 关

那些年我们一起追过的的&quot;引用变量&quot;--总结1

hello ,好久没来了. 今天我来总结一下有关引用变量的注意事项,一是加深一下自己的理解,二是对这块不太理解的同学可以看看. 大神可飘过,有什么不对或不足的地方请多多指教,谢谢. 假设场景: 有一个统计游戏玩家信息调查问卷系统,玩家填写了调查问卷,会给玩家一些奖励,当然目前这不是我们关注的部分. 我们需要记录一下玩家的姓名,年龄,邮箱,以及玩家曾经玩过的游戏有哪些. 既然要记录玩家玩过的游戏,必然要有Game类: package indi.bruce.summary; public class

那些年我们一起追过的51学院

从51学院的免费到现在的会员,走过几个春秋,最开始的时候,我刚刚读大学,那时候还读大一,由于我上的是软件工程专业,正好和计算机编程打交道,最开始的时候我在网上搜索学习网站,找了好多,但是大部分都在慕课网上学的,感觉都还挺不错的,既免费有讲的还不错, 后来,我们学到一门"数据结构"这样一门课程,我找了好多网站,都没找到比较好的视频,后来,终于,在51学院里面找到"鲍松山"老师的关于"数据结构严蔚敏C语言版",我记得很清楚,当时,这个课程前面几节视频