转载请注明出处:http://blog.csdn.net/luotuo44/article/details/42913549
锁级别:
从前面的《扩展哈希表》知道:哈希表进行扩展时,有一个专门的线程负责将item数据从旧哈希表迁移到新哈希表(由此,也称这个线程为迁移线程)。此外,还有一些worker线程会时不时访问item(包括插入、删除和获取)。这些线程的对item所做的操作基本上都是互斥的,必须加锁控制。
如果只使用一个锁,抢到该锁才能使用哈希表,没有抢到则不能使用。这样的话memcached的效率将变得相当低。为此,memcached像数据库那样使用不同级别的锁。memcached定义了两个级别的锁,段级别和全局级别。在平时(不进行哈希表扩展时),使用段级别的锁。在扩展哈希表时,使用全局级别的锁。
段级别是什么级别?将哈希表按照几个桶一段几个桶一段地平均分,一个段就对应有多个桶。所以整个哈希表有多个段级别锁。由于段级别锁的数量在程序的一开始就已经确定了,不会再变的了。而随着哈希表的扩展,桶的数量是会增加的。所以随着哈希表的扩展,越来越多的桶对应一个段,也就是说越来越多的桶对应一个锁。
在哈希表扩展时,迁移线程和workers线程都使用全局锁。这些线程竞争全局锁,抢到锁才允许对哈希表的item进行操作。在非扩展时,迁移线程处于休眠状态,workers线程使用段级别锁,抢到了某个段锁,就允许访问对应的多个桶。这样如果不同的worker线程访问不同的段,那么就可以同时访问了,增加了并发量。
下面看一下段级别锁和全局级别锁的定义。thread_init函数分配并初始化段级别锁。
static pthread_mutex_t *item_locks;//指向段锁数组的指针 /* size of the item lock hash table */ static uint32_t item_lock_count;//段锁的数量 static unsigned int item_lock_hashpower; static pthread_mutex_t item_global_lock;//全局锁 #define hashsize(n) ((unsigned long int)1<<(n)) void thread_init(int nthreads, struct event_base *main_base) { int i; int power; pthread_mutex_init(&cache_lock, NULL); pthread_mutex_init(&init_lock, NULL); pthread_cond_init(&init_cond, NULL); //nthreads是workers线程的数量,由main函数调用时传入来 if (nthreads < 3) { power = 10; } else if (nthreads < 4) { power = 11; } else if (nthreads < 5) { power = 12; } else {//最大为13 /* 8192 buckets, and central locks don't scale much past 5 threads */ power = 13; } //power是2的幂 item_lock_count = hashsize(power); item_lock_hashpower = power; //哈希表中段级别的锁。并不是一个桶就对应有一个锁。而是多个桶共用一个锁 item_locks = calloc(item_lock_count, sizeof(pthread_mutex_t)); if (! item_locks) { perror("Can't allocate item locks"); exit(1); } for (i = 0; i < item_lock_count; i++) { pthread_mutex_init(&item_locks[i], NULL); } pthread_mutex_init(&item_global_lock, NULL); ... }
切换锁级别:
现在看一下怎么使用段级别锁和全局级别锁。迁移线程并不会使用段级别锁,在assoc.c的assoc_maintenance_thread函数中,迁移线程只会调用item_lock_global()函数锁上全局锁item_global_lock。这里主要是看workers线程是怎么使用段级别锁和全局级别锁的。
worker线程的锁级别:
workers线程如果要访问哈希表的item,会先调用item_lock函数进行加锁。item_lock函数会根据需要自动选择使用段级别锁还是全局级别锁。下面是具体的代码。
//memcached.h文件 //item锁级别 enum item_lock_types { ITEM_LOCK_GRANULAR = 0, //段级别 ITEM_LOCK_GLOBAL //全局级别 }; //thread.c文件 static pthread_key_t item_lock_type_key;//线程私有数据的键值 void item_lock(uint32_t hv) { //获取线程私有变量 uint8_t *lock_type = pthread_getspecific(item_lock_type_key); //likely这个宏定义用于代码指令优化 //likely(*lock_type == ITEM_LOCK_GRANULAR)用来告诉编译器 //*lock_type等于ITEM_LOCK_GRANULAR的可能性很大 if (likely(*lock_type == ITEM_LOCK_GRANULAR)) {//使用段级别锁的概率很大 //对某些桶的item加锁 mutex_lock(&item_locks[hv & hashmask(item_lock_hashpower)]); } else { //对所有item加锁 mutex_lock(&item_global_lock); } } void item_unlock(uint32_t hv) { uint8_t *lock_type = pthread_getspecific(item_lock_type_key); if (likely(*lock_type == ITEM_LOCK_GRANULAR)) { mutex_unlock(&item_locks[hv & hashmask(item_lock_hashpower)]); } else { mutex_unlock(&item_global_lock); } }
可以看到memcached根据线程私有变量(对应的键值为item_lock_type_key)确定当前要使用哪个锁。只要为每一个worker线程都设置键值为item_lock_type_key的线程私有数据。要切换锁,直接修改线程的私有数据即可。接着看一下workers线程私有数据的初始化。
static LIBEVENT_THREAD *threads; void thread_init(int nthreads, struct event_base *main_base) { ... pthread_key_create(&item_lock_type_key, NULL); for (i = 0; i < nthreads; i++) { //创建worker线程,线程函数为worker_libevent, 线程参数为&threads[i] create_worker(worker_libevent, &threads[i]); } ... } static void *worker_libevent(void *arg) {//这个函数也是在初始化时调用的 LIBEVENT_THREAD *me = arg; me->item_lock_type = ITEM_LOCK_GRANULAR;//初试状态使用段级别锁 //为workers线程设置线程私有数据 //因为所有的workers线程都会调用这个函数,所以所有的workers线程都设置了相同键值的 //线程私有数据 pthread_setspecific(item_lock_type_key, &me->item_lock_type); ... }
实现切换:
可以看到每个线程的线程私有数据是每个线程都独有的LIBEVENT_THREAD结构体的成员变量item_lock_type。只要根据需要把workers线程的item_lock_type变量修改就可以完成锁的切换。哈希表迁移线程会在assoc.c文件中的assoc_maintenance_thread函数调用switch_item_lock_type函数,让所有的workers线程都切换到段级别锁或者全局级别锁。现在来看一下具体是怎么实现的。
void switch_item_lock_type(enum item_lock_types type) { char buf[1]; int i; switch (type) { case ITEM_LOCK_GRANULAR: buf[0] = 'l';//用l表示ITEM_LOCK_GRANULAR 段级别锁 break; case ITEM_LOCK_GLOBAL: buf[0] = 'g';//用g表示ITEM_LOCK_GLOBAL 全局级别锁 break; default: fprintf(stderr, "Unknown lock type: %d\n", type); assert(1 == 0); break; } pthread_mutex_lock(&init_lock); init_count = 0; for (i = 0; i < settings.num_threads; i++) { //通过向worker监听的管道写入一个字符通知worker线程 if (write(threads[i].notify_send_fd, buf, 1) != 1) { perror("Failed writing to notify pipe"); /* TODO: This is a fatal problem. Can it ever happen temporarily? */ } } //等待所有的workers线程都把锁切换到type指明的锁类型 wait_for_thread_registration(settings.num_threads); pthread_mutex_unlock(&init_lock); } static void wait_for_thread_registration(int nthreads) { while (init_count < nthreads) { pthread_cond_wait(&init_cond, &init_lock); } }
因为所有的workers线程都在处于event_base循环中,可以直接往workers线程监听的管道中写入一个字节就能通知workers线程了。
迁移线程为什么要这么迂回曲折地切换workers线程的锁类型呢?直接修改所有线程的LIBEVENT_THREAD结构的item_lock_type成员变量不就行了吗?
这主要是因为迁移线程不知道worker线程此刻在干些什么。如果worker线程正在访问item,并抢占了段级别锁。此时你把worker线程的锁切换到全局锁,等worker线程解锁的时候就会解全局锁(参考前面的item_lock和item_unlock代码),这样程序就崩溃了。所以不能迁移线程去切换,只能迁移线程通知worker线程,然后worker线程自己去切换。当然是要worker线程忙完了手头上的事情后,才会去修改切换的。所以迁移线程在通知完所有的worker线程后,会调用wait_for_thread_registration函数休眠等待所有的worker线程都切换到指定的锁类型后才醒来。
现在来看一下workers线程是怎么切换的。因为前面迁移线程往workers线程监听的管道写入了一个字符,所以我们直接看workers线程设置的管道event监听函数thread_libevent_process。
static void thread_libevent_process(int fd, short which, void *arg) { LIBEVENT_THREAD *me = arg; char buf[1]; if (read(fd, buf, 1) != 1) if (settings.verbose > 0) fprintf(stderr, "Can't read from libevent pipe\n"); switch (buf[0]) { ... case 'l': me->item_lock_type = ITEM_LOCK_GRANULAR;//切换item到段级别 //唤醒睡眠在init_cond条件变量上的迁移线程 register_thread_initialized(); break; case 'g': me->item_lock_type = ITEM_LOCK_GLOBAL;//切换item锁到全局级别 register_thread_initialized(); break; } } static void register_thread_initialized(void) { pthread_mutex_lock(&init_lock); init_count++; pthread_cond_signal(&init_cond); pthread_mutex_unlock(&init_lock); }
按需切换:
现在已经看完了基础设施的构建,来看回迁移线程是怎么调控一切的吧。
void item_lock_global(void) { mutex_lock(&item_global_lock); } void item_unlock_global(void) { mutex_unlock(&item_global_lock); } static void *assoc_maintenance_thread(void *arg) { //do_run_maintenance_thread是全局变量,初始值为1,在stop_assoc_maintenance_thread //函数中会被赋值0,终止迁移线程 while (do_run_maintenance_thread) { int ii = 0; /* Lock the cache, and bulk move multiple buckets to the new * hash table. */ item_lock_global();//锁上全局级别的锁,全部的item都在全局锁的控制之下 //锁住哈希表里面的item。不然别的线程对哈希表进行增删操作时,会出现 //数据不一致的情况.在item.c的do_item_link和do_item_unlink可以看到 //其内部也会锁住cache_lock锁. mutex_lock(&cache_lock); ...//这里是迁移一个桶的数据到新哈希表 //遍历完一个桶的所有item后,就释放锁 mutex_unlock(&cache_lock); item_unlock_global();//释放全局锁 if (!expanding) {//不再需要迁移数据了。 /* finished expanding. tell all threads to use fine-grained(细粒度的) locks */ //进入到这里,说明已经不需要迁移数据(停止扩展了)。 //告诉所有的workers线程,访问item时,切换到段级别的锁。 //会阻塞到所有workers线程都切换到段级别的锁 switch_item_lock_type(ITEM_LOCK_GRANULAR); slabs_rebalancer_resume(); /* We are done expanding.. just wait for next invocation */ mutex_lock(&cache_lock); started_expanding = false; //重置 //挂起扩展线程,直到别的线程插入数据后发现item数量已经到了1.5倍哈希表大小, //此时调用别的线程调用assoc_start_expand函数,该函数会调用pthread_cond_signal //唤醒扩展线程 pthread_cond_wait(&maintenance_cond, &cache_lock); /* Before doing anything, tell threads to use a global lock */ mutex_unlock(&cache_lock); slabs_rebalancer_pause(); //从maintenance_cond条件变量中醒来,说明又要开始扩展哈希表和迁移数据了。 //迁移线程在迁移一个桶的数据时是锁上全局级别的锁. //此时workers线程不能使用段级别的锁,而是要使用全局级别的锁, //所有的workers线程和迁移线程一起,争抢全局级别的锁. //哪个线程抢到了,才有权利访问item. //下面一行代码就是通知所有的workers线程,把你们访问item的锁切换 //到全局级别的锁。switch_item_lock_type会通过条件变量休眠等待, //直到,所有的workers线程都切换到全局级别的锁,才会醒来过 switch_item_lock_type(ITEM_LOCK_GLOBAL); mutex_lock(&cache_lock); assoc_expand();//申请更大的哈希表,并将expanding设置为true mutex_unlock(&cache_lock); } } return NULL; }
眼尖的读者可能还看到了mutex_lock(&cache_lock)和slabs_rebalancer_resume()。不错,这又是对两个锁进行加锁处理。为什么要加这两个锁呢?是因为除了worker线程外还有其他一些线程,这些线程会操作LRU队列和哈希表。但这些线程没有像worker线程那样,可以被通知。所以只能再使用另外的大锁。当然这些线程大部分时间都是在休眠,对性能不会影响太大。由于涉及其他线程,本篇博文也是不会进一步进行讲解这两个锁。
引用计数:
为何需要引用计数:
读者如果对C++的shared_ptr有所了解,那会更容易看懂接下来的内容。因为shared_ptr也用到引用计数的概念。
为了保证线程安全,在访问和操作一个item时就必须加锁。而加锁就必然会导致性能的下降。如果在处理读操作的一开始就加锁,直到处理完读操作才解锁(即全程加锁),那么对于一些热门数据将难于进行更新操作(也就是写操作)。这是因为对于热门数据有读操作会相当频繁,写操作将迟迟得不到执行。如果不全程加锁,那么又会出现一个worker线程在读一个item,而另外一个worker线程在删除这个item。如果这个item被删除了,那么正在读的item就操作一个非法的item。为了性能和处理这种情况,memcached使用引用计数技术。这里的引用计数C++的智能指针shared_ptr原理是一样的。当没有线程在引用这个item后,就会删除这个item(实际是将内存归还给slab分配器)。
memcached为了使用引用计数技术,在item结构体定义了一个refcount成员,用于记录这个item被引用(被worker线程占用)的总数。当然增加和减少item的引用计数都必须是原子操作。为此,memcached定义了两个函数。
unsigned short refcount_incr(unsigned short *refcount) { #ifdef HAVE_GCC_ATOMICS return __sync_add_and_fetch(refcount, 1); #elif defined(__sun) return atomic_inc_ushort_nv(refcount); #else unsigned short res; mutex_lock(&atomics_mutex); (*refcount)++; res = *refcount; mutex_unlock(&atomics_mutex); return res; #endif } unsigned short refcount_decr(unsigned short *refcount) { #ifdef HAVE_GCC_ATOMICS return __sync_sub_and_fetch(refcount, 1); #elif defined(__sun) return atomic_dec_ushort_nv(refcount); #else unsigned short res; mutex_lock(&atomics_mutex); (*refcount)--; res = *refcount; mutex_unlock(&atomics_mutex); return res; #endif } //refcount_incr(&it->refcount);一般是这样调用的 // refcount_decr(&it->refcount)
如果不懂__sync_add_and_fetch和__sync_sub_and_fetch,那么赶紧谷歌之。因为它们是比较重要的函数,可以用来制作无锁队列。这两个函数都会返回操作后的值。
怎么使用引用计数:
当然即使有了引用计数还是需要加锁的。因为在获取item和增加引用计数这一间隔,可能有其他线程把这个item给删除了。所以一般流程是这样:worker线程先加锁,然后获取item,之后增加这item的引用计数,最后释放锁。此时worker线程就占有了这个item,其他worker线程在执行删除操作时必须检测这个item的引用计数是否为0,也就是检查是否还有其他worker线程在使用(引用)这个item。下面举一个例子。
item *item_get(const char *key, const size_t nkey) { item *it; uint32_t hv; hv = hash(key, nkey); item_lock(hv); it = do_item_get(key, nkey, hv); item_unlock(hv); return it; } /** wrapper around assoc_find which does the lazy expiration logic */ //调用do_item_get的函数都已经加上了item_lock(hv)段级别锁或者全局锁 item *do_item_get(const char *key, const size_t nkey, const uint32_t hv) { item *it = assoc_find(key, nkey, hv);//assoc_find函数内部没有加锁 if (it != NULL) {//找到了,此时item的引用计数至少为1 refcount_incr(&it->refcount);//线程安全地自增一 ... } ... return it; }
处理get命令时就会调用上面那些代码。整个流程就像刚才说的那样。当然worker线程最后还需要减少这个item的引用计数。对于get命令来说,最后会调用item_remove命令减少item的引用计数。是不是觉得这里调用一个名为remove函数很奇怪呢?看代码实现吧。
void item_remove(item *item) { uint32_t hv; hv = hash(ITEM_key(item), item->nkey); item_lock(hv); do_item_remove(item); item_unlock(hv); } void do_item_remove(item *it) { assert((it->it_flags & ITEM_SLABBED) == 0); assert(it->refcount > 0); if (refcount_decr(&it->refcount) == 0) {//引用计数等于0的时候归还 item_free(it);//归还该item给slab分配器 } }
可以看到,这是因为减少一个item的引用数可能要删除这个item。为什么呢?考虑这样的情景,线程A因为要读一个item而增加了这个item的引用计数,此时线程B进来了,它要删除这个item。这个删除命令是肯定会执行的,而不是说这个item被别的线程引用了就不执行删除命令。但又肯定不能马上删除,因为线程A还在使用这个item,此时memcached就采用延迟删除的做法。线程B执行删除命令时减多一次item的引用数,使得当线程A释放自己对item的引用后,item的引用数变成0。此时item就被释放了(归还给slab分配器)。
有一点要注意:当一个item插入到哈希表和LRU队列后,那么这个item就被哈希表和LRU队列所引用了。此时,如果没有其他线程在引用这个item的话,那么这个item的引用数为1(哈希表和LRU队列看作一个引用)。所以一个worker线程要删除一个item(当然在删除前这个worker线程要占有这个item),那么需要减少两次item的引用数,一次是减少哈希表和LRU队列的引用,另外一次是减少自己的引用。所以经常能在代码中看到删除一个item需要调用函数do_item_unlink (it,
hv)和do_item_remove(it)这两个函数。
tail_repair_time:
考虑这样的情况:某个worker线程通过refcount_incr增加了一个item的引用数。但由于某种原因(可能是内核出了问题),这个worker线程还没来得及调用refcount_decr就挂了。此时这个item的引用数就肯定不会等于0,也就是总有worker线程占用着它.但实际上这个worker线程早就挂了。所以对于这种情况需要修复。修复也很多简单:直接把这个item的引用计数赋值为1。
根据什么判断某一个worker线程挂了呢?首先在memcached里面,一般来说,任何函数都的调用都不会耗时太大的,即使这个函数需要加锁。所以如果这个item的最后一次访问时间距离现在都比较遥远了,但它却还被一个worker线程所引用,那么就几乎可以判断这个worker线程挂了。在1.4.16版本之前,这个时间距离都是固定的为3个小时。从1.4.16开就使用settings.tail_repair_time存储时间距离,可以在启动memcached的时候设置,默认时间距离为1个小时。现在这个版本1.4.21默认都不进行这个修复了,settings.tail_repair_time的默认值为0。因为memcached的作者很少看到这个bug了,估计是因为操作系统的进一步稳定。上面的版本说明来自链接1和链接2。
上面进行了理论说明,下面看一下memcached实现吧。
item *do_item_alloc(char *key, const size_t nkey, const int flags, const rel_time_t exptime, const int nbytes, const uint32_t cur_hv) { uint8_t nsuffix; item *it = NULL; char suffix[40]; //要存储这个item需要的总空间 size_t ntotal = item_make_header(nkey + 1, flags, nbytes, suffix, &nsuffix); if (settings.use_cas) { ntotal += sizeof(uint64_t); } //根据大小判断从属于哪个slab unsigned int id = slabs_clsid(ntotal); item *search; item *next_it; search = tails[id]; for (;search != NULL; search=next_it) { next_it = search->prev; uint32_t hv = hash(ITEM_key(search), search->nkey); /* Now see if the item is refcount locked */ if (refcount_incr(&search->refcount) != 2) { refcount_decr(&search->refcount); /* Old rare bug could cause a refcount leak. We haven't seen * it in years, but we leave this code in to prevent failures * just in case */ if (settings.tail_repair_time &&//启动了检测 search->time + settings.tail_repair_time < current_time) {//在这个时间距离内都没有访问过 search->refcount = 1;//释放线程对item的引用 do_item_unlink_nolock(search, hv);//这里会把item从哈希表和LRU队列中删除并将引用计数减一 } continue; } ... } ... }
代码中的settings.tail_repair_time指明有没有开启这种检测,默认是没有开启的(默认值等于0)。可以在启动memcached的时候通过-o tail_repair_time选项开启。具体可以参考《memcached启动参数详解以及关键配置的默认值》。