linux 2.6 互斥锁的实现-源码分析

http://blog.csdn.net/tq02h2a/article/details/4317211

看了看linux 2.6 kernel的源码,下面结合代码来分析一下在X86体系结构下,互斥锁的实现原理。

代码分析

1. 首先介绍一下互斥锁所使用的数据结构:
struct mutex {
 引用计数器
 1: 所可以利用。
 小于等于0:该锁已被获取,需要等待
 atomic_t  count;
 
 自旋锁类型,保证多cpu下,对等待队列访问是安全的。
 spinlock_t  wait_lock;
 
 等待队列,如果该锁被获取,任务将挂在此队列上,等待调度。
 struct list_head wait_list;
};

2. 互斥锁加锁函数
void inline __sched mutex_lock(struct mutex *lock)
调用了宏:
__mutex_fastpath_lock(&lock->count, __mutex_lock_slowpath);

宏的定义:
将mutex数据结构中,引用计数器减1,如果不为负数就返回,
如果为负数,需要调用函数:__mutex_lock_slowpath,接下来我们再来
分析这个函数,我们先来分析一下这个宏。
#define __mutex_fastpath_lock(count, fail_fn)   /
do {        /
 unsigned int dummy;     /
        /
 检查参数类型的有效性
 typecheck(atomic_t *, count);    /
 typecheck_fn(void (*)(atomic_t *), fail_fn);  /
        /
  输入,输出寄存器为eax,输入为count,输出为dummy,仅将eax的值减1
 asm volatile(LOCK_PREFIX "   decl (%%eax)/n"  /
       "   jns 1f /n"    /
       如果减后为负数,调用回调函数,尝试阻塞该进程
       "   call " #fail_fn "/n"   /
       "1:/n"     /
       : "=a" (dummy)    /
       : "a" (count)    /
       : "memory", "ecx", "edx");   /
} while (0)

3. 回调函数
static noinline int __sched __mutex_lock_killable_slowpath(atomic_t *lock_count)
{
  通过结构的成员地址,获取该结构地址
 struct mutex *lock = container_of(lock_count, struct mutex, count);

该函数在后面做详细介绍
 return __mutex_lock_common(lock, TASK_KILLABLE, 0, _RET_IP_);
}

4. 阻塞进程真正获取锁的地方
static inline int __sched
__mutex_lock_common(struct mutex *lock, long state, unsigned int subclass,
         unsigned long ip)
{
  获取当前进程的task_struct的地址
 struct task_struct *task = current;
 struct mutex_waiter waiter;
 unsigned int old_val;
 unsigned long flags;

对该锁上的等待队列加自旋锁,防止多个CPU的情况。
 spin_lock_mutex(&lock->wait_lock, flags);

将该任务添加到该锁的等待队列上
 list_add_tail(&waiter.list, &lock->wait_list);
 waiter.task = task;
 
 用一条汇编指令对count进行付值,lock->count=-1,保证该操作在一个cpu上是原子的
 old_val = atomic_xchg(&lock->count, -1);
 如果lock->count之前的值为1,说明是可以获取锁的
 if (old_val == 1)
  goto done;

lock_contended(&lock->dep_map, ip);

for (;;) {
  在这个地方,又尝试去获取锁,处理方式如上。
  old_val = atomic_xchg(&lock->count, -1);
  if (old_val == 1)
   break;

如果该进程是可中断的,或者该进程是可kiilable的,如果有信号
  被递送到该任务,那么该进程将从等待队列中移除
  if (unlikely((state == TASK_INTERRUPTIBLE &&
     signal_pending(task)) ||
         (state == TASK_KILLABLE &&
     fatal_signal_pending(task)))) {
   mutex_remove_waiter(lock, &waiter,
         task_thread_info(task));
   mutex_release(&lock->dep_map, 1, ip);
   spin_unlock_mutex(&lock->wait_lock, flags);

debug_mutex_free_waiter(&waiter);
   返回被信号中断
   return -EINTR;
  }
  __set_task_state(task, state);

如果还不能获取所,则将自旋锁解除,当从schedule返回时再次获取自旋锁,
  重复如上操作。
  spin_unlock_mutex(&lock->wait_lock, flags);
  schedule();
  spin_lock_mutex(&lock->wait_lock, flags);
 }

表示已经获取了锁
done:
 lock_acquired(&lock->dep_map);
将该任务从等待队列中删除
 mutex_remove_waiter(lock, &waiter, task_thread_info(task));
 debug_mutex_set_owner(lock, task_thread_info(task));

如果等待队列为空将lock->count置为0
 if (likely(list_empty(&lock->wait_list)))
  atomic_set(&lock->count, 0);

spin_unlock_mutex(&lock->wait_lock, flags);

debug_mutex_free_waiter(&waiter);

return 0;
}

5. 解锁过程
void __sched mutex_unlock(struct mutex *lock)
{
 解锁后lock->count将从0变为1
 __mutex_fastpath_unlock(&lock->count, __mutex_unlock_slowpath);
}

该宏是对引用计数器实行加1操作,如果加后小于等于0,说明该等待队列
上还有任务需要获取锁。调用__mutex_unlock_slowpath函数。
#define __mutex_fastpath_unlock(count, fail_fn)   /
do {        /
 unsigned int dummy;     /
        /
 typecheck(atomic_t *, count);    /
 typecheck_fn(void (*)(atomic_t *), fail_fn);  /
        /
 asm volatile(LOCK_PREFIX "   incl (%%eax)/n"  /
       "   jg 1f/n"    /
       "   call " #fail_fn "/n"   /
       "1:/n"     /
       : "=a" (dummy)    /
       : "a" (count)    /
       : "memory", "ecx", "edx");   /
} while (0)

该函数调用了__mutex_unlock_slowpath函数。
static noinline void
__mutex_unlock_slowpath(atomic_t *lock_count)
{
 __mutex_unlock_common_slowpath(lock_count, 1);
}

static inline void
__mutex_unlock_common_slowpath(atomic_t *lock_count, int nested)
{
  通过结构的成员地址,获取该结构地址
 struct mutex *lock = container_of(lock_count, struct mutex, count);
 unsigned long flags;

为等待队列加自旋锁
 spin_lock_mutex(&lock->wait_lock, flags);
 mutex_release(&lock->dep_map, nested, _RET_IP_);
 debug_mutex_unlock(lock);

if (__mutex_slowpath_needs_to_unlock())
  atomic_set(&lock->count, 1);

先看看等待队列是不是为空了,如果已经为空,不需要做任何处理,否则
 将该等待队列上面的队首进程唤醒
 if (!list_empty(&lock->wait_list)) {
  struct mutex_waiter *waiter =
    list_entry(lock->wait_list.next,
        struct mutex_waiter, list);

debug_mutex_wake_waiter(lock, waiter);

wake_up_process(waiter->task);
 }

debug_mutex_clear_owner(lock);

spin_unlock_mutex(&lock->wait_lock, flags);
}

总结:互斥锁的实现,实际上就是一把锁维护了一个等待队列和一个引用计数器,当获取锁
之前,先对引用计数器减1操作,如果为非负,则可以获取锁进入临界区。否则需要将该任务
挂在该等待对列上。

时间: 2024-08-15 21:08:38

linux 2.6 互斥锁的实现-源码分析的相关文章

Java高并发之无锁与Atomic源码分析

目录 CAS原理 AtomicInteger Unsafe AtomicReference AtomicStampedReference AtomicIntegerArray AtomicIntegerFieldUpdater 无锁的Vector 无锁即无障碍的运行, 所有线程都可以到达临界区, 接近于无等待. 无锁采用CAS(compare and swap)算法来处理线程冲突, 其原理如下 CAS原理 CAS包含3个参数CAS(V,E,N).V表示要更新的变量, E表示预期值, N表示新值.

linux设备驱动之misc驱动框架源码分析(一)

1.misc设备驱动框架源码部分是由内核开发者实现提供的,主要是创建misc类和为驱动开发者提供misc_register函数,来进行创建misc设备. 这部分的源码在/drvier/char/misc.c里,代码如下: /*  * linux/drivers/char/misc.c  *  * Generic misc open routine by Johan Myreen  *  * Based on code from Linus  *  * Teemu Rantanen's Micro

linux设备驱动之misc驱动框架源码分析(二)

1.misc_open函数分析 该函数在driver/char/misc.c中,misc.c是驱动框架实现的,这里面的misc_Open函数是misc驱动框架为应用层提供的一个打开misc设备的一个接口. 1.首先我们要知道在misc.c中的misc_init函数中,将misc这种类设备注册成了字符设备驱动.代码如下 static int __init misc_init(void) { int err; #ifdef CONFIG_PROC_FS proc_create("misc"

sync.Map源码分析

sync.Map源码分析 背景 众所周知,go普通的map是不支持并发的,换而言之,不是线程(goroutine)安全的.博主是从golang 1.4开始使用的,那时候map的并发读是没有支持,但是并发写会出现脏数据.golang 1.6之后,并发地读写会直接panic: fatal error: concurrent map read and map write package main func main() { m := make(map[int]int) go func() { for

Java并发编程之ReentrantLock源码分析

ReentrantLock介绍 从JDK1.5之前,我们都是使用synchronized关键字来对代码块加锁,在JDK1.5引入了ReentrantLock锁.synchronized关键字性能比ReentrantLock锁要差,而且ReentrantLock锁功能要比synchronized关键字功能强大. 特点 synchronized关键字和ReentrantLock锁都是重入锁,可重入锁是指当一个线程获取到锁后,此线程还可继续获得这把锁,在此线程释放这把锁前其他线程则不可获得这边锁.相比

Linux内核源码分析--内核启动之(3)Image内核启动(C语言部分)(Linux-3.0 ARMv7) 【转】

原文地址:Linux内核源码分析--内核启动之(3)Image内核启动(C语言部分)(Linux-3.0 ARMv7) 作者:tekkamanninja 转自:http://blog.chinaunix.net/uid-25909619-id-4938390.html 在构架相关的汇编代码运行完之后,程序跳入了构架无关的内核C语言代码:init/main.c中的start_kernel函数,在这个函数中Linux内核开始真正进入初始化阶段, 下面我就顺这代码逐个函数的解释,但是这里并不会过于深入

Linux内核源码分析--内核启动之(5)Image内核启动(rest_init函数)(Linux-3.0 ARMv7)【转】

原文地址:Linux内核源码分析--内核启动之(5)Image内核启动(rest_init函数)(Linux-3.0 ARMv7) 作者:tekkamanninja 转自:http://blog.chinaunix.net/uid-25909619-id-4938395.html 前面粗略分析start_kernel函数,此函数中基本上是对内存管理和各子系统的数据结构初始化.在内核初始化函数start_kernel执行到最后,就是调用rest_init函数,这个函数的主要使命就是创建并启动内核线

linux内存源码分析 - 内存压缩(同步关系)

本文为原创,转载请注明:http://www.cnblogs.com/tolimit/ 概述 最近在看内存回收,内存回收在进行同步的一些情况非常复杂,然后就想,不会内存压缩的页面迁移过程中的同步关系也那么复杂吧,带着好奇心就把页面迁移的源码都大致看了一遍,还好,不复杂,也容易理解,这里我们就说说在页面迁移过程中是如何进行同步的.不过首先可能没看过的朋友需要先看看linux内存源码分析 - 内存压缩(一),因为会涉及里面的一些知识. 其实一句话可以概括页面迁移时是如何进行同步的,就是:我要开始对这

Java显式锁学习总结之五:ReentrantReadWriteLock源码分析

概述 我们在介绍AbstractQueuedSynchronizer的时候介绍过,AQS支持独占式同步状态获取/释放.共享式同步状态获取/释放两种模式,对应的典型应用分别是ReentrantLock和Semaphore,AQS还可以混合两种模式使用,读写锁ReentrantReadWriteLock就是如此. 设想以下情景:我们在系统中有一个多线程访问的缓存,多个线程都可以对缓存进行读或写操作,但是读操作远远多于写操作,要求写操作要线程安全,且写操作执行完成要求对当前的所有读操作马上可见. 分析