Linux内核自旋锁spinlock_t机制

摘自:https://www.jianshu.com/p/f0d6e7103d9b

spinlock用在什么场景?

自旋锁用在临界区代码非常少的情况。

spinlock在使用时有什么注意事项?

  • 临界区代码应该尽可能精简
  • 不允许睡眠(会出现死锁)
  • Need to have interrupts disabled when locked by ordinary threads, if shared by an interrupt handler。(会出现死锁)

spinlock是怎么实现的?

看一下源代码:

typedef struct raw_spinlock {
    arch_spinlock_t raw_lock;
#ifdef CONFIG_GENERIC_LOCKBREAK
    unsigned int break_lock;
#endif
#ifdef CONFIG_DEBUG_SPINLOCK
    unsigned int magic, owner_cpu;
    void *owner;
#endif
#ifdef CONFIG_DEBUG_LOCK_ALLOC
    struct lockdep_map dep_map;
#endif
} raw_spinlock_t;

typedef struct spinlock {
    union {
        struct raw_spinlock rlock;

#ifdef CONFIG_DEBUG_LOCK_ALLOC
# define LOCK_PADSIZE (offsetof(struct raw_spinlock, dep_map))
        struct {
            u8 __padding[LOCK_PADSIZE];
            struct lockdep_map dep_map;
        };
#endif
    };
} spinlock_t;

如果忽略CONFIG_DEBUG_LOCK_ALLOC话,spinlock主要包含一个arch_spinlock_t的结构,从名字可以看出,这个结构是跟体系结构有关的。

加锁流程

加锁的相关源码如下:


#define raw_spin_lock(lock) _raw_spin_lock(lock)

static inline void spin_lock(spinlock_t *lock)
{
    raw_spin_lock(&lock->rlock);
}

_raw_spin_lock完成实际的加锁动作。

根据CPU体系结构,spinlock分为SMP版本和UP版本,这里以SMP版本为例来分析。SMP版本中,_raw_spin_lock为声明为:

void __lockfunc _raw_spin_lock(raw_spinlock_t *lock)        __acquires(lock);

再看_raw_spin_lock的实现,SMP版本中,看_raw_spin_lock最终调用了__raw_spin_lock,__raw_spin_lock的源代码如下:

static inline void __raw_spin_lock(raw_spinlock_t *lock)
{
    // 禁止抢占
    preempt_disable();
    // for debug
    spin_acquire(&lock->dep_map, 0, 0, _RET_IP_);
    // real work done here
    LOCK_CONTENDED(lock, do_raw_spin_trylock, do_raw_spin_lock);
}

LOCK_CONTENDED是一个通用的加锁流程。do_raw_spin_trylock和do_raw_spin_lock的实现依赖于具体的体系结构,以x86为例,do_raw_spin_trylock最终调用的是:

do_raw_spin_trylock的源代码:

static inline int do_raw_spin_trylock(raw_spinlock_t *lock)
{
    // 体系结构相关
    return arch_spin_trylock(&(lock)->raw_lock);
}

以x86为例,arch_spin_trylock最终调用__ticket_spin_trylock函数。其源代码如下:

// 定义在arch/x86/include/asm/spinlock_types.h
typedef struct arch_spinlock {
    union {
        __ticketpair_t head_tail;
        struct __raw_tickets {
            __ticket_t head, tail; // 注意,x86使用的是小端模式,存在高地址空间的是tail
        } tickets;
    };
} arch_spinlock_t;

// 定义在arch/x86/include/asm中
static __always_inline int __ticket_spin_trylock(arch_spinlock_t *lock)
{
    arch_spinlock_t old, new;
    // 获取旧的ticket信息
    old.tickets = ACCESS_ONCE(lock->tickets);
    // head和tail不一致,说明锁正被占用,加锁不成功
    if (old.tickets.head != old.tickets.tail)
        return 0;

    new.head_tail = old.head_tail + (1 << TICKET_SHIFT); // 将tail + 1

    /* cmpxchg is a full barrier, so nothing can move before it */
    return cmpxchg(&lock->head_tail, old.head_tail, new.head_tail) == old.head_tail;
}

从上述代码中可知,__ticket_spin_trylock的核心功能,就是判断自旋锁是否被占用,如果没被占用,尝试原子性地更新lock中的head_tail的值,将tail+1,返回是否加锁成功。

不考虑CONFIG_DEBUG_SPINLOCK宏的话, do_raw_spin_lock的源代码如下:

static inline void do_raw_spin_lock(raw_spinlock_t *lock) __acquires(lock)
{
    __acquire(lock);
    arch_spin_lock(&lock->raw_lock);
}

arch_spin_lock的源代码:

static __always_inline void arch_spin_lock(arch_spinlock_t *lock)
{
    __ticket_spin_lock(lock);
}

__ticket_spin_lock的源代码:

static __always_inline void __ticket_spin_lock(arch_spinlock_t *lock)
{
    register struct __raw_tickets inc = { .tail = 1 };

    // 原子性地把ticket中的tail+1,返回的inc是+1之前的原始值
    inc = xadd(&lock->tickets, inc);

    for (;;) {
        // 循环直到head和tail相等
        if (inc.head == inc.tail)
            break;
        cpu_relax();
        // 读取新的head值
        inc.head = ACCESS_ONCE(lock->tickets.head);
    }
    barrier();      /* make sure nothing creeps before the lock is taken */
}

ticket分成两个部分,一部分叫tail,相当于一个队列的队尾,一个部分叫head,相当于一个队列的队头。初始化的时候,tail和head都是0,表示无人占用锁。
__ticket_spin_lock就是原子性地把tail+1,并且把+1之前的值记录下来,然后不断地和head进行比较。由于是原子性的操作,所以不同的锁竞争者拿到的tail值是不一样的。如果tail值和head一样了,说明这时候没人占用锁了,下一个拿到锁的就是自己了。

举例来说,假设线程A和线程B竞争同一个自旋锁:

  1. 初始化tail=0, head=0,线程A将tail+1, 并返回tail的旧值0,将0和head值比较,相等,于是这时候线程A就拿到了锁。
  2. 线程A这时候也来拿锁,将tail值+1,变成2,返回tail的旧值1,将其和head值0比较,不相等,继续循环。
  3. 线程A用完锁了,将head值+1。
  4. 线程B读取head值,并将其和tail值比较,发现相等,获得锁。

解锁流程

对于SMP架构来说,spin_unlock最终调用的是__raw_spin_unlock,其源代码如下:

static inline void __raw_spin_unlock(raw_spinlock_t *lock)
{
    spin_release(&lock->dep_map, 1, _RET_IP_);
    // 主要的解锁工作
    do_raw_spin_unlock(lock);
    // 启用抢占
    preempt_enable();
}

static inline void do_raw_spin_unlock(raw_spinlock_t *lock) __releases(lock)
{
    arch_spin_unlock(&lock->raw_lock);
    __release(lock);
}

arch_spin_unlock在x86体系结构下的实现代码如下:

static __always_inline void arch_spin_unlock(arch_spinlock_t *lock)
{
    __ticket_spin_unlock(lock);
}

static __always_inline void __ticket_spin_unlock(arch_spinlock_t *lock)
{
    // 将tickers的head值加1
    __add(&lock->tickets.head, 1, UNLOCK_LOCK_PREFIX);
}

考虑中断处理函数

如果自旋锁可能在中断处理处理中使用,那么在获取自旋锁之前,必须禁止本地中断。则,持有锁的内核代码会被中断处理程序打断,接着试图去争用这个已经被持有的自旋锁。这样的结果是,中断处理函数自旋,等待该锁重新可用,但是锁的持有者在该中断处理程序执行完毕之前不可能运行,这就成为了双重请求死锁。注意,需要关闭的只是当前处理器上的中断。因为中断发生在不同的处理器上,即使中断处理程序在同一锁上自旋,也不会妨碍锁的持有者(在不同处理器上)最终释放。

所以要使用spin_lock_irqsave() / spin_unlock_irqrestore()这个版本的加锁、解锁函数。
函数spin_lock_irqsave():保存中断的当前状态,禁止本地中断,然后获取指定的锁。
函数spin_unlock_reqrestore():对指定的锁解锁,让中断恢复到加锁前的状态。所以即使中断最初是被禁止的,代码也不会错误地激活它们。

spinlock的几种变种

  1. rwlock_t 读写锁
  2. seqlock_t 顺序锁

参考资料

Ticket spinklocks
Linux内核源代码

原文地址:https://www.cnblogs.com/LiuYanYGZ/p/12404971.html

时间: 2024-10-31 08:58:26

Linux内核自旋锁spinlock_t机制的相关文章

大话Linux内核中锁机制之原子操作、自旋锁

转至:http://blog.sina.com.cn/s/blog_6d7fa49b01014q7p.html 很多人会问这样的问题,Linux内核中提供了各式各样的同步锁机制到底有何作用?追根到底其实是由于操作系统中存在多进程对共享资源的并发访问,从而引起了进程间的竞态.这其中包括了我们所熟知的SMP系统,多核间的相互竞争资源,单CPU之间的相互竞争,中断和进程间的相互抢占等诸多问题. 通常情况下,如图1所示,对于一段程序,我们的理想是总是美好的,希望它能够这样执行:进程1先对临界区完成操作,

大话Linux内核中锁机制之内存屏障、读写自旋锁及顺序锁

大话Linux内核中锁机制之内存屏障.读写自旋锁及顺序锁 在上一篇博文中笔者讨论了关于原子操作和自旋锁的相关内容,本篇博文将继续锁机制的讨论,包括内存屏障.读写自旋锁以及顺序锁的相关内容.下面首先讨论内存屏障的相关内容. 三.内存屏障 不知读者是是否记得在笔者讨论自旋锁的禁止或使能的时候,提到过一个内存屏障函数.OK,接下来,笔者将讨论内存屏障的具体细节内容.我们首先来看下它的概念,Memory Barrier是指编译器和处理器对代码进行优化(对读写指令进行重新排序)后,导致对内存的写入操作不能

大话Linux内核中锁机制之完成量、互斥量

大话Linux内核中锁机制之完成量.互斥量 在上一篇博文中笔者分析了关于信号量.读写信号量的使用及源码实现,接下来本篇博文将讨论有关完成量和互斥量的使用和一些经典问题. 八.完成量 下面讨论完成量的内容,首先需明确完成量表示为一个执行单元需要等待另一个执行单元完成某事后方可执行,它是一种轻量级机制.事实上,它即是为了完成进程间的同步而设计的,故而仅仅提供了代替同步信号量的一种解决方法,初值被初始化为0.它在include\linux\completion.h定义. 如图8.1所示,对于执行单元A

大话Linux内核中锁机制之信号量、读写信号量

大话Linux内核中锁机制之信号量.读写信号量 在上一篇博文中笔者分析了关于内存屏障.读写自旋锁以及顺序锁的相关内容,本篇博文将着重讨论有关信号量.读写信号量的内容. 六.信号量 关于信号量的内容,实际上它是与自旋锁类似的概念,只有得到信号量的进程才能执行临界区的代码:不同的是获取不到信号量时,进程不会原地打转而是进入休眠等待状态.它的定义是include\linux\semaphore.h文件中,结构体如图6.1所示.其中的count变量是计数作用,通过使用lock变量实现对count变量的保

大话Linux内核中锁机制之RCU、大内核锁

大话Linux内核中锁机制之RCU.大内核锁 在上篇博文中笔者分析了关于完成量和互斥量的使用以及一些经典的问题,下面笔者将在本篇博文中重点分析有关RCU机制的相关内容以及介绍目前已被淘汰出内核的大内核锁(BKL).文章的最后对<大话Linux内核中锁机制>系列博文进行了总结,并提出关于目前Linux内核中提供的锁机制的一些基本使用观点. 十.RCU机制 本节将讨论另一种重要锁机制:RCU锁机制.首先我们从概念上理解下什么叫RCU,其中读(Read):读者不需要获得任何锁就可访问RCU保护的临界

LINUX内核CPU负载均衡机制【转】

转自:http://oenhan.com/cpu-load-balance 还是神奇的进程调度问题引发的,参看Linux进程组调度机制分析,组调度机制是看清楚了,发现在重启过程中,很多内核调用栈阻塞在了double_rq_lock函数上,而double_rq_lock则是load_balance触发的,怀疑当时的核间调度出现了问题,在某个负责场景下产生了多核互锁,后面看了一下CPU负载平衡下的代码实现,写一下总结. 内核代码版本:kernel-3.0.13-0.27. 内核代码函数起自load_

Linux内核中的信号机制--一个简单的例子【转】

本文转载自:http://blog.csdn.net/ce123_zhouwei/article/details/8562958 Linux内核中的信号机制--一个简单的例子 Author:ce123(http://blog.csdn.NET/ce123) 信号机制是类UNIX系统中的一种重要的进程间通信手段之一.我们经常使用信号来向一个进程发送一个简短的消息.例如:假设我们启动一个进程通过socket读取远程主机发送过来的网络数据包,此时由于网络因素当前主机还没有收到相应的数据,当前进程被设置

深入Linux内核架构——锁与进程间通信

Linux作为多任务系统,当一个进程生成的数据传输到另一个进程时,或数据由多个进程共享时,或进程必须彼此等待时,或需要协调资源的使用时,应用程序必须彼此通信. 一.控制机制 1.竞态条件 几个进程在访问资源时彼此干扰的情况通常称之为竞态条件(race condition).在对分布式应用编程时,这种情况是一个主要的问题,因为竞态条件无法通过系统的试错法检测.只有彻底研究源代码(深入了解各种可能发生的代码路径)并通过敏锐的直觉,才能找到并消除竞态条件. 2.临界区 对于竞态条件,其问题的本质是进程

再谈Linux内核中的RCU机制

转自:http://blog.chinaunix.net/uid-23769728-id-3080134.html RCU的设计思想比较明确,通过新老指针替换的方式来实现免锁方式的共享保护.但是具体到代码的层面,理解起来多少还是会有些困难.在<深入Linux设备驱动程序内核机制>第4章中,已经非常明确地叙述了RCU背后所遵循的规则,这些规则是从一个比较高的视角来看,因为我觉得过多的代码分析反而容易让读者在细节上迷失方向.最近拿到书后,我又重头仔细看了RCU部分的文字,觉得还应该补充一点点内容,