Linux内核--并发【转】

本文转自自:http://www.jianshu.com/p/035550ae05d2

为什么会产生并发

1、多个用户同时登陆的时候,他们有可能在任何时刻以任意的组合调用内核代码。

2、smp系统可能同时在不同的处理器上执行你的代码。

3、内核代码是抢占式的,你的程序有可能随时被剥夺掉处理器。

4、设备中断可能导致并发的异步事件。

5、内核也提供了各种延迟代码执行机制,如工作队列等,任务队列和定时器,它可以使你在与当前进程无关的方法中运行代码

并发带来的影响

并发产生了竞争条件,比如两个进程同时访问相同的硬件资源

应对的基本原则是:尽量避免共享数据

如果无法避免那就一定要注意共享的数据。

Linux 的 信号量

#include <linux/semaphore.h>

/*
* Copyright (c) 2008 Intel Corporation
* Author: Matthew Wilcox <[email protected]>
*
* Distributed under the terms of the GNU GPL, version 2
*
* Please see kernel/semaphore.c for documentation of these
functions
*/
#ifndef __LINUX_SEMAPHORE_H
#define __LINUX_SEMAPHORE_H
#include <linux/list.h>
#include <linux/spinlock.h>
/* Please don‘t access any members of this structure directly */
struct semaphore {
    raw_spinlock_t lock;
    unsigned int count;
    struct list_head wait_list;
};
#define __SEMAPHORE_INITIALIZER(name , n)
{
    .lock = __RAW_SPIN_LOCK_UNLOCKED((name).lock),
    .count = n,
    .wait_list = LIST_HEAD_INIT((name).wait_list),
} #
define DEFINE_SEMAPHORE(name) struct semaphore name = __SEMAPHORE_INITIALIZER(name , 1)
static inline void sema_init(struct semaphore *sem, int val)
{
    static struct lock_class_key __key;
    *sem = (struct semaphore) __SEMAPHORE_INITIALIZER(*sem, val);
    lockdep_init_map(&sem->lock.dep_map , "semaphore ->lock", &__key , 0);
}
extern void down(struct semaphore *sem);
extern int __must_check down_interruptible(struct semaphore *sem);
extern int __must_check down_killable(struct semaphore *sem);
extern int __must_check down_trylock(struct semaphore *sem);
extern int __must_check down_timeout(struct semaphore *sem, long jiffies);
extern void up(struct semaphore *sem);
#endif /* __LINUX_SEMAPHORE_H */

down方法将信号量的值减一然后等到信号量的值大于等于零继续执行。

down_interruptible跟down类似但是可以被中断,建议使用这个API,只使用down容易造成该线程永远无法退出。

一般的使用方法是:

if (down_interruptible(&sem))
    return -ERESTARTSYS;

读写信号量

一种常见的信号量,针对共享文件,允许多个线程同时读,而读的时候不允许写。在同一时间只允许一个线程写。

#include <linux/rwsem.h>

自旋锁

自旋锁最初是为了SMP系统设计的,实现在多处理器情况下保护临界区。
自旋锁只有两种状态,上锁,未上锁,经常被用来确保一段代码的原子性

spinlock API:

void spin_lock(spinlock_t *lock);
void spin_lock_irqsave(spinlock_t *lock , unsigned long flags);
void spin_lock_irq(spinlock_t *lock);
void spin_lock_bh(spinlock_t *lock);

读写自旋锁

linux内核提供了读写自旋锁,实际上它与读写信号量很相似。

上锁的要求

1、如果你在自己的代码里实现了一个设备锁,而你也要套用到linux内核提供的锁,请先把自己的锁锁上,再把系统的锁锁上。

2、如果你使用信号量和自旋锁,请先down信号量,再使用自旋锁。

3、确保自旋锁内没有其他的锁,以防系统被死锁。

时间: 2024-10-29 00:15:34

Linux内核--并发【转】的相关文章

linux内核并发情景

通过<linux内核并发基本概念>,我们看到了,对于并发访问共享资源,造成的运行结果与预期的不一致问题,这样的结果是软件设计者不能允许的.我们知道,我们编写一个软件一定是需要软件实现特定的功能,如果我们在设计的时候,期望得到结果A,但实际软件运行中却得到的结果B,那么这个软件是相当糟糕的,因此,对于并发引起的竞态,是我们在设计内核和驱动软件时,必须要留意的. 在<linux内核并发基本概念>中,通过一个简单的并发的场景,引出了竞态.共享资源和临界区等概念.接下来,本文就linux内

linux内核并发基本概念

在讨论linux内核并发之前,我们先来分享一个情景. 字符数组array是一个内核全局数组,执行函数ArrayWrite_A的线程称为线程A,执行函数ArrayWrite_B的线程称为线程B.线程A和线程B均可访问全局数组array,ArrayWrite_A函数实现的功能是将数组成员依次从0递增赋值到9,ArrayWrite_B函数实现的功能是将数组成员全部赋值为1. 假设此时线程A运行到函数ArrayWrite_A,我们期望的结果是函数ArrayWrite_A执行完后,数组array中的成员应

Linux内核分析(七)----并发与竞态

Linux内核分析(七) 这两天家里的事好多,我们今天继续接着上一次的内容学习,上次我们完善了字符设备控制方法,并深入分析了系统调用的实质,今天我们主要来了解一下并发和竞态. 今天我们会分析到以下内容: 1.      并发和竞态简介 2.      竞态解决办法 3.      为我们的虚拟设备增加并发控制 在前几次博文我们已经实现了简单的字符设备,看似完美但我们忽视了一个很严重的问题,即并发问题,那么什么是并发,又如何解决并发呢,我们下面进行分析. l  并发和竞态简介 1.       并

修改Linux内核参数提高Nginx服务器并发性能

当linux下Nginx达到并发数很高,TCP TIME_WAIT套接字数量经常达到两.三万,这样服务器很容易被拖死.事实上,我们可以简单的通过修改Linux内核参数,可以减少Nginx服务器 的TIME_WAIT套接字数量,进而提高Nginx服务器并发性能.   vi /etc/sysctl.conf   增加以下几行: net.ipv4.tcp_fin_timeout = 30 net.ipv4.tcp_keepalive_time = 1200 net.ipv4.tcp_syncookie

nginx 高并发参数配置及linux内核参数优化

一.一般来说nginx 配置文件中对优化比较有作用的为以下几项: 1.  worker_processes 8; nginx 进程数,建议按照cpu 数目来指定,一般为它的倍数 (如,2个四核的cpu计为8). 2.  worker_cpu_affinity 00000001 0000001000000100 00001000 00010000 00100000 01000000 10000000; 为每个进程分配cpu,上例中将8 个进程分配到8 个cpu,当然可以写多个,或者将一个进程分配到

基于Nginx实现10万+并发,你应该做的Linux内核优化

由于默认的linux内核参数考虑的是最通用场景,这明显不符合用于支持高并发访问的Web服务器的定义,所以需要修改Linux内核参数,是的Nginx可以拥有更高的性能: 在优化内核时,可以做的事情很多,不过,我们通常会根据业务特点来进行调整,当Nginx作为静态web内容服务器.反向代理或者提供压缩服务器的服务器时,期内核参数的调整都是不同的,这里针对最通用的.使Nginx支持更多并发请求的TCP网络参数做简单的配置: 首先,你需要修改/etc/sysctl.conf来更改内核参数. fs.fil

Linux高并发内核优化-TougheRadius

linux 内核优化 默认情况下,linux系统有一些限制,并不能直接支持高并发性能,需要做一些内核优化. 1.把以下内容加入 /etc/sysctl.conf 1 net.ipv4.ip_forward=1 2 net.ipv4.tcp_syncookies = 1 3 net.ipv4.tcp_tw_reuse = 1 4 net.ipv4.tcp_tw_recycle = 1 5 net.ipv4.tcp_fin_timeout = 30 6 net.ipv4.tcp_keepalive_

【读书笔记】《Linux内核设计与实现》内核同步介绍&内核同步方法

简要做个笔记,以备忘. 需同步的原因是,我们并发访问了共享资源.我们将访问或操作共享资源的代码段称"临界区",如果两个执行线程处于同一临界区中同时执行,称"竞争条件".这里术语执行线程指任何正在执行的代码实例,如一个在内核执行的进程.一个中断处理程序或一个内核线程. 举个简单例子,i++操作.该操作可以转换为下面的机器指令序列: 1.得到当前变量i的值,并保存到一个寄存器. 2.将寄存器的值加1. 3.将i的新值写回到内存中. 当两个线程同时进入这个临界区,若i初值

linux内核探索之内存管理(二):linux系统中的内存组织--结点、内存域和页帧

本文主要参考<深入linux内核架构>(3.2节)及Linux3.18.3内核源码 概述:本文主要描述了内存管理相关的数据结构:结点pg_data_t.内存域struct zone以及页帧(物理页):struct page ,以及该结构相关的一些基本概念. 1. 概述 内存划分为接点,每个结点关联到系统中的一个处理器,在内核中表示为pg_data_t. 各个结点又划分为内存域,比如DMA内存域,高端内存域,普通内存域. 内核内存域的宏: enum zone_type { #ifdef CONF