进程间通信机制

注:本分类下文章大多整理自《深入分析linux内核源代码》一书,另有参考其他一些资料如《linux内核完全剖析》、《linux c 编程一站式学习》等,只是为了更好地理清系统编程和网络编程中的一些概念性问题,并没有深入地阅读分析源码,我也是草草翻过这本书,请有兴趣的朋友自己参考相关资料。此书出版较早,分析的版本为2.4.16,故出现的一些概念可能跟最新版本内核不同。

此书已经开源,阅读地址 http://www.kerneltravel.net

一、管道

在Linux 中,管道是一种使用非常频繁的通信机制。从本质上说,管道也是一种文件,但它又和一般的文件有所不同,管道可以克服使用文件进行通信的两个问题,具体表现如下所述。

• 限制管道的大小。实际上,管道是一个固定大小的缓冲区。在Linux 中,该缓冲区的大小为1 页,即4KB,使得它的大小不像文件那样不加检验地增长。使用单个固定缓冲区也会带来问题,比如在写管道时可能变满,当这种情况发生时,随后对管道的write()调用将默认地被阻塞,等待某些数据被读取,以便腾出足够的空间供write()调用写。

• 读取进程也可能工作得比写进程快。当所有当前进程数据已被读取时,管道变空。当这种情况发生时,一个随后的read()调用将默认地被阻塞,等待某些数据被写入,这解决了read()调用返回文件结束的问题。

注意,从管道读数据是一次性操作,数据一旦被读,它就从管道中被抛弃,释放空间以便写更多的数据。

(一)、管道的结构

在Linux 中,管道的实现并没有使用专门的数据结构,而是借助了文件系统的file 结构和VFS 的索引节点inode。通过将两个 file 结构指向同一个临时的 VFS 索引节点,而这个 VFS 索引节点又指向一个物理页面而实现的。如图7.1 所示。

图7.1 中有两个 file 数据结构,但它们定义文件操作例程地址是不同的,其中一个是向管道中写入数据的例程地址,而另一个是从管道中读出数据的例程地址。这样,用户程序的系统调用仍然是通常的文件操作,而内核却利用这种抽象机制实现了管道这一特殊操作。

一个普通的管道仅可供具有共同祖先的两个进程之间共享,并且这个祖先必须已经建立了供它们使用的管道。

注意,在管道中的数据始终以和写数据相同的次序来进行读,这表示lseek()系统调用对管道不起作用。

二、信号

(一)、信号在内核中的表示

中断的响应和处理都发生在内核空间,而信号的响应发生在内核空间,信号处理程序的执行却发生在用户空间。

那么,什么时候检测和响应信号呢?通常发生在以下两种情况下:

(1)当前进程由于系统调用、中断或异常而进入内核空间以后,从内核空间返回到用户空间前夕;

(2)当前进程在内核中进入睡眠以后刚被唤醒的时候,由于检测到信号的存在而提前返回到用户空间。

当有信号要响应时,处理器执行路线的示意图如图33.2 所示。

当用户进程通过系统调用刚进入内核的时候,CPU会自动在该进程的内核栈上压入下图所示的内容:

在处理完系统调用以后,就要调用do_signal()函数进行设置frame等工作。这时内核堆栈的状态应该跟下图左半部分类似(系统调用将一些信息压入栈了):

在找到了信号处理函数之后,do_signal() 函数首先把内核堆栈中存放返回执行点的eip保存为old_eip,然后将eip替换为信号处理函数的地址,然后将内核中保存的“原ESP”(即用户态栈地址)减去一定的值,目的是扩大用户态的栈,然后将内核栈上的内容保存到用户栈上,这个过程就是设置frame.值得注意的是下面两点:

1、之所以把EIP的值设置成信号处理函数的地址,是因为一旦进程返回用户态,就要去执行信号处理程序,所以EIP要指向信号处理程序而不是原来应该执行的地址。

2、之所以要把frame从内核栈拷贝到用户栈,是因为进程从内核态返回用户态会清理这次调用所用到的内核栈(类似函数调用),内核栈又太小,不能单纯的在栈上保存另一个frame(想象一下嵌套信号处理),而我们需要EAX(系统调用返回值)、EIP这些信息以便执行完信号处理函数后能继续执行程序,所以把它们拷贝到用户态栈以保存起来。

这时进程返回用户空间,就会根据内核栈中的EIP值执行信号处理函数。那么,信号处理程序执行完后,怎么返回程序继续执行呢?

信号处理程序执行完毕之后,进程会主动调用sigreturn()系统调用再次回到内核,查看有没有其他信号需要处理,如果没有,这时内核就会做一些善后工作,将之前保存的frame恢复到内核栈,恢复eip的值为old_eip,然后返回用户空间,程序就能够继续执行。至此,内核遍完成了一次(或几次)信号处理工作。

C++ Code


1
2
 
(By default,  the  signal  handler  is invoked on the normal process stack.  It is possible to arrange that the signal handler
 uses an alternate stack; see sigaltstack(2) for a discussion of how to do this and when it might be useful.)

三、System V 的IPC 机制

为了提供与其他系统的兼容性,Linux 也支持3 种system Ⅴ的进程间通信机制:消息、信号量(semaphores)和共享内存,Linux 对这些机制的实施大同小异。我们把信号量、消息和共享内存统称System V IPC 的对象,每一个对象都具有同样类型的接口,即系统调用。就像每个文件都有一个打开文件号一样,每个对象也都有唯一的识别号,进程可以通过系统调用传递的识别号来存取这些对象,与文件的存取一样,对这些对象的存取也要验证存取权限,System V IPC 可以通过系统调用对对象的创建者设置这些对象的存取权限。在Linux 内核中,System V IPC 的所有对象有一个公共的数据结构pc_perm 结构,它是IPC 对象的权限描述,在linux/ipc.h 中定义如下:

C++ Code


1
2
3
4
5
6
7
8
9
10
 
struct ipc_perm
{
    key_t key; /* 键 */
    ushort uid; /* 对象拥有者对应进程的有效用户识别号和有效组识别号 */
    ushort gid;
    ushort cuid; /* 对象创建者对应进程的有效用户识别号和有效组识别号 */
    ushort cgid;
    ushort mode; /* 存取模式 */
    ushort seq; /* 序列号 */
};

在这个结构中,要进一步说明的是键(key)。键和识别号指的是不同的东西。系统支持两种键:公有和私有。如果键是公有的,则系统中所有的进程通过权限检查后,均可以找到System V IPC 对象的识别号。如果键是私有的,则键值为0,说明每个进程都可以用键值0 建立一个专供其私用的对象。注意,对System V IPC 对象的引用是通过识别号而不是通过键。

(一)、信号量

Linux 中信号量是通过内核提供的一系列数据结构实现的,这些数据结构存在于内核空间,对它们的分析是充分理解信号量及利用信号量实现进程间通信的基础,下面先给出信号量的数据结构(存在于include/linux/sem.h 中)

C++ Code


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
 
(1)系统中每个信号量的数据结构(sem)
struct sem
{
    int semval; /* 信号量的当前值 */
    unsigned short  semzcnt;  /* # waiting for zero */
    unsigned short  semncnt;  /* # waiting for increase */
    int sempid; /*在信号量上最后一次操作的进程识别号*/
};

(2)系统中表示信号量集合(set)的数据结构(semid_ds)
struct semid_ds
{
    struct ipc_perm sem_perm; /* IPC 权限 */
    long sem_otime; /* 最后一次对信号量操作(semop)的时间 */
    long sem_ctime; /* 对这个结构最后一次修改的时间 */
    struct sem *sem_base; /* 在信号量数组中指向第一个信号量的指针 */
    struct sem_queue *sem_pending; /* 待处理的挂起操作*/
    struct sem_queue **sem_pending_last; /* 最后一个挂起操作 */
    struct sem_undo *undo; /* 在这个数组上的undo 请求 */
    ushort sem_nsems; /* 在信号量数组上的信号量号 */
};

(3)系统中每一信号量集合的队列结构(sem_queue)
struct sem_queue
{
    struct sem_queue *next;  /* 队列中下一个节点 */
    struct sem_queue **prev;  /* 队列中前一个节点, *(q->prev) == q */
    struct wait_queue *sleeper;  /* 正在睡眠的进程 */
    struct sem_undo *undo;  /* undo 结构*/
    int pid; /* 请求进程的进程识别号 */
    int status; /* 操作的完成状态 */
    struct semid_ds *sma;  /*有操作的信号量集合数组 */
    struct sembuf *sops;  /* 挂起操作的数组 */
    int nsops; /* 操作的个数 */
};

C++ Code


1
2
3
4
5
6
 
struct sembuf
{
    ushort sem_num; /* 在数组中信号量的索引值 */
    short sem_op; /* 信号量操作值(正数、负数或0) */
    short sem_flg; /* 操作标志,为IPC_NOWAIT 或SEM_UNDO*/
};

如果进程被挂起,Linux 必须保存信号量的操作状态并将当前进程放入等待队列。为此,Linux 内核在堆栈中建立一个 sem_queue 结构并填充该结构。新的 sem_queue 结构添加到集合的等待队列中(利用 sem_pending 和 sem_pending_last 指针)。当前进程放入sem_queue 结构的等待队列中(sleeper)后调用调度程序选择其他的进程运行。

当某个进程修改了信号量而进入临界区之后,却因为崩溃或被“杀死(kill)”而没有退出临界区,这时,其他被挂起在信号量上的进程永远得不到运行机会,这就是所谓的死锁。Linux 通过维护一个信号量数组的调整列表(semadj)来避免这一问题。其基本思想是,当应用这些“调整”时,让信号量的状态退回到操作实施前的状态。

(二)、消息队列

Linux 中的消息可以被描述成在内核地址空间的一个内部链表,每一个消息队列由一个IPC 的标识号唯一地标识。Linux 为系统中所有的消息队列维护一个 msgque 链表,该链表中的每个指针指向一个 msgid_ds 结构,该结构完整描述一个消息队列。

C++ Code


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
 
(1)消息缓冲区(msgbuf)
/* msgsnd 和msgrcv 系统调用使用的消息缓冲区*/
struct msgbuf
{
    long mtype; /* 消息的类型,必须为正数 */
    char mtext[1]; /* 消息正文 */
};

(2)消息结构(msg)
struct msg
{
    struct msg *msg_next; /* 队列上的下一条消息 */
    long msg_type; /*消息类型*/
    char *msg_spot; /* 消息正文的地址 */
    short msg_ts; /* 消息正文的大小 */
};

(3)消息队列结构(msgid_ds)
/* 在系统中的每一个消息队列对应一个msgid_ds 结构 */
struct msgid_ds
{
    struct ipc_perm msg_perm;
    struct msg *msg_first; /* 队列上第一条消息,即链表头*/
    struct msg *msg_last; /* 队列中的最后一条消息,即链表尾 */
    time_t msg_stime; /* 发送给队列的最后一条消息的时间 */
    time_t msg_rtime; /* 从消息队列接收到的最后一条消息的时间 */
    time_t msg_ctime; /* 最后修改队列的时间*/
    ushort msg_cbytes; /*队列上所有消息总的字节数 */
    ushort msg_qnum; /*在当前队列上消息的个数 */
    ushort msg_qbytes; /* 队列最大的字节数 */
    ushort msg_lspid; /* 发送最后一条消息的进程的pid */
    ushort msg_lrpid; /* 接收最后一条消息的进程的pid */
};

(三)、共享内存

与消息队列和信号量集合类似,内核为每一个共享内存段(存在于它的地址空间)维护着一个特殊的数据结构shmid_ds,这个结构在include/linux/shm.h 中定义如下:

C++ Code


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
 
/* 在系统中 每一个共享内存段都有一个shmid_ds 数据结构. */
struct shmid_ds
{
    struct ipc_perm shm_perm; /* 操作权限 */
    int shm_segsz; /* 段的大小(以字节为单位) */
    time_t shm_atime; /* 最后一个进程附加到该段的时间 */
    time_t shm_dtime; /* 最后一个进程离开该段的时间 */
    time_t shm_ctime; /* 最后一次修改这个结构的时间 */
    unsigned short shm_cpid; /*创建该段进程的 pid */
    unsigned short shm_lpid; /* 在该段上操作的最后一个进程的pid */
    short shm_nattch; /*当前附加到该段的进程的个数 */
    /* 下面是私有的 */
    unsigned short shm_npages; /*段的大小(以页为单位) */
    unsigned long *shm_pages; /* 指向frames -> SHMMAX 的指针数组 */
    struct vm_area_struct *attaches; /* 对共享段的描述 */
};

我们用图 7.4 来表示共享内存的数据结构shmid_ds 与其他相关数据结构的关系。

某个进程第1 次访问共享虚拟内存时将产生缺页异常。这时,Linux 找出描述该内存的vm_area_struct 结构,该结构中包含用来处理这种共享虚拟内存段的处理函数地址。共享内存缺页异常处理代码对shmid_ds 的页表项表进行搜索,以便查看是否存在该共享虚拟内存的页表项。如果没有,系统将分配一个物理页并建立页表项,该页表项加入 shmid_ds 结构的同时也添加到进程的页表中。这就意味着当下一个进程试图访问这页内存时出现缺页异常,共享内存的缺页异常处理代码则把新创建的物理页给这个进程。因此说,第1 个进程对共享内存的存取引起创建新的物理页面,而其他进程对共享内存的存取引起把那个页添加到它们的地址空间。

当某个进程不再共享其虚拟内存时,利用系统调用将共享段从自己的虚拟地址区域中移去,并更新进程页表。当最后一个进程释放了共享段之后,系统将释放给共享段所分配的物理页。

当共享的虚拟内存没有被锁定到物理内存时,共享内存也可能会被交换到交换区中。

四、Posix 的IPC 机制

信号量:分为命名和匿名信号量。命名信号量通常用于不共享内存的进程之间(内核实现);匿名信号量可以用于线程通信(存放于线程共享的内存,如全局变量),或者用于进程间通信(存放于进程共享的内存,如System V/ Posix 共享内存)。

消息队列、共享内存:与System V 类似。

互斥锁mutex + 匿名信号量:线程通信

互斥锁mutex + 条件变量condition :线程通信

时间: 2024-11-13 14:30:59

进程间通信机制的相关文章

nginx源码分析--进程间通信机制 & 同步机制

Nginx源码分析-进程间通信机制 从nginx的进程模型可以知道,master进程和worker进程需要通信,nginx中通信的方式有套接字.共享内存.信号.对于master进程,从外部接受信号,master进程主要就是监控.接受外部信号,将有必要的信号传递给worker进程,master进程大部分时间都是阻塞在sigsuspend()函数调用上.Worker进程屏蔽了所有的外部信号,那么Master进程就通过套接字和worker进程通信,worker进程修改全局变量,使得worker进程接受

AIDL Service Android进程间通信机制

转载出处:http://www.apkbus.com/home.php?mod=space&do=blog&uid=664680&id=59465 我们知道,在Android app中的众多activity,service等组件可以运行在同一进程中,也可以运行在不同进程中.当组件运行在同一进程中进行通信就显得比较简单,在之前的Android线程间通信机制中已经讲过了:而当它们运行在不同的进程 中时,就需要使用我们本文中所要介绍的Binder机制了. Binder作为一种进程间通信机

android binder 进程间通信机制1-binder 驱动程序

以下内容只大概列个提纲,若要明白其中细节,还请看源码: 申明:本人菜鸟,希望得到大神指点一二,余心足已 binder 设备:/dev/binder binder 进程间通信涉及的四个角色: Client  Service  ServiceManager  Binder驱动程序 一,Binder驱动程序 源码位置:kernel/[vendor]/[codename]/drivers/staging/android/binder.c kernel/[vendor]/[codename]/driver

Linux进程间通信机制

Linux下的通信手段基本上是从Unix平台上的进程通信机制继承而来. Linux下的进程通信通信机制主要包括: 管道(Pipe)及有名管道(named pipe):管道可用于具有亲缘关系进程间的通信,有名管道克服了管道没有名字的限制,因此,除具有管道所具有的功能外,它还允许无亲缘关系进程间的通信: 信号(Signal):信号是比较复杂的通信方式,用于通知接受进程有某种事件发生,除了用于进程间通信外,进程还可以发送信号给进程本身:linux除了支持Unix早期信号语义函数sigal外,还支持语义

android binder 进程间通信机制3-Binder 对象生死

以下概述Binder通信过程中涉及到的四个对象:Binder本地对象.Binder实体对象.Binder引用对象.Binder代理对象的生死. 1.Binder通信的交互过程 1.Client 进程发出进程间通信请求,具体由Client进程中的代理对象通过Binder驱动程序向Server进程中的Binder本地对象发起请求. 2.Binder驱动程序根据Client进程传递过来的Binder代理对象的句柄值找到Binder驱动程序内的Binder引用对象. 3.根据Binder引用对象找到Bi

android binder 进程间通信机制6-Binder进程间通信机制的JAVA接口

Binder间进程通信的JAVA层接口,主要是通过JNI方法来调用Binder库的C/C++接口 在JAVA层,将Service组件称为JAVA服务,Service组件的代理称为JAVA服务代理. 一.ServiceManager的Java层代理对象(ServiceManagerProxy)的获取过程. 个人感觉JAVA层的ServiceManager的Java服务和Java服务代理的实现结构还是很像的,如下: Java服务类关系图: java服务代理的类关系图: ServiceManager代

进程间通信机制<转>

1   文件映射 文件映射(Memory-Mapped Files)能使进程把文件内容当作进程地址区间一块内存那样来对待.因此,进程不必使用文件I/O操作,只需简单的指针操作就可读取和修改文件的内容. Win32 API允许多个进程访问同一文件映射对象,各个进程在它自己的地址空间里接收内存的指针.通过使用这些指针,不同进程就可以读或修改文件的内容,实现了对文件中数据的共享. 应用程序有三种方法来使多个进程共享一个文件映射对象. (1)继承:第一个进程建立文件映射对象,它的子进程继承该对象的句柄.

Linux 进程间通信机制

详细的讲述进程间通信在这里绝对是不可能的事情,而且笔者很难有信心说自己对这一部分内容的认识达到了什么样的地步,所以在这一节的开头首先向大家推荐著 名作者Richard Stevens的著名作品:<Advanced Programming in the UNIX Environment>,它的中文译本<UNIX环境高级编程>已有机械工业出版社出版,原文精彩,译文同样地道,如果你的确对在Linux下编程有浓厚的兴趣,那么赶紧将这本书摆到你的书桌上或计算机旁边来.说这么多实在是难抑心中的

linux 进程间通信机制(IPC机制)- 管道

一,定义: 管道又可以分为无名管道和命名管道,两者的用途是不一样的. 无名管道PIPE:主要用于具有亲缘关系的进程之间的通信,无名管道的通信是单向的,只能由一段到另外一段:无名管道是临时性的,完成通信后将自动消失.一般采用先创建无名管道,再创建子进程,使子进程继承父进程的管道文件描述符,从而实现父子进程间的通信:在非亲缘关系管道之间,如果想利用无名管道进行通信,则需要借助另外的文件描述符传递机制. 有名管道FIFO:有名管道是一个实际存在的特殊文件,利用有名管道可以实现同主机任意进程之间的数据交