NPTL是一个1×1的线程模型,即一个线程对于一个操作系统的调度进程,优点是非常简单。而其他一些操作系统比如Solaris则是MxN的,M对应创建的线程数,N对应操作系统可以运行的实体。(N<M),优点是线程切换快,但实现稍复杂
转
Linux2.6内核实现的是NPTL线程模型,依然是用进程来模拟线程,但新引入了线程组(进程组)的概念,使得实现效率更好。
在2.4内核中,不存在线程组的概念,当运行一个多线程得程序时,使用ps命令,可以看到有许多个进程,在ps命令看来,线程基本上是等同于进程,在信号处理中,情况也是如此,只有指定进程号的线程,可以接收到信号。在2.6内核中引入了线程组的概念,在2.6内核中,如果使用ps命令看,一个多线程的进程,只会显示一个进程,在给线程组中的任何一个线程发送信号的时候,整个线程组中的进程都能收到信号。
在内核task_struct中相关字段如下(位于include/linux/sched.h):
代码: 全选
937 struct task_struct
{
...993
pid_t pid;994
pid_t tgid; ...
1013 struct task_struct *group_leader; /* threadgroup leader
*/
...1017
struct list_head thread_group; ...
1198 };
pid,从字面上是process id,但其实是thread id。
tgid,从字面上,应该是thread group
id,也就是真正的process
id。
这一点,可以从系统调用getpid和gettid中看出来(位于kernel/timer.c)。
代码: 全选
954 asmlinkage long
sys_getpid(void)955 {
956 return current->tgid;
957 }
1100 asmlinkage long
sys_gettid(void)1101 {
1102 return current->pid;
1103 }
group_leader字段,指向线程组中的第一个线程,创建第一个线程的时候,group_leader指向自己,创建其后的线程时,指向第一个线程的task_struct结构;
thread_group,当前进程所有线程的队列,对于group_leader,这是个队列头,对于其后的进程而言,通过这个字段,挂入队列中,可以通过此队列,遍历所有线程。
线程组中各个线程的关系,是在do_fork中设定的,具体的代码在copy_process中(位于kernel/fork.c):代码: 全选
959
copy_process()960 {
...
1112 p->tgid = p->pid;
1113 if (clone_flags &
CLONE_THREAD)1114 p->tgid = current->tgid;
...
1181 p->group_leader =
p;1182
INIT_LIST_HEAD(&p->thread_group); ...
1234 if (clone_flags &
CLONE_THREAD) {1235 p->group_leader =
current->group_leader;1236 list_add_tail_rcu(&p->thread_group,
&p->group_leader->thread_group); ...
1252 }
1254 if (likely(p->pid))
{
...1259
if (thread_group_leader(p)) {
...1266
list_add_tail_rcu(&p->tasks,
&init_task.tasks); ...
1268 }
...
1271 }
...
1320 }
1113-1114行说明在创建线程时,从父进程获取tgid,表明他们在同一个线程组中;1181-1182则对group_leader和thread_group初始化,对于第一个线程,则group_leader就是它自己;1234-1236行,将新创建的线程的group_leader设置成为父进程得group_leader,无论父进程是不是线程组中的第一个线程,它的group_leader都是指向第一个线程的task_struct,同时通过thread_group字段,挂入到第一个线程的thread_group队列中;1266行表明只有线程组中的第一个线程,才会通过tasks字段,挂入到init_task队列中。
在引入线程组概念后,退出部分也引入了一个新的系统调用exit_group(位于kernel/exit.c)
1055 NORET_TYPE
void
1056 do_group_exit(int
exit_code)
1057 {
1058 BUG_ON(exit_code
& 0x80); /* core dumps don‘t get here
*/
1059
1060 if
(current->signal->flags & SIGNAL_GROUP_EXIT)
1061
exit_code = current->signal->group_exit_code;
1062
else if (!thread_group_empty(current)) {
1063 struct
signal_struct *const sig = current->signal;
1064
struct sighand_struct *const sighand =
current->sighand;
1065
spin_lock_irq(&sighand->siglock);
1066 if
(sig->flags & SIGNAL_GROUP_EXIT)
1067 /*
Another thread got here before we took the lock. */
1068
exit_code = sig->group_exit_code;
1069 else
{
1070 sig->group_exit_code =
exit_code;
1071
zap_other_threads(current);
1072 }
1073
spin_unlock_irq(&sighand->siglock);
1074
}
1075
1076
do_exit(exit_code);
1077 /* NOTREACHED
*/
1078 }
在1060行中,current->signal其实是线程组中所有线程共享的,对于调用exit_group的那个线程,如果是一个多线程的进程,就会进入1062-1074这部分代码,如果是单线程,则直接进入do_exit退出进程。这部分代码的主要操作在zap_other_threads中(位于kernel/signal.c)
void zap_other_threads(struct
task_struct *p)
982
{
983 struct task_struct *t;
984
985 p->signal->flags =
SIGNAL_GROUP_EXIT;
986 p->signal->group_stop_count =
0;
987
988 if
(thread_group_empty(p))
989
return;
990
991 for (t = next_thread(p); t
!= p; t = next_thread(t)) {
992 /*
993
* Don‘t bother with already dead threads
994
*/
995 if (t->exit_state)
996
continue;
997
998 /* SIGKILL will be
handled before any pending SIGSTOP */
999
sigaddset(&t->pending.signal, SIGKILL);
1000
signal_wake_up(t, 1);
1001 }
1002
}
next_thread定义在include/linux/sched.h中,如下
651 static inline struct task_struct
*next_thread(const struct task_struct *p)
1652 {
1653 return
list_entry(rcu_dereference(p->thread_group.next),
1654
struct task_struct, thread_group);
1655
}
其实就是通过task_struct中的thread_group队列来遍历线程组中的所有线程。
在其中,会在signal->flags中设置SIGNAL_GROUP_EXIT,同时,搜索线程组中所有进程,在每个线程中挂上一个SIGKILL信号,这样,当那些线程调度到运行的时候,就会处理SIGKILL信号,对于SIGKILL信号的处理,会调用do_group_exit,不过,当这次调用到do_group_exit的时候,将运行到1061行,然后就到了1076行的do_exit。这样,当线程组中的每个线程都运行过一遍后,整个线程组就退出了。
POSIX Thread Library (NPTL)使Linux内核可以非常有效的运行使用POSIX线程标准写的程序。这里有一个测试数据,在32位机下,NPTL成功启动100000个线程只用了2秒,而不使用NPTL将需要大约15分钟左右的时间。
历史
在内核2.6以前的调度实体都是进程,内核并没有真正支持线程。它是能过一个系统调用clone()来实现的,这个调用创建了一份调用进程的拷贝,跟fork()不同的是,这份进程拷贝完全共享了调用进程的地址空间。LinuxThread就是通过这个系统调用来提供线程在内核级的支持的(许多以前的线程实现都完全是在用户态,内核根本不知道线程的存在)。非常不幸的是,这种方法有相当多的地方没有遵循POSIX标准,特别是在信号处理,调度,进程间通信原语等方面。
很显然,为了改进LinuxThread必须得到内核的支持,并且需要重写线程库。为了实现这个需求,开始有两个相互竞争的项目:IBM启动的NGTP(Next
Generation POSIX
Threads)项目,以及Redhat公司的NPTL。在2003年的年中,IBM放弃了NGTP,也就是大约那时,Redhat发布了最初的NPTL。
NPTL最开始在redhat linux 9里发布,现在从RHEL3起内核2.6起都支持NPTL,并且完全成了GNU C库的一部分。
设计
NPTL使用了跟LinuxThread相同的办法,在内核里面线程仍然被当作是一个进程,并且仍然使用了clone()系统调用(在NPTL库里调用)。但是,NPTL需要内核级的特殊支持来实现,比如需要挂起然后再唤醒线程的线程同步原语futex.
NPTL也是一个1*1的线程库,就是说,当你使用pthread_create()调用创建一个线程后,在内核里就相应创建了一个调度实体,在linux里就是一个新进程,这个方法最大可能的简化了线程的实现。
除NPTL的1*1模型外还有一个m*n模型,通常这种模型的用户线程数会比内核的调度实体多。在这种实现里,线程库本身必须去处理可能存在的调度,这样在线程库内部的上下文切换通常都会相当的快,因为它避免了系统调用转到内核态。然而这种模型增加了线程实现的复杂性,并可能出现诸如优先级反转的问题,此外,用户态的调度如何跟内核态的调度进行协调也是很难让人满意。
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/guosha/archive/2008/09/22/2960186.aspx
---------------------------------------------------------------------------
有一个问题一直没有想清楚,请教牛人,谢谢。
资源描述:
系统环境:4个CPU, linux2.6内核,NPTL,SMP。
问题:
(进程是资源单元;线程是执行单元。)
一个进程拥有4个线程,这4个线程同时在4个CPU上运行。
问1:系统的调度单位是进程还是线程呢?(针对linux2.6内核);
问2:如果调度单位是线程,每个线程都应该运行在同一个进程的上下文中,如果这样的话就需要对进程上下文加锁;同时如果有其他进程的线程也运行在同一个CPU上,那么进程的上下文切换会非常频繁?
如果调度单位是进程,又没有办法解释同一个进程中的4个线程同时跑在4个CPU上?
问3:看到一篇文章说“SMP的负载均衡是按进程数计算的”不知道是否正确。
如果正确,同一个进程的所有线程应该分配到同一个CPU上,不解?
答:
问题1: linux内核中的调度单位总是一个进程。但是内核中有对线程的支持。 问题2: 既然在linux的线程就是一个进程.就不存在什么所有线程都在同一进程上下文。而且这个观点是错误的。一个线程是什么?线程只是一个进程的子集。也就是说是一个进程上下文的子集。而且每个线程的上下文的很少有交集。除非两个线程之间需要通信。linux中进程所传建的线程本质就是进程。只不过这些子进程和父进程看到的都是同一地址空间,共享资源。 恢复一个线程的运行只需要恢复线程上下文。既然是线程在运行,何来进程上下文? 线程的实现方式不同.但原理本质一样。 既然linux的调度单位是进程,而线程又是以进程实现的.所以进程的四个线程在4个CPU上同时运行是可能的.只要不存在互斥。 问题3: |
Linux2.6内核实现的是NPTL