Sequential Consistency的定义
Sequential Consistency的精确定义来自于Leslie Lamport老哥(以后我们会多次提到他)。
他本来是定义了基于共享内存的多CPU并行计算的一致性模型,但是也可以推广到分布式系统中,实际上多CPU并行计算也都可以认为是分布式系统。
模型的定义是
the result of any execution is the same as if the operations of all the processors were executed in some sequential order, and the operations of each individual processor appear in this sequence in the order specified by its program
放到分布式系统里,意思就是不管系统怎么运行,得到的结果就好像把所有节点的所有操作按照某个sequential order排序后运行,但是在这个sequential order顺序中,来自同一个节点的操作仍然保持着它们在节点中被指定的顺序。
Sequential Consistency的例子
Leslie Lamport老哥的说法一贯的佶屈聱牙,我们通过几个例子来看一下。图中从左向右表示物理时间,W(a)表示写入数据a,R(a)表示读出数据a。
可以看出,这两个系统都不是很完美,但是它们的模型都可以看做Sequential Consistency,因为通过如下变换,总是可以自圆其说,也就是可以找到符合定义的sequential order。
Sequential Consistency和硬件
也许有人会问,同一个进程中保留操作顺序不是显而易见的么?实际上随着硬件技术,尤其是多核、多CPU技术的发展,一个CPU核心运行的进程,不一定能观测到另一个核心进程的操作顺序。
在论文中,Leslie Lamport老哥举了这样一个例子,有一个互斥算法,要求两个进程不能同时执行临界区方法,a和b两个变量初始值为0。正常情况下,最多一个进程执行临界区方法。
进程1执行序列如下:
a = 1
if (b!=0){
临界区方法
}
进程2执行序列如下:
b = 1
if (a!=0){
临界区方法
}
这个程序在多核CPU机器上运行时,有可能两个进程同时进入临界区。为什么呢?
我们先看一下现代CPU的架构
CPU一般具有多个核心,每个核心都有自己的L1 cache和L2 cache,cache之上还有Load Buffer和Store Buffer。写入时,处理器很有可能仅仅将数据写入Store Buffer,稍后再将Store Buffer中的数据统一写回cache,有可能再过一会儿才将cache的数据写回内存。同样,一个核心读取的数据说不定也已经被另一个核心修改过,只是它不知道而已。
所以上述进程对a和b的赋值,很有可能没被对方感知。
为了保证Sequential Consistency,Leslie Lamport老哥在论文中提出了两个要求:
Each processor issues memory requests in the order specified by its program
Memory requests from all processors issued to an individual memory module are serviced from a single FIFO queue. Issuing a memory request consists of entering the request on this queue.
但是如果在硬件层满足Sequential Consistency,肯定会大大降低效率,所以一般这些工作就会交给上层的软件开发人员来做。
?
原文地址:https://www.cnblogs.com/qfjavabd/p/10938317.html