原因一:距离不同
距离不是主要因素,但是最好懂,所以放在最前面说。内存离CPU
比较远,所以要耗费更长的时间读取。
以3GHz
的CPU
为例,电流每秒钟可以振荡30
亿次,每次耗时大约为0.33
纳秒。光在1
纳秒的时间内,可以前进30
厘米。也就是说,在CPU
的一个时钟周期内,光可以前进10
厘米。因此,如果内存距离CPU
超过5
厘米,就不可能在一个时钟周期内完成数据的读取,这还没有考虑硬件的限制和电流实际上达不到光速。相比之下,寄存器在CPU
内部,当然读起来会快一点。
距离对于桌面电脑影响很大,对于手机影响就要小得多。手机CPU
的时钟频率比较慢(iPhone
为
5s1.3GHz
),而且手机的内存紧挨着CPU
。
原因二:硬件设计不同
苹果公司新推出的iPhone 5s
,CPU
是A7
,寄存器有6000
多位(31
个64
位寄存器,加上32
个128
位寄存器)。而iPhone
的内存是
5s1GB
,约为80
亿位(bit
)。这意味着,高性能、高成本、高耗电的设计可以用在寄存器上,反正只有6000
多位,而不能用在内存上。因为每个位的成本和能耗只要增加一点点,就会被放大80
亿倍。
事实上确实如此,内存的设计相对简单,每个位就是一个电容和一个晶体管,而寄存器的设计则完全不同,多出好几个电子元件。并且通电以后,寄存器的晶体管一直有电,而内存的晶体管只有用到的才有电,没用到的就没电,这样有利于省电。这些设计上的因素,决定了寄存器比内存读取速度更快。
原因三:工作方式不同
寄存器的工作方式很简单,只有两步:(1)找到相关的位,(2)读取这些位。
内存的工作方式就要复杂得多:
- 找到数据的指针。(指针可能存放在寄存器内,所以这一步就已经包括寄存器的全部工作了。)
- 将指针送往内存管理单元(
MMU
),由MMU
将虚拟的内存地址翻译成实际的物理地址。 - 将物理地址送往内存控制器(
memory controller
),由内存控制器找出该地址在哪一根内存插槽(bank
)上。 - 确定数据在哪一个内存块(
chunk
)上,从该块读取数据。 - 数据先送回内存控制器,再送回
CPU
,然后开始使用。
内存的工作流程比寄存器多出许多步。每一步都会产生延迟,累积起来就使得内存比寄存器慢得多。
为了缓解寄存器与内存之间的巨大速度差异,硬件设计师做出了许多努力,包括在CPU
内部设置缓存、优化CPU
工作方式,尽量一次性从内存读取指令所要用到的全部数据等等。