经典之计算机内存管理

操作系统内存管理

	内存是计算机中须要我们认真管理的重要资源。程序大小的增长速度比内存容量的增长要快得多。帕金森定律指出:“无论存储器有多大,程序都能够把它填满”。

人们提出一个非常重要的概念就是“分层存储体系”,这个体系包含:快速缓存(cache),内存。磁盘。可移动存储装置。

操作系统的工作就是将这个存储体系抽象为一个实用的模型并管理这个抽象模型。

一:无存储器抽象

最简单的存储器抽象就是根本没有抽象。每个程序都直接訪问物理内存。

在这样的情况下,要想在内存中同一时候执行两个程序是不可能的。比方:第一个程序在5位置写入一个值,将会擦掉第二个程序存放在同样位置上的全部内容,所以同一时候执行这两个程序就会出错或立马崩溃。

只是即使存储器模型就是物理内存。还存在一些可行选项的:)

上图展示的3种变体。

第一个被用在大型机和小型计算机上,如今非常少使用了。

第二个被用在一些掌上电脑和嵌入式系统中。

第三个被用于早期个人计算机中,比如执行MS-DOS的计算机,在ROM中的系统部分称为BIOS。第一种和第三种方案的缺点是用户程序出现的错误可能摧毁操作系统,引发灾难性后果(比方篡改磁盘)。

在不使用内存抽象的情况下执行多道程序

以下用 IBM360使用的解决方案举例:

首先内存被划分为2KB的块,每一个块被分配一个4位的保护键保护键存储在CPU的特殊寄存器中。

比方:一个昂内存为1MB的机器仅仅须要512个块,须要512个这种4位寄存器,总容量共为256字节。

PSW(Program Status Word, 程序状态字)中存有一个4位码。一个执行中的进程假设訪问保护键与其PSW码不同的内存,360的硬件就会捕获到这一事件。由于仅仅有操作系统能够改动保护键,这样就能够防止用户进程之间,用户进程和操作系统之间的互相干扰。

但是,IBM360这样的方法有一个重要的缺陷。举一个样例

如果我们有两个程序。每一个大小为16KB。看看下图:

第一个程序一開始就跳转到地址24。那里是一条MOV指令。 第二个程序一開始跳转到地址28,那里是一条CMP指令。

(与讨论无关的没有画 出来)。当两个程序连续地装载到内存中从0開始的地址时,内存中的状态就如同最右边所看到的。

(我们如果系统在高地址处。图中没有画出来),如今。让我们来执行这两个程序:

程序装载完毕后就能够执行了,因为他们的内存键不同,它们不会破坏对方的内存。

当第一个程序開始执行时。它执行了JMP 24。然后结果也是我们想要看到的,可是。当第一个程序执行一段时间后,操作系统可能会决定開始执行第二个程序。即装载在第一个程序上的地址16384处的程序。这个程序第一条指令为JMP 28。则这条指令会跳到ADD指令那里去而不是事先设定好的跳转到CMP指令。因为对内存的不对訪问。这个程序非常可能在1秒之内就崩溃了。

分析:

这里的问题是这两个程序都引用的绝对物理地址而这正是我们最须要避免的。以下是IBM 360对上述问题的补救方案就是在第二个程序装载到内存的时候,使用静态重定位的技术改动它。他的工作方式例如以下:当一个程序被装载到地址16384时,常数16384被加到每个程序地址上。尽管这个机制在不出错的情况下是可行的。但这不是一种通用的解决的方法,同一时候会减慢装载速度。并且,它要求给全部可运行程序提供额外的信息来区分哪些内存字中存有(可重定位)地址,哪些没有。可是又不如像
MOV REGISTER1, 28里的28就是不可被重定位的。装载器须要一定的方法来辨别地址和常数。

最后,事实上缺少内存抽象的情况在嵌入式系统和智能卡系统中还是非经常见的!比方。收音机,洗衣机和微波炉这种设备都已经全然被(ROM形式的)软件控制,而且软件都採用訪问绝对内存地址的寻址方式。

这些设备之所以可以正常工作,是由于全部执行的程序都是可以事先确定的,用户可不能再洗衣机或者烤面包机上自由执行自己的软件吧。

二:有存储器抽象

总之把物理地址暴漏给进程会带来以下几个严重问题。

1:假设用户程序能够寻址内存每一个字节,他们就能够轻松地破坏操作系统。(除非有特殊的硬件保护。比如上面提到的IBM360锁键模式)

2:这样的模型,假设想要同一时候执行多个程序(假设仅仅有一个CPU轮转)是非常困难的。

1:地址空间的概念

再说地址空间之前,我们聊一聊。要保证计算机同一时候执行多个程序而不互相影响。必须解决两个问题:保护和重定位。

还是用上面的样例IBM360来说:它给内存块标记上一个保护键,而且比較执行进程的键和其訪问的每一个内存字的保护键。然而这样的方法在解决重定位时用的是:用过程序被装载时重定位来解决,但这是一个缓慢而复杂的解决的方法。

接下来我们来讲这个更好的办法:地址空间。

地址空间是一个进程可用于寻址的一套地址集合。每一个程序都有一个自己的地址空间。而且这个地址空间独立于其它进程的地址空间(除了一些特殊情况下进程须要共享它们的地址空间外)。这和进程的概念创在一类抽象CPU以执行程序思想基本一样。我们能够想一想,我们怎么做能够使得一个程序中的地址28所相应的物理地址与还有一个程序中的地址28相应的物理地址不同

解决的方法是使用一种简单的动态重定位,就是简单地把每一个进程的地址空间映射到物理内存的不同部分。

从CDC6600到Intel8088,使用的就是给每一个CPU配置两个特殊的硬件寄存器,各自是基址寄存器和界限寄存器。所以使用程序装载到内存中连续的空暇位置且装载期间无须重定位。举个样例:当一个程序执行时。程序的起始物理地址装载到基址寄存器,程序的长度装载到界限寄存器。所以在上图中,第一个程序执行时,寄存器值分别为0和16384。第二个程序执行时。为16384和32768。每一次进程訪问内存。取一条指令,读或写一个数据字,CPU硬件会把地址发送到内存总线前。自己主动把基址值加到进程发出的地址值上,同一时候检查提供的地址是否=或>界限寄存器里的值。

假设越界就会产生错误并终止訪问。

比方运行 JMP 28指令,可是硬件就会解释成为JMP 16412,所以程序如我们所愿的跳转到了CMP指令。在上图中第二个程序运行过程中。基址寄存器和界限寄存器的设置例如以下图:

在CDC6600(世界上最早的超级计算机)中就提供了对这些寄存器的保护。但在Intel8088中则没有,甚至连界限寄存器都没有,但却提供了多个基址寄存器,是程序的代码和数据,是程序的代码和数据能够被独立地重定位。可是没有提供引用的地址越界的预防机制。

使用基址寄存器和界限寄存器重定位的缺点是:每次訪问内存都须要进行加法和比較运算。比較能够做的非常快。可是加法因为进位传递时间问题,在没有使用特殊电路的情况下会显得非常慢。

2:交换技术和虚拟内存

首先我们来说一说在一个典型的的Windows或Linux系统中,在计算机完毕引导后,会启动40~50个甚至很多其它的进程。比如。当一个Windows应用程序安装后,一般会发出一系列命令,使得在此后的系统中会启动一个只用于查看该应用程序更新的进程。这样一个进程会轻易占领5~10MB的内存。

还有其它后台进程还会查看所收到的邮件和进来的网络连接,以及其它非常多诸如此类的任务。而且,这一切发生都在第一个用户程序启动之前。当前重要的应用程序能轻易地占领50~200MB甚至很多其它的空间。

所以。把全部进程一直保存在内存中须要巨大的内存。

有两种处理内存超载的通用方法。各自是交换技术和虚拟内存。

1)交换技术

交换操作系统操作例如以下图所看到的:

開始时内存中仅仅有进程A。之后创建了进程B和C或者从磁盘将它们换入内存。

上图d)显示A被交换到磁盘。

然后d)被调入。B被调出,最后A再被调入。能够看到A的位置生变化,所以在它换入的时候通过软件或者在程序执行期间通过硬件对其它地址进行重定位。比如,在这里就能够非常好地使用基址寄存器和界限寄存器。

交换在内存中非常明显会产生多个空暇区(hole。也称为空洞),通过吧所有的进程尽可能向下移动,有可能将这些小的空暇区合成一大块。该技术称为内存紧缩。但这个错做我们一般不进行它。由于它太慢了。比方:一台1GB内存的计算机能够没20ns复制4个字节,它紧缩所有内存大约花费5S!。

我们先来考虑一个问题,当进程被创建或换入时应该为它分配多大的内存。若进程创建时其大小固定的并且不再改变,则分配非常easy,操作系统准确地依照其须要的大小进行分配。不多也不少。可是假设进程的数据段能够增长,比如。程序从堆中动态地分配内存没那么当进程空间试图增长时,就会出现故障。1)进程与一个空暇区相邻。那么能够吧这个空暇区分配给该进程让它在这个空暇区增大。2)进程与还有一个进程相邻,那么把增长的程序移到还有一个足够大的区域中去,要么把一个或多个进程换出去。以便生成一个足够大的空暇区。若一个进程在内存中不能增长。并且磁盘上的交换区也满了。那么这个进程仅仅有挂起等待了,知道一些空暇区(或者能够结束该进程)。

为了降低因内存区域不够而引起的进程交换和移动所产生的开销,一种可用方法是:当换入或移动时为他们分配额外的内存。

然而。当进程被换出到磁盘上时。应该仅仅交换进程实际上使用的内存中的内容。讲额外内存交换出去是一种浪费。

下图读者能够看到一中已经为两个进程分配了增长空间的内存配置。

a)图是为可能增长的数据段预留空间,b)图为可能增长的数据段和堆栈预留空间。

进程有两个可增长的段,比如,一个是变量动态分配和释放的作为堆使用的一个数据段,还有一个是存放普通局部变量与返回地址的一个堆栈段,则如图b)所看到的,在图中能够看到所看到的进程的堆栈段在进程所占内存的顶端并向下增长。紧接着在程序段后面的数据段向上增长。

在这两者之间的内存可供两个段使用,用完了。则进程必须移动到足够大的空暇区中(它能够被交换出内存直到内存中有足够的空间),或者结束该进程。

空间内存管理

在动态分配内存时,操作系统必须对其进行管理。一般而言,有两种方式跟踪内存使用情况:位图和链表。

以下就来介绍

?one:使用位图进行管理

首先内存被划分成小到几千字或大到几千字节的分配单元。每一个分配单元相应于位图中的一位。0表示空暇,1表示占用(自定义的)。

举个样例例如以下图所看到的:

上图是一段有5个进程和3个空暇区的内存,刻度表示内存分配的单元。阴影区域表示空暇(为图中用0表示),分配单元大小是一个重要的设计因素。分配单元越小。位图越大。

然而即使仅仅有4个字节大小的分配单元,32位内存也仅仅须要位图中的1位。32n位的内存须要n位的位图,所以位图仅仅占用了1/33的内存。若选择比較大的分配单元,则位图更小。但若进程的大小不是分配单元的整数倍,那么最后一个单元就会有一定数量的内存被浪费了。内存单元大小+分配单元的大小 决定了-> 位图的大小,所以这是一个提供一块固定大小的内存就能对内存使用情况进行记录的方法。

位图的缺点是:在一个站K个分配单元的进程调入内存时,存储器管理器必须搜索位图。在位图中找出有K个连续的0的串,这是非常耗时的!

two:使用链表进行管理

链表管理例如以下图,就不在过多赘述了。

当进程终止被换出时链表的更新很直接,例如以下图四种情况所看到的:

对于链表管理很多其它的能够自己上网百度,这里仅仅是简单的介绍下。

2)虚拟内存

基址寄存器和界限寄存器能够用于创建地址空间的抽象,可是。还有一个问题来了须要解决,就是管理软件的膨胀。尽管存储器容量增长高速。可是软件增长更快!发展到后面结果是,须要执行的程序往往达到内存无法容纳。并且必定须要系统能够支出多个程序同一时候执行,尽管也许内存能够满足一个程序的须要。可是整体看来,他们仍然超出了内存大小,所以交换技术不是已经不是一个好的选择了。

原因是,一个典型的SATA磁盘的峰值最高达到100MB/S。这意味着至少须要10秒才干换出一个1GB的程序,并须要还有一个10秒才干将一个1GB的程序换入。

所以我们用到了一个方法称为虚拟内存(virtual memory)。其基本思想是:每一个程序拥有自己的地址空间,这个空间被切割成多个块,每一块称为一页或页面。

每一页有连续的地址范围。这些页被映射到物理内存,并非全部的页必须在内存中才干运行程序。当程序引用到一部分在物理内存中的地址空间时,由硬件立马运行必要的映射。当不在时,有操作系统负责将缺失的部分装入物理内存并又一次运行失败的指令。

从某个角度讲,虚拟内存是对基址寄存器和界限寄存器的一种综合。

比如,8088为正文和数据分离出专门的基址寄存器(上面提到过8088不包含界限寄存器)。而虚拟地址使得整个地址空间能够用相对较小的单元映射到物理内存,而不是为正文段和数据段分别进行重定位。虚拟内存适合在多道程序中使用,很多片段同一时候保存在内存中。

当一个程序等待它的一部分读入内存时,能够把CPU交给还有一个进程使用。以下我们来介绍分页吧:

分页:

大部分虚拟内存都是用的一种称为分页的技术。程序指令比方:MOV REG, 1000,他把地址1000的内存单元的内容拷贝到REG中。

由程序产生的地址称为虚拟地址,他们构成了虚拟地址空间。在有虚拟内存的情况下,虚拟地址不是被直接送到内存总线上的,而是被送到内存管理单元(Memory Management Unit, MMU),MMU把虚拟地址映射为物理内存地址,例如以下图所看到的:

详细分页过程请看下图。

在这个图中,有一台能够产生16位地址的计算机,地址范围从0K到64K。且这些地址是虚拟地址。然而。能够看到这台计算机仅仅有32KB的物理内存,因此,尽管能够编写64KB的程序。但它们却不能被全然调入内存执行,在磁盘上必须有一个能够大到64KB的程序核心的完整副本,以保证程序片段在须要时能被调入内存。虚拟地址空间依照固定大小划分成称为页面(page)的若干单元。在物理内存中相应的单元称为页框(page
frame)。页面和页框一般大小一样,本例,我们将其设为4KB(所以当中12位来表示偏移量,这里不懂没关系。后面会有解释)。相应于64KB的虚拟地址空间和32KB的物理内存,我们得到16个虚拟页面和8个页框。

RAM和磁盘之间的交换总是以整个页面为单元进行的。

我们举个样例吧: MOV REG, 8192

由于虚拟地址8192虚拟页面2中,即8k到12k的页面(页面从0開始计数),它被映射到了物理页框6中(即24576~28671)。所以上述指令就为:MOV REG, 24576

通过恰当的设置MMU。能够把虚拟页面映射到8个页框中的不论什么一个。

可是这并没有解决虚拟地址空间比物理内存大的问题。当我们訪问一个未映射的页面, MOV REG, 32780将会发生什么呢?

首先虚拟页面8(他的范围是32768~36863)的第12个字节相应物理地址时什么呢?MMU注意到该页面没有被映射(图中用X表示),于是CPU陷入到操作系统,这个陷阱被称为缺页中断(page fault)。

他的处理分为3步:1)假设操作系统决定放弃页框1,那么它将把虚拟页面8装入物理地址8192,并对MMU映射做两处改动。2)首先他要标记虚拟页面1表项为未映射。3)随后把虚拟页面8的表项的叉号改为1。所以在引起陷阱的指令又一次启动时,它将把虚拟地址32780映射为物理地址4108(4096+12)。

接下来我们看一下MMU内部结构吧。看看它是怎样工作的,了解为什么我们选用的页面大小都是2的整数次幂。看下图:

上图能够看到一个虚拟地址的样例,虚拟地址8196(二进制为001000000000100)用上图所看到的的MMU进行映射,输入为16位虚拟地址被分为4位的页面号和12位的偏移量。4位页号能够表示16个页面,12位偏移量能够为一页的所有4096个字节编址。

可用页号作为页表的索引,从而得出相应于虚拟页面的页框号。假设在/不在位是0。则将引起一个操作系统陷阱。假设是1,则将在页表中查到页框号拷贝到输出寄存器的高3位,再加上输入虚拟地址中的低12位偏移量。如此就构成了15位的物理地址。输出寄存器的内容随即被作为物理地址送到内存总线。

总结:虚拟地址被分成虚拟页号(高位部分)和偏移量(低位部分)两部分。

比如,对于16位地址和4KB的页面大小,高4位能够指定16个虚拟页面中的一页。而低12位接着确定了所选页面中的字节偏移量(0~4095)。

使用3或5或其它位数拆分虚拟地址也是可行的。不同划分相应不同的页面大小。

对于页表本身他还有非常多位的标志,比方有改动位,訪问位。快速缓存禁止位,保护位。

不同计算机的页表大小可能不一样,但32位是一个经常使用的大小。

页框号:映射的目的就是找到这个值。

在/不在位:1是有效,0则表示该表项相应的虚拟页面不在内存中,訪问该页面会引起一个缺页中断。

保护位:支出一个页同意什么类型的訪问。比方:0->读/写, 1->仅仅读。

改动位:它是用来记录页面使用情况的。

在写入一页时有硬件自己主动设置改动位。假设一个页面被改动过,那么就是“脏”的,则必须把它写回磁盘。

反之就是“干净”的,简单地丢弃就能够了。这一位有时也被称为脏位。

訪问位:系统会在该页面被訪问时设置訪问位。

他的作用是帮助操作系统在发生缺页中断时选择要淘汰的页面。

不再使用的页面要比正在使用的更适合淘汰。这一位在页面置换算法中非常重要。

快速缓存禁止位:对那些映射到设备寄存器而不是常规内存的页面而言,这个特性是很重要的。

比如:操作系统正在紧张地循环等待某个I/O设备对它刚发出的命令做出对应,保证硬件是不断地从设备中读取数据而不是訪问一个旧的被快速缓存的副本是很重要的。通过这一位能够禁止快速缓存。具有独立I/O空间而不使用内存映射I/O的机器不须要这一位。

加速分页的过程

在不论什么分页式系统中,都须要考虑两个主要问题:

1)虚拟地址到物理地址的映射必须很快。

2)假设虚拟地址空间非常大,页表也会非常大。

对于大而高速的页映射的需求成为构建计算机的重要约束。比如:如果一条指令要把一个寄存器的数据拷贝到还有一个寄存器。在不分页的情况下,这条指令仅仅訪问一次内存。即从内存中取指令。分页后。则由于要訪问页表而引起多次的訪问内存。

运行速度通常被CPU从内存中取指令和数据的速度所限制。所以每次内存訪问必须进行两次页表訪问会减少一半的性能,这样没人会使用分页机制。

解决方式是建立一种现象:大多数程序总是对少量的页面进行多次訪问,而不是相反的,因此,仅仅有非常少的页表会被重复读取,而其它的页表非常少被訪问。

所以这个方法是为计算机设置一个小型的硬件设备,将虚拟地址直接映射到物理地址。而不是再訪问页表,这样的设备称为转换检測缓冲区(Translation Lookaside Buffer, TLB)。有时又称为相联存储器。

当中每一个表项都记录一个页面相关信息。包含虚拟页号,改动位,保护位,物理页框。另一位用来记录这个表项是否有效。

如今来看一下TLB是怎样工作的。将一个虚拟地址放入MMU中进行转换时,硬件首先通过将该虚拟页号与TLB中全部表项同一时候(就是并行)进行匹配,推断虚拟页号是否在当中。假设发现了一个有效的匹配而且要进行的訪问操作并不违反保护位。则将页框号直接从TLB中取出而不必再訪问页表。

当虚拟页号不在TLB中,MMU检測到没有有效匹配项,就会进行正常的页表查询。接着从TLB中淘汰一个表项。然后用新找到的页表取代它。

这样,假设以这一页面非常快再被訪问,第二次訪问TLB时自然会命中而不是不命中。

当一个表现被清除出TLB时,将改动位拷贝到内存中的页表项,除了訪问位。其它值不变。当页表项中从页表装入TLB中时,全部的值都来自内存。

针对大内存的页表

在引入块表后能够加速虚拟地址到物理地址的转换。只是这不是唯一须要解决的问题,还有一个问题是如何处理巨大的虚拟地址空间。

多级页表

举一个样例,先看下图吧:

32位虚拟地址呗划分为10位PT1域。10位PT2域和12位Offset域。

由于偏移量为12。所以页面长度是4KB。共同拥有2的20次方个页面。

在上图,顶级页表具有1024个表项。它相应于10位PT1,当一个虚拟地址被送到MMU时,MMU首先提取出PT1并把该值作为訪问顶级页表的索引。由于整个4GB(原因是32位)虚拟地址空间已经被划分成1024个4MB的块,所以这1024个表项每个都表示4MB的虚拟地址空间。

索引顶级页表得到的表项中含有二级页表的地址或页框号。顶级页表的表项0指向程序正文的页表,表项1指向数据的页表。表项1023指向堆栈的页表。其它的表项未用。如今把PT2作为訪问选定的二级页表的索引。也变找到相应的页框号。

举个样例:考虑32位虚拟地址0x00403004位于数据部分12292字节处。它的虚拟地址相应PT1=1,PT2=3。Offset=4。MMU首先用PT1作为索引訪问顶级页表得到表项1,它相应地址范围是4M~8M。然后用PT2作为我引訪问并得到表项3。它相应的地址范围是在它的4M快内的12288~16383(即绝对地址4206592~210687)。这个表项含有地址所在的页框号。

假设不存在内存则缺页中断,否则从二级页表中得到页框号和偏移量结合成物理地址。

值得注意的是。尽管上图超过100万个页面。但实际值须要4个页表:顶级页表和0~4M正文段,4M~8M的数据段和顶端4M堆栈段的二级页表。

其它都被设为0(不在)。

随着64位计算机的普遍。情况发生了彻底的变化。假设地址空间是2的64次方。页面还是4KB,则须要2的25次方(42-12=52)个表项的页表。假设一个页表有8个字节,则整个页就会超过3000万GB。

因此64位分页虚拟地址空间的系统须要一个不同的解决方式。例如以下

倒排页表

顾名思义,这样的方案是在实际内存中每个页框有一个表项。而不是每个虚拟地址页面有一个表项。

比如64位虚拟地址,4KB的页,1GB的RAM,一个倒排页表仅须要262144个表项。

尽管节省了大量空间,可是它从虚拟地址到物理地址的转换会变得非常困难。走出这样局面的办法是使用TLB。

假设TLB可以记录全部频繁使用的页面,地址转换就可能变得像通常的页表一样快。倒排页表在64位机器中非经常见,由于在64位机器中即使使用了大页面。页表项的数量是非常庞大的。比如对于4MB页面和64位虚拟地址,须要2的42次方个页表项。

时间: 2024-09-27 04:28:56

经典之计算机内存管理的相关文章

Unity游戏开发中的内存管理_资料

内存是手游的硬伤——Unity游戏Mono内存管理及泄漏http://wetest.qq.com/lab/view/135.html 深入浅出再谈Unity内存泄漏http://wetest.qq.com/lab/view/150.html 这一次,我优化了37%的内存http://wetest.qq.com/lab/view/147.html Unity项目资源加载与管理http://wetest.qq.com/lab/view/124.html Android应用内存泄露分析.改善经验总结h

计算机原理学习(7)-- x86-32 CPU和内存管理之分段管理

前言 前一篇我们介绍了内存管理中的分页试内存管理,分页的主要作用就是使得每个进程有一个独立的,完整的内存空间,通过虚拟内存技术,使得程序可以在较小的内存上运行,而进程之间内存空间相互独立,提高了安全性.这一篇将主要介绍内存管理中分段管理,以及两种的结合,也是目前计算机普遍采用的段页式内存管理.这也直接决定了的后面程序的编译,加载以及允许时的内存布局. 1. 内存分段 1.1 为什么分段? 在x86-16体系中,为了解决16位寄存器对20位地址线的寻址问题,引入了分段式内存管理.而CPU则使用CS

iOS经典面试题总结--内存管理

iOS经典面试题总结--内存管理 内存管理 1.什么是ARC? ARC是automatic reference counting自动引用计数,在程序编译时自动加入retain/release.在对象被创建时retain count+1,在对象被release时count-1,当count=0时,销毁对象.程序中加入autoreleasepool对象会由系统自动加上autorelease方法,如果该对象引用计数为0,则销毁.那么ARC是为了解决MRC手动管理内存存在的一些而诞生的. MRC下内存管

计算机操作系统学习笔记_7_内存管理 --内存管理基础

h2.western { font-family: "Liberation Sans",sans-serif; font-size: 16pt; }h2.cjk { font-family: "微软雅黑"; font-size: 16pt; }h2.ctl { font-family: "AR PL UMing CN"; font-size: 16pt; }h1 { margin-bottom: 0.21cm; }h1.western { fon

计算机操作系统学习笔记_8_内存管理 --虚拟内存管理

td p { margin-bottom: 0cm; }h2.western { font-family: "Liberation Sans",sans-serif; font-size: 16pt; }h2.cjk { font-family: "微软雅黑"; font-size: 16pt; }h2.ctl { font-family: "AR PL UMing CN"; font-size: 16pt; }h1 { margin-botto

内存管理--程序在内存中的分布

在多任务操作系统中的每一个进程都运行在一个属于它自己的内存沙盘中.这个沙盘就是虚拟地址空间(virtual address space). 1 32位虚拟内存布局 在32位模式下虚拟地址空间总是一个4GB的内存地址块.这些虚拟地址通过页表(page table)映射到物理内存,页表由操作系统维护并被处理器引用.每一个进程拥有一套属于它自己的页表,但是还有一个隐情.只要虚拟地址被使用,那么它就会作用于这台机器上运行的所有软件,包括内核本身.因此一部分虚拟地址必须保留给内核使用: 图 1 这并不意味

(转)一些经典的计算机书籍

以下列表中的计算机书籍(中文版)来自微博:@程序员的那些事 粉丝的推荐.按推荐次数,从高到低往下排.如果大家还有其他计算机相关的经典书籍推荐,请在评论中留言,或者在这条微博的评论中留言,我们将继续扩充这个列表.1. 算法导论(第2版)2. 代码大全(第2版)3. C++ Primer中文版(第4版)4. 设计模式:可复用面向对象软件的基础5. 浪潮之巅6. Java编程思想(第4版)7. Java核心技术 卷1:基础知识8. Java核心技术 卷2:高级特性9. 人月神话10. Linux内核编

垃圾回收算法手册:自动内存管理的艺术 BOOK

垃圾回收算法手册:自动内存管理的艺术 2016-03-18 华章计算机 内容简介 PROSPECTUS 本书是自动内存管理领域的里程碑作品,汇集了这个领域里经过50多年的研究沉积下来的最佳实践,包含当代最重要的垃圾回收策略与技术,著译双馨. 几乎所有的现代编程语言都采用了垃圾回收机制,因此深入了解此方面内容对于所有开发者而言都大有裨益.对于不同垃圾回收器的工作方式,以及当前垃圾回收器所面临的各种问题,这本权威手册都提供了专业的解答.掌握这方面的知识之后,在面对多种不同的垃圾回收器以及各种调节选项

《C#高级编程》学习笔记----c#内存管理

本文转载自Netprawn,原文英文版地址 尽管在.net framework中我们不太需要关注内存管理和垃圾回收这方面的问题,但是出于提高我们应用程序性能的目的,在我们的脑子里还是需要有这方面的意识.明白内存管理的基本行为将有助于我们解释我们程序中变量是如何操作的.在本文中我将讨论栈和堆的一些基本知识,变量的类型和某些变量的工作原理.当你在执行程序的时候内存中有两个地方用于存储程序变量.如果你还不知道,那么就来看看堆和栈的概念.堆和栈都是用于帮助我们程序运行的,包含某些特殊信息的操作系统内存模