这一章介绍Linux内存管理和内存映射的奥秘。同时讲述设备驱动程序是如何使用“直接内存访问”(DMA)的。尽管你可能反对,认为DMA更属于硬件处理而不是软件接口,但我觉得与硬件控制比起来,它与内存管理更相关。

这一章比较高级;大多数驱动程序的作者并不需要太深入到系统内部。不过理解内存如何工作可以帮助你在设计驱动程序时有效地利用系统的能力。

Linux中的内存管理

这一节不是描述操作系统中内存管理的理论,而是关注于这个理论在Linux实现中的主要特征。本节主要提供一些信息,跳过它不会影响您理解后面一些更面向实现的主题。

页表

当一个程序查一个虚地址时,处理器将地址分成一些位域(bit field)。每个位域被用来索引一个称做页表的数组,以获得要么下一个表的地址,要么是存有这个虚地址的物理页的地址。

为了进行虚地址到物理地址的映射,Linux核心管理三级页表。开始这也许会显得有些奇怪。正如大多数PC程序员所知道的,x86硬件只实现了两级页表。事实上,大多数Linux支持的32位处理器实现两级,但不管怎样核心实现了三级。

在处理器无关的实现中使用三级,使得Linux可以同时支持两级和三级(如Alpha)的处理器,而不必用大量的#ifdef语句把代码搅得一团糟。这种“保守编码”方式并不会给核心在两级处理器上运行时带来额外的开销,因为实际上,编译器已经把没用的一级优化掉了。

但是让我们看一会儿实现换页的数据结构。为了跟上讨论,你应该记住大多数用作内存管理的数据都采用unsigned long的内部表示,因为它们所表示的地址不会再被复引用。

下述几条总结了Linux的三级实现,由图13-1示意:

l     一个“页目录(Page Directory,PGD)”是顶级页表。PGD是由pgd_t项所组成的数组,每一项指向一个二级页表。每个进程都有它自己的页目录,你可以认为页目录是个页对齐的pgd_t数组。

l     二级表被称做“中级页目录(Page Mid_level Directory)”或PMD PMD是一个页对齐的pmd_t数组。每个pmd_t是个指向三级页表的指针。两级的处理器,如x86sparc_4c,没有物理PMD;它们将PMD声明为只有一个元素的数组,这个元素的值就是PMD本身——马上我们将会看到C语言是如何处理这种情况以及编译器是如何把这一级优化掉的。

l     再下一级被简单地称为“页表(Page Table)”。同样地,它也是一个页对齐的数组,每一项被称为“页表项(Page Table Entry)”。核心使用pte_t类型表示每一项。pte_t包含数据页的物理地址。

上面提到的类型都在<asm/page.h>中定义,每个与换页相关的源文件都必须包含它。

核心在一般程序执行时并不需要为页表查寻操心,因为这是有硬件完成的。不过,核心必须将事情组织好,硬件才能正常工作。它必须构造页表,并在处理器报告一个页面错时(即当处理器需要的虚地址不在内存中时)查找页表,。

下面的符号被用来访问页表。<asm/page.h><asm/pgtable.h>必须被包含以使它们可以被访问。

Figure 13.1 Linux的三级页表)

PTRS_PER_PGD

PTRS_PER_PMD

PTRS_PER_PTE

每个页表的大小。两级处理器置PTRS_PER_PMD1,以避免处理中级。

unsigned long pgd_bal(pgd_t pgd)

unsigned long pmd_val(pmd_t pmd)

unsigned long pte_val(pte_t pte)

这三个宏被用来从有类型数据项中获取无符号长整数值。这些宏通过在源码中使用严格的数据类型有助于减小计算开销。

pgd_t *pgd_offset(struct mm_struct *mm,unsigned long address)

pmd_t *pmd_offset(pgd_t *dir,unsigned long address)

pte_t *pte_offset(pmd_t *dir,unsigned long address)

这些线入函数是用于获取与address相关联的pgdpmdpte项。页表查询从一个指向结构mm_struct的指针开始。与当前进程内存映射相关联的指针是current->mm。指向核心空间的指针由init_mm描述,它没有被引出到模块,因为它们不需要它。两级处理器定义pmd_offset(dir,add)(pmd_t* )dir,这样就把pmd折合在pgd上。扫描页表的函数总是被声明为inline,而且编译器优化掉所有pmd查找。

unsigned long pte_page(pte_t pte)

这个函数从页表项中抽取物理页的地址。使用pte_val(pte)并不可行,因为微处理器使用pte的低位存贮页的额外信息。这些位不是实际地址的一部分,而且需要使用pte_page从页表中、抽取实际地址。

pte_present(pte_t pte)

这个宏返回布尔值表明数据页当前是否在内存中。这是访问pte低位的几个函数中最常用的一个——这些低位被pte_page丢弃。有趣的是注意到不论物理页是否在内存中,页表始终在(在当前的Linux实现中)。这简化了核心代码,因为pgd_offset及其它类似函数从不失败;另一方面,即使一个有零“驻留存贮大小”的进程也在实际RAM中保留它的页表。

仅仅看看这些列出的函数不足以使你对Linux的内存管理算法熟悉起来;实际的内存管理要复杂的多,而且还要处理其它一些繁杂的事,如高速缓存一致性。不过,上面列出的函数足以给你一个关于页面管理实现的初步印象;你可以从核心源码的include/asmmm子树中得到更好的信息。

虚拟内存区域

尽管换页位于内存管理的最低层,你在能有效地使用计算机资源之前还需要一些别的知识。核心需要一种更高级的机制处理进程看到它的内存方式。这种机制在Linux中以“虚拟内存区域的方式实现,我称之为“区域”或“VMA”。

一个区域是在一个进程的虚存中的一个同质区间,一个具有同样许可标志的地址的连续范围。它与“段”的概念松散对应,尽管最好还是将其描述为“具有自己属性的内存对象”。一个进程的内存映象由下面组成:一个程序代码(正文)区域;一个数据、BSS(未初始化的数据)和栈区域;以及每个活动的内存映射的区域。一个进程的内存区域可以通过查看/proc/pid/maps看到。/proc/self/proc/pid的特殊情况,它总是指向当前进程,做为一个例子,下面是三个不同的内存映象,我在#字号后面加了一些短的注释:

(代码271

每一行的域为:

start_end perm offset major:minor inode

perm代表一个位掩码包括读、写和执行许可;它表示对属于这个区域的页,允许进程做什么。这个域的最后一个字符要么是p表示私有的,要么是s表示共享的。

/proc/*/maps的每个域对应着结构vm_area_struct的一个域,我们将在下面描述这个结构。

实现mmap的方法的驱动程序需要填充在映射设备的进程地址空间中的一个VMA结构。因此,驱动程序的作者对VMA应该有个最起码的理解以便使用它们。

让我们看一下结构vm_area_struct(在<linux/mm.h>)中最重要的几个域。这些域可能在设备驱动程序的mmap实现中被用到。注意核心维护VMA的列表和树以优化区域查找,vm_area_struct的几个域被用来维护这个组织。VMA不能按照驱动程序的意愿被产生,不然结构将会崩溃。VMA的几个主要域如下:

unsigned long vm_start

unsigned long vm_end

一个VMA描述的虚地址介于vma->vm_startvma->vm_end之间。这两个域是/pro/*/maps中显示的最先两个域。

struct inode *vm_inode

如果这个区域与一个inode相关联(如一个磁盘文件或一个设备节点),这个域是指向这个inode的指针。不然,它为NULL

unsigned long vm_offset

inode中这个区域的偏移量。当一个文件或设备被映射时,这是映射到这个区域的第一个字节的文件的位置(filp->f_ops)。

struct vm_operations_struct *vm_ops

vma->vm_ops说明这个内存区域是一个核心“对象”,就象我们在本书中一直在用的结构file。这个区域声明在其内容上操作的“方法”,这个域就是用来列出这些方法。

和结构vm_area_struct一样,vm_operations_struct<linux/mm.h>中定义;它包括了列在下面的操作。这些操作是处理进程内存需要的所有操作,它们以被声明的顺序列出。列出的原型是2.0的,与1.2.13的区别在每一项中都有描述。在本章的后面,这些函数中的部分会被实现,那时会更完全地加以描述。

void(*open)(struct vm_area_struct  *vma);

在核心生成一个VMA后,它就把它打开。当一个区域被复制时,孩子从父亲那里继承它的操作,就区域用vm->open打开。例如,当fork将存在进程的区域复制到新的进程时,vm_ops->open被调用以打开所有的映象。另一方面,只要mmap执行,区域在file->f_ops->mmap被调用前被产生,此时不调用vm_ops->open

void(*close)(struct vm_area_struct *vma);

当一个区域被销毁时,核心调用它的close操作。注意VMA没有相关的使用计数;区域只被打开和关闭一次。

void(*unmap)(struct vm_area_struct *vma,unsigned long addr,size_t len);

核心调用这个方法取消一个区域的部分或全部映射。如果整个区域的映射被取消,核心在vm_ops->unmap返回后立即调用vm_ops->close

void (*protect)(struct vm_area_struct *vma,unsigned long,size_t,unsigned int new prot);

当前未被使用。许可(保护)位的处理并不依赖于区域本身。

int(*sync)(struct vm_area_struct *vma,unsigned long,size_t,unsigned int flags);

这个方法被msync系统调用以将一个脏的内存区段保存到存贮介质上。如果成功则返回值为,如果有错,则返回一个负数。核心版本1.2让这个方法返回void,因为这个函数不被认为会失败。

void(*advise)(struct vm_area_struct *vma,unsigned long,size_t,unsigned int advise);

当前未被使用。

unsigned long(*nopage)(struct vm_area_struct *vma,unsigned long address,int write_access);

当一进程试图访问属于另一个有效VMA的某页,而该页当前不在内存时,nopage方法就会被调用,如果它为相关区域定义。这个方法返回该页的(物理)地址。如果这个方法不为这个区域所定义,核心会分配一个空页。通常,驱动程序并不实现nopage,因为被一个驱动程序映射的区段往往被完全映射到系统物理地址。核心版本1.2nopage具有一个不同的原型和不同的含义。第三个参数write_access被当做“不共享”——一个非零值意味着该页必须被当前进程所有,而零则表示共享是可能的。

unsigned long(*wppage)(struct vm_area_struct *vma,unsigned long address,unsigned long page);

这个方法处理“写保护”页面错,但目前不被使用。核心处理所有不调用区域特定的回调函数却往一个被保护的页面上写的企图。写保护被用来实现“写时拷贝(copy_on_write)”。一个私有的页可以被不同进程所共享,直到其中一个进程试图写它时。当这种情况发生时,页面被克隆,进程向自己的页拷贝上写。如果整个区域被称为只读,会有一SIGSEGV信息被发送给进程,写时拷贝就未能完成。

int (*swapout)(struct vm_area_struct *vma,unsigned long offset,pte_t *page_table);

这个方法被用来从交换空间取得一页。参数offset是相对区域而言(与上面swapout一样),而entry是页面的当前pte——如果swapout在这一项中保存了一些信息,那么现在就可以用这些信息来取得该页。

一般说来,驱动程序并不需要去实现swapoutswapin,因为驱动程序通常映射I/O内存,而不是常规内存。I/O页是一些象访问内存一样访问的物理地址,但被映射到设备硬件而不是RAM上。I/O内存区段或者被标记为“保留”,或者居于物理内存之上,因此它们从不被换出—交换I/O内存没什么实际意义。

内存映象

Linux中还有与内存管理相关的第三个数据结构。VMA和页表组织虚拟地址空间,而物理地址空间则由内存映象概括。

核心需要物理内存当前使用情况的一个描述。由于内存可以被看作是页面数组,因此这个信息也可以组织为一个数组。如果你需要其页面的信息,你就用其物理地址去访问内存映象。下面就是核心代码用来访问内存映象的一些符号:

typedef struct {/*…*/} mem_map_t

extern mem_map_t mem_map[];

映象本身是mem_map_t的一个数组。系统中的每个物理页,包括核心代码和核心数据,都在mem_map中有一项。

PAGE_OFFSET

这个宏表示由物理地址映射到的核心地址空间中的虚地址。PAGE_OFFSET在任何用到“物理”地址的地方都必须要考虑。核心认为的物理地址实际上是一个虚拟地址,从实际物理地址偏移PAGE_OFFSET——这个实际物理地址是在CPU外的电气地址线使用。在Linux2.0.x中,PAGE_OFFSETPC上都是零,在大多数其它平台上都不是零。2.1.0版修改了PC上的实现,所以它现在也使用偏移映射。如果考虑到核心代码,将物理空间映射到高的虚拟地址有一些好处,但这已经超出了本书的范围。

int  MAP_NR(addr)

当程序需要访问一个内存映象时,MAP_NR返回在与addr关联的mem_map数组中的索引。参数addr可以是unsigned long,也可以是一个指针。因为这个宏被几个关键的内存管理函数使用多次,所以它不进行addr的有效性检查;调用代码在必要的时候必须自己进行检查。

((nr<<PAGE_SHIFT)+PAGE_OFFSET)

没有标准化的函数或者宏可以将一个映象号转译为一个物理地址。如果你需要MAP_NR的逆函数,这个语句可以使用。

内存映象是用来为每个内存页维护一些低级信息。在核心开发过程中,内存映象结构的准确定义变过几次,你不必了解细节,因为驱动程序不期望查看映象内部。

不过,如果你对了解页面管理的内部感兴趣的话,头文件<linux/mm.h>含有一大段注释解释mem_map_t域的含义。

mmap设备操作

内存映象是现代Unix系统中最有趣的特征之一。至于驱动程序,内存映射可以提供用户程序对设备内存的直接访问。

例如,一个简单ISA抓图器将图象数据保存在它自己的内存中,或者在640KB-1KB地址范围,或者在“ISA洞”(指14MB-16MB之间的范围参见第8章“硬件管理”中“访问设备板子上的内存”一节)中。

将图象数据复制到常规(并且更快)RAM中是不定期抓图的合适的方法,但如果用户程序需要经常性地访问当前图象,使用mmap方法将更合适。

映射一个设备的意思是使用户空间的一段地址空间关联到设备内存上。当程序读写指定的地址范围时,它实际上是在访问设备。

正如你所怀疑的,并不是每个设备都适合mmap概念;例如,对于串口或其它面向流的设备来说它的确没有意义。mmap的另一个限制是映射是以PAGE_SIZE为单位的。核心只能在页表一级处置虚地址,因此,被映射的区域必须是PAGE_SIZE的整数倍,而且居于页对齐的物理内存。核心通过使一个区段稍微大一点儿的办法解决了页面粒度问题。对齐的问题通过使用vma->vm_offset来处理,但这对于驱动程序并不可行——映射一个设备简化为访问物理页,它必须是页对齐的。

这些限制对驱动程序来说并不是很大的问题,因为不管怎样,访问设备的程序是设备相关的。它知道如何使得被映射的内存区段有意义,因此页对齐不是一个问题。当你ISA板子插到一个Alpha机器上时,有一个更大的限制,因为ISA内存是以8位、16位或32位项的散布集合被访问的,没有从ISA地址到Alpha地址的直接映射。在这种情况下,你根本不能使用mmap。不能进行ISA地址到Alpha地址的直接映射归因于两种系统数据传送规范的不兼容。Alpha只能进行32位和64位的内存访问,而ISA只能进行8位和16位的传送,没有办法透明地从一个协议映射到另一个。结果是你根本不能对插在Alpha计算机的ISA板子使用mmap

当可行的时候,使用mmap有一些好处。例如,一个类似于X服务器的程序从显存中传送大量的数据;把图形显示映射到用户空间与lseek/write实现相比,显著地改善了吞吐率。另一个例子是程序控制PCI设备。大多数PCI外围设备都将它们的控制寄存映射到内存地址上,一个请求应用更喜欢能直接访问寄存器,而不是反复调用ioctl来完成任务。

mmap方法是file_oprations结构的一部分,在mmap系统调用被发出时调用。在调用实际方法之前,核心用mmap完成了很多工作,因此,这个方法的原型与系统调用很不一样。这与其它调用如ioctlselect不同,它们在被调用之前核心并不做太多的工作。

系统调用如下声明(在mmap2)手册中有描述):

mmapcaddr_tsize_t lenint protint flagsint fdoff_t offset

另一方面,文件操作如下声明:

int *mmap)(struct inode*inode,struct file*filp,struct vm_area_struct *vma);

方法中inodefilp参数与第三章“字符设备驱动程序”中介绍的一样。vma会有用以访问设备的虚拟地址范围的信息。这样,驱动程序只需为这个地址范围构造合适的页表:如果需要,用一组新的操作代替vma->vm_ops

一个简单的实现

设备驱动程序的大多数mmap实现对居于周边设备上的某些I/O内存进行线性的映射。/dev/mem/dev/audio都是这类重映射的例子。下面的代码来自drivers/char/mem.c,显示了在一个被称为simpleSimple Implementation Mapping Pages with Little Enthusiasm)的典型模块中这个任务是如何完成的:

(代码277

很清楚,操作的核心由remap_page_range完成,它被引出到模块化的驱动程序,因为它做了大多数映射需要做的工作。

维护使用计数

上面给出的实现的主要问题在于驱动程序没有维护一个与被映射区域的连接。这对/dev/mem来说并不是个问题,它是核心的一个完整的部分,但对于模块来说必须有一个办法来保持它的使用计数是最新的。一个程序可以对文件描述符调用close,并仍然访问内存映射的区段。然而,如果关闭文件描述符导致模块的使用计数降为零,那么模块可能被卸载,即使它们仍被通过mmap使用着。

试图关于这个问题警告模块的使用者是不充分的解决办法,因为可能使用kerneld装载和卸载你的模块。这个守护进程在模块的使用计数降为零时自动地去除它们,你当然不能警告kerneld去留神mmap

这个问题的解决办法是用跟踪使用计数的操作取代缺省的vma->vm.ops。代码相当简单——用于模块化的/dev/mem的一个完全的mmap实现如下所示:

(代码278

这个代码依赖于一个事实,即核心在调用f_op->mmap之前将新产生区域中的vm_ops域初始化为NULL。为安全起见以防止在将来的核心发生什么改变,给出的代码检查了指针的当前值。

给出的实现利用了一个概念,即openvmaclosevma都是缺省实现的一个补充。驱动程序的方法不须复制打开和关闭的内存区域的标准代码;驱动程序只是实现额外的管理。

有趣的是注意到,VMAswapinswapout方法以另外的方式工作——驱动程序定义的vm_ops->swap*不是添加而是用完全不同的东西取代了缺省实现。

支持mremap系统调用

mremap系统调用被应用程序用来改变映射区段的边界地址。如果驱动程序希望能支持mremap,以前的实现就不能正确地工作,因为驱动程序没有办法知道映射的区域已经改变了。

Linuxmremap实现不提醒驱动程序关于映射区域的改变。实际上,它到是通过unmap方法在区域减小时提醒驱动程序,但在区域变大时没有回调发出。

将减小告诉驱动程序隐含的基本思想法是驱动程序(或是将常规文件映射到内存的文件系统)需要知道区段什么时候被取消映射了,从而采取适应的动作,如将页面刷新到磁盘上。另一方面,映射区域的增大对驱动程序来说意义不大。除非调用mremap的程序访问新的虚地址。在实际情况中,映射从未使用的区段是很常见的(如未使用过的某些程序代码段)。因此,Linux核心在映射区段增大时并不告诉驱动程序,因为nopage方法将会照管这些页。如果它们确实被访问了。

换句话说,当映射区段增大时,驱动程序未被提醒是因为nopage后来会这样做;从而不必在需要前使用内存。这个优化主要是针对常规文件的,它们使用真正的RAM进行映射。

因此,如果你想支持mremap系统调用,就必须实现nopage。不过,一旦有了nopage,你可选择广泛地使用它,从而避免从fops->mmap调用remap_page_range;这在下一个代码段中给出。在这个mmap的实现中,设备方法只取代了vma->vm_fopsnopage方法负责一次重映射一个页并返回其地址。

一个支持mremap(为节省空间,不支持使用计数)的/dev/mem实现如下所示:

(代码279

(代码280

如果nopage方法被留为NULL,处理页面错的核心代码就将零页映射到出错虚地址。零页是一个写时拷贝页,被当作零来读,可以用来映射BSS段。因此,如果一个进程通过调用mremap扩展一个映射区段,并且驱动程序没有实现nopage,你最终会得到一些零页,而不是段错。

注意,给出的实现远远不是最优的;如果内存方法能绕过remap_page_range而直接返回物理地址会更好。不幸的是,这个技术的正确实现牵涉到一些细节,只能在本章晚些时候搞清楚。而且上面给出的实现在核心1.2中并不能工作,因为nopage的原型在版本1.22.0之间做了修改。在本节中我不打算管1.2核心。

重映射特定的I/O区段

到目前为止,我们所看到的所有例子都是/dev/mem的再次实现;它们将物理地址重映射到用户空间——或者至少这是它们认为它们所做的。然而,典型的驱动程序只想映射应用于它的外围设备的小地址区间,并非所有内存。

为了能为一个特定的驱动程序自定义/dev/mem的实现,我们需要进一步来研究一下remap_page_range的内部。这个函数的完整原型是:

int remap_page_range(unsigned long virt_addunsigned long phy_add,unsigned long size, pgprot_t prot);

这个函数的返回值通常为零或为一个负的错误代码。让我们看看它的参数的确切含义。

unsigned long virt_add

重映射开始处的虚拟地址。这个函数为虚地址空间virt_addvirt_add+size之间的范围构造页表。

unsigned long phys_add

虚拟地址应该映射到的物理地址。这个地址在上面提到的意义下是“物理的”这个函数影响phys_addphys_add+size之间的物理地址。

unsigned long size

被重映射的区域的大小,以字节为单位。

pgprot_t prot

为新页所请求的“保护”。驱动程序不必修改保护,而且在vma->vma_page_prot中找到的参数可以不加改变地使用。如果你好奇,你可以在<Linux/mm.h>中找到更多的信息。

为了向用户空间映射整个内存区间的一个子集,驱动程序需要处理偏移量。下面几行为映射了从物理地址simple_region_start开始的simple_region_size字节大小的区段的驱动程序完成了这项工作:

(代码281

除了计算偏移量,上面的代码还为错误条件引入了两个检查。第一个检查拒绝将一个在物理空间未对齐的位置映射到用户空间。由于只有完整的页能被重映射,因此映射的区段只能偏移页面大小的整数倍。ENXIO是这种情况下通常返回的错误代码,它被展开为“无此设备或地址”。

第二个检查在程序试图映射多于目标设备I/O区段可获得内存的空间时报告一个错误。代码中psize是在偏移被确定后剩下的物理I/O大小,vsize是请求的虚存大小;这个函数拒绝映射超出允许内存范围的地址。

注意,如果进程调用mremap,它便可以扩展其映射。一个“非常炫耀”的驱动程序可能希望阻止这个发生;达到目的的唯一办法是实现一个vma->nopage方法。下面是这个方法的最简单的实现:

unsigned long simple_pedantic_nopage(struct vm_area_struct *vma,unsigned long address, int write_access);

{return 0;}     /*发送一个SIGBUS*/

如果nopage方法返回0而不是一个有效的物理地址,一个SIGBUS(总线错)被发送到当前进程(即发生页面错的进程)。如果驱动程序没有实现nopage,进程在请求的虚地址处得到一个零页;这通常可以接受,因为mremap是个非常少用的系统调用,而且将零页映射到用户空间也没有安全问题。

重映射RAM

Linux中,物理地址的一页被标记在内存映象中是“保留的”,表明不被内存管理系统使用。例如在PC上,640KB1MB之间的部分被称为“保留的”,它被用来存放核心代码。

remap_page_range的一个有趣的限制是,它只能给予对保留的页和物理内存之上的物理地址的访问。保留页被锁在内存中,是仅有的能安全映射到用户空间的页;这个限制是系统稳定性的基本要求*

因此,remap_page_range不允许你重映射常规地址——包括你通过调用get_free_page所获得的那些。不过,这个函数做了所有一个硬件驱动程序希望它做的,因为它可以重映射高PCI缓冲和ISA内存——包括第1兆内存和15MBISA洞,如果在第八章“1M以上的ISA内存”中提到的改变发生了的话。另一方面,当对非保留的页使用remap_page_range时,缺省的nopage处理程序映射被访问的虚地址处的零页。

这个行为可以通过运行mapper看到。mapper是在O’ReillyFTP站点上提供的文件中misc_programs里的一个示例程序。它是个可以快速测试mmap系统调用的简单工具。mapper根据命令行选项映射一个文件中的只读部分,并把映射的区段输出到标准输出上。例如,下面这个交互过程表明/dev/mem不映射位于64KB地址处的物理页(本例中的宿主机是个PC,但在别的平台上结果应该是一样的):

(代码283

remap_page_range对处理RAM的无能为力说明象scullp这样的设备不能简单地实现mmap,因为它的设备内存是常规RAM,而不是I/O内存。

有两个办法可以绕过remap_page_rangeRAM的不可用性。一个是“糟糕”的办法,另一个是干净的。

使用预定位

糟糕的办法要为你想映射到用户空间的页在mem_map[MAP_NR(page)]中置PG_reserved位。这样就预定了这些页,而一旦预定了,remap_page_range就可以按期望工作了。设置标志的代码很短很容易,但我不想在这儿给出来,因为另一个方法更有趣。不用说,不释放页面之前,预定的位必须被清除。

有两个原因说明为什么这是个好办法。第一,被标为预定的页永远不会被内存管理所动。核心在数据结构初始化之前系统引导时确定它们,因此不能用在任何其它用途上。而另一方面,通过get_free_page,vmalloc或其它一些方式分配的页都是由内存子系统处理的。即使2.0核心在你运行时预定额外的页并不崩溃,这样做可能在将来会产生问题。因而是不鼓励的。不过你可以尝试这种快且脏的技术看看它是任何工作的。

预定页不是个好办法的第二个原因是被预定的页不被算做是整个系统内存的一部分,有的用户在系统RAM发生变化时可能会很在意——用户经常留意空闲内存数量,而总的内存量一般总和空闲内存一道显示。

实现nopage方法

将实际RAM映射到用户空间的一个较好的办法是用vm_ops->nopage来一次处理一个页面错。作为scullp模块一部分的一个示例实现在第七章“把握内存”中介绍过。

scullp是面向页的字符设备。因为它是面向页的,所以可以在它的内存中实现mmap。实现内存映射的代码用了一些以前在“Linux的内存管理”中介绍过的概念。

在查看代码之前,让我们看一下影响scullpmmap实现的设计选择。

l           设备为模块更新使用计数
在卸载模块时为了避免发生问题,内存区域的openclose方法被实现去跟踪模块的使用。

l           设备为页更新使用计数
这是为保证系统稳定是一个严格要求;不能更新这个计数将导致系统崩溃。每个页有其自己的使用计数;当它降为零时,该页被插入到空闲页表。当一个活动映象被破坏掉时,核心会将相关RAM页的使用计数减小。因此,驱动程序必须增加它所映射的每个页的使用计数(注意,这个计数在nopage增加它时不能为零,因为该页已经被fops->write分配了)。

l           只要设备是被映射的,scullp就不能释放设备内存
这与其说是个要求,不如说是项政策,这与scull及类似设备的行为不同,因为它们在被因写而打开时长度被截为0。拒绝释放被映射的scullp设备允许一个设备一个进程重写正被另一个进程映射的区段,这样你就可以测试并看到进程与设备内存之间是如何交互的。为避免释放一个被映射的设备,驱动程序必须保存一个活动映射的计数;设备结构中的vma域被用于这个目的。

l           只有在scullp的序号order参数为0时才进行内存影射
这个参数控制get_free_pages是如何调用的(见第七章中“get_free_pages和朋友们”一节)。这个选择是由get_free_pages的内部机制决定的——scullp利用的分配机制。为了最大化分配性能,Linux核心为每个分配的序号(order)维护一个空闲页的列表,在一个簇中只有第一页的页计数由get-free_pages增加和free_pages减少。如果分配序号大于0,那么对一个scullp设备来说mmap方法是关闭的,因为nopage只处理单项,而不是一簇页。

 

最后一个选择主要是为了保证代码的简单。通过处理页的使用计数,也有可能为多页分配正确地实现mmap,但那样只能增加例子的复杂性,而不能带来任何有趣的信息。

如果代码想按照上面提到的规则来映射RAM,它需要实现openclosenopage,还要访问mem_map

scullp_mmap的实现非常短,因为它依赖于nopage来完成所有有趣的工作:

(代码285  #1

开头的条件语句是为了避免映射未对齐的偏移和分配序号不为0的设备。最后,vm_ops->open被调用以更新模块的使用计数和设备的活动映射计数。

openclose就是为了跟踪这些计数,被定义如下:

(代码285  #2

由于模块生成了4scullp设备并且也没有内存区域可用的private_data指针,所以openclose取得与vma相关联的scullp设备是通过从inode结构中抽取次设备号。次设备号被用来从设备结构的scullp_devices数组取偏移后得到指向正确结构的指针。

大部分工作是由nopage完成的。当进程发生页面错时,这个函数必须取得被引用页的物理地址并返回给调用者。如果需要,这个方法可以计算address参数的页对齐。在scullp的实现中,address被用来计算设备里的偏移;偏移又被用来在scullp的内存树上查找正确的页。

(代码286  #1

最后一行增加页计数;这个计数在atomic_t中生命,因此可以由一个原子操作更新。事实上,在这种特定的情况下,原子更新并不是严格要求的,因为该页已经在使用中,并且没有与中断处理程序或别的异步代码的竞争条件。

现在scullp可以按预期的那样工作了,正如你在工具mapper的示例输出中所看到的:

(代码286  #2

(代码287  #1

 

重映射虚地址

尽管很少需要重映射虚地址,但看看驱动程序如何用mmap将虚地址映射到用户空间是很有趣的。这里虚地址指的是由vmalloc返回的地址,也就是被映射到核心页表的虚地址。本节的代码取自scullv,这个模块与scullp类似,只是它通过vmalloc分配存储。

scullv的大部分实现与我们刚刚看到的scullp完全类似,除了不需要检查分配序号。原因是vmalloc一次只分配一页,因为单页分配比多页分配容易成功的多。因此,使用计数问题在通过vmalloc分配的空间中不适用。

scullv的主要工作是构造一个页表,从而可以象连续地址空间一样访问分配的页。而另一方面,nopage必须向调用者返回一个物理地址。因此,scullvnopage实现必须扫描页表以取得与页相关联的物理地址。

这个函数与我们在scullp中看到的一样,除了结尾。这个代码的节选只包括了nopage中与scullp不同的部分。

(代码287  2#

       atomic_inc(&mem_map[MAP_NR(page)]).count;

       return page;

   }

页表由本章开始时介绍的那些函数来查询。用于这个目的的页目录存在核心空间的内存结构init_m中。

VMALLOC_VMADDR(pageptr)返回正确的unsigned long值用于vmalloc地址的页表查询。注意,由于一个内存管理的问题,这个值的强制类型转换在早于2.1X86核心上不能工作。在X862.1.1版中内存管理做了改动,VMALLOC_VMADDR被定义为一个实体函数,与在其它平台上一样。

最后要提到的一点是init_mm是如何被访问的,因为我前面提到过,它并未引出到模块中。实际上,scullv要作一些额外的工作来取得init_mm的指针,解释如下。

实际上,常规模块并不需要init_mm,因为它们并不期望与内存管理交互;它们只是调用分配和释放函数。为scullvmmap实现很少见。本小节中介绍的代码实际上并不用来驱动硬件;我介绍它只是用实际代码来支持关于页表的讨论。

不过,既然谈到这儿,我还是想给你看看scullv是如何获得init_mm的地址的。这段代码依赖于这样的事实:0号进程(所谓的空闲任务)处于内核中,它的页目录描述了核心地址空间。为了触到空闲任务的数据结构,scullv扫描进程链表直到找到0号进程。

(代码288

这个函数由fops->mmap调用,因为nopage只在mmap调用后运行。

基于上面的讨论,你也许还想将由vremap(如果你用Linux2.1,就是ioremap)返回的地址映射到用户空间。这很容易实现,因为你可以直接使用remap_page_range,而不用实现虚拟内存区域的方法。换句话说,remap_page_range已经可用以构造将I/O内存映射到用户空间的页表;并不需要象我们在scullv中那样查看由vremap构造的核心页表。

直接内存访问

直接内存访问,或DMA,是我们内存访问方面讨论的高级主题。DMA是一种硬件机制,它允许外围组件将I/O数据直接从(或向)主存中传送。

为了利用硬件的DMA能力,设备驱动程序需要能正确地设置DMA传送并能与硬件同步。不幸的是,由于DMA的硬件实质,它非常以来于系统。每种体系结构都有它自己管理DMA传送的技术,编程接口也互不相同。核心也不能提供一个一致的接口,因为驱动程序很难将底层硬件机制适当地抽象。本章中,我将描述DMAISA设备及PCI外围上是如何工作的,因为它们是目前最常用的外围接口体系结构。

不过,我不想讨论ISA太多的细节。DMAISA实现过于复杂,在现代外围中并不常用。目前ISA总线主要用在哑外围接口上,而需要DMA能力的硬件生产商倾向于使用PCI总线。

DMA数据传送的概况

在介绍编程细节以前,我们先大致看看DMA传送是如何工作的。为简化讨论,只介绍输入传送。

数据传送有两种方式触发:或者由软件请求数据(通过一个函数如read),或者由硬件将数据异步地推向系统。

在第一中情况下,各步骤可如下概括:

l           当一个进程调用一个read,这个驱动程序方法分配一个DMA缓冲区,并告诉硬件去传诵数据。进程进入睡眠。

l           硬件向DMA缓冲区写数据,完成时发出一个中断。

l           中断处理程序获得输入数据,应答中断,唤醒进程,它现在可以读取数据。

有时DMA被异步地使用。例如,一些数据采集设备持续地推入数据,即使没有人读它。这种情况下,驱动程序要维护一个缓冲区,使得接下来的一个read调用可以将所有累积的数据返回到拥护空间。这种传送的步骤稍有不同:

l           硬件发出一个中断,表明新的数据到达了。

l           中断处理程序分配一个缓冲区,告诉硬件将数据传往何处。

l           外围设备将数据写入缓冲区;当写完时,再次发出中断。

l           处理程序派发新数据,唤醒所有相关进程,处理一些杂务。

 

上面这两种情况下的处理步骤都强调:高效的DMA处理以来于中断报告。尽管可以用一个轮询驱动程序来实现DMA,这样做并无意义,因为轮询驱动程序会将DMA相对于简单的处理器驱动I/O获得的性能优势都抵消了。

这里介绍的另一个相关问题是DMA缓冲区。为利用直接内存访问,设备驱动程序必须能分配一个特殊缓冲区以适合DMA。注意大多数驱动程序在初始化时分配它们的缓冲区,一直使用到关机——因此,上面步骤中“分配”一词指的是“获得以前已分配的缓冲区”。

分配DMA缓冲区

DMA缓冲区的主要问题是当它大于一页时,它必须占据物理内存的连续页,因为设备使用ISAPCI总线传送数据,它都只携带物理地址。有趣的是注意到,这个限制对Sbus并不适用(见第15章“外围总线概览”中“Sbus”一节),它在外围总线上适用虚地址。

尽管DMA缓冲区可以在系统引导或运行时分配,模块只能在运行时分配其缓冲区。第七章介绍了这些技术:“Playing Dirty”讲述在系统引导时分配;“kmalloc的真实故事”和“get_free_page和朋友们”讲述运行时分配。如果你用kmallocget_free_page,你必须指定GFP_DMA优先级,与GFP_KERNELGFP_ATOMIC进行异或。

GFP_DMA要求内存空间必须适合于DMA传送。核心保证能够进行DMA的缓冲区具有以下两个特点。第一,当get_free_page返回不止一页时,其物理地址必须是连续的(不过,一般情况下的确如此,与GFP_DMA无关,因为本身就是以成簇的连续页来组织空闲内存的)。第二,当GFP_DMA等设备时,核心保证只有低于MAX_DMA_ADDRESS的地址才被返回。宏MAX_DMA_ADDRESSPC上被设为16MB,用以对付马上就会讲到的ISA限制。

PCI情况下,没有MAX_DMA_ADDRESS的限制,PCI设备驱动程序在分配它的缓冲区时应避免设置GFP_DMA

自行分配

我们已经明白为何get_free_page(从而kmalloc)不能返回超过128KB(或更一般地,32页)的连续内存空间。但这个要求很容易失败,即使当分配的缓冲区小于128KB时,因为随着时间的推移,系统内存会成为一些碎片*

如果核心不能返回所需数量的内存,或如果你需要超过128KB的内存(例如对于一个PCI抓图器来说,这是个很常见的需求),相对于返回-ENOMEM的一个办法是在引导时分配内存或为你的缓冲区保留物理RAM的顶端。我在第七章“Playing Dirty”中讲述了引导时的分配,但这个办法对模块不适用。保留RAM顶部可以通过向核心传递一个mem=参数来完成。例如,如果你有32M,参数mem=31M防止核心适用顶部一兆。你的模块以后可以用下面的代码来获得对该内存的访问:

       dmabuf=vremap(0x1F00000 /*31MB*/, 0x100000 /* 1MB */ );

我自己分配DMA缓冲区的实现在allocator.c模块(和一个相配的头文件)中。你可以在src/misc-modules的示例文件中找到一个版本,最新版本总可以在我的FTP站点找到:ftp://ftp.systemy.it/pub/develop。你也可以找核心补丁bigphysarea,它和我的分配程序完成同样的工作。

总线地址

当进行DMA时,设备驱动程序必须与连在接口总线上的硬件对话,这里使用物理地址,但程序代码使用虚地址。

事实上,情况还要复杂一些。基于DMA的硬件使用总线地址,而不是物理地址。尽管在PC上,ISAPCI地址与物理地址一样,但并不是所有平台都是这样。有时接口总线是通过将I/O地址影射到不同物理地址的桥接电路被连接的。

Linux核心通过引出定义在<asm/io.h>中的下列函数来提供一个可移植的解决方案。

unsigned long virt_to_bus(volatile void * address);

       void * bus_to_virt(unsigned long address);

其中virt_to_bus转换在驱动程序需要向一个I/O设备(如一个扩展板或DMA控制器)发送地址信息时必须使用,而bus_to_virt在收到来自连于总线上的硬件地址信息时必须使用。

如果你查看依赖于前面讲的allocator机制的代码,你会发现这些函数的使用例子。这些代码也依赖于vremap,因为上下文:

(代码292

尽管与DMA无关,我们值得再了解两个核心引出的函数:

       unsigned long virt_to_phys(volatile void * address);

       void * phys_to_virt(unsigned long address);

这两个函数在虚地址和物理地址之间进行转换;它们在程序代码需要和内存管理单元(MMU)或其它连在处理器地址线上的硬件对话时被用到。在PC平台上,这两对函数完成同样的工作;但将它们分开是重要的,既为了代码的清晰,也为了可移植性。

ISA设备DMA

ISA总线允许两类DMA传送:“native DMA”使用主板上的标准DMA控制器电路驱动ISA总线上的信号线;另一方面,“ISA bus-master DMA”则完全由外围设备控制。后一种DMA类型很少用,所以不值得在这里讨论,因为它类似于PCI设备的DMA,至少从驱动程序的角度看是这样的。一个ISA bus-master的例子是1542 SCSI控制器,它的驱动程序是核心源码中的drivers/scsi/aba1542.c

关于native DMA,有三个实体参与了ISA总线上的DMA数据传送:

8237 DMA控制器(DMAC

控制器存有DMA传送的信息,如方向、内存地址、传送大小。它还有一个跟踪传送状态的计数器。当控制器收到一个DMA请求信号,它获得总线控制并驱动信号线以使设备可以读写数据。

外围设备

       设备在准备好传送数据时,必须激活DMA请求信号。实际的传送由DMAC控制;当控制器通知了设备,硬件设备就顺序地从/往总线上读/写数据。

设备驱动程序

       驱动程序要做的很少,它向DMA控制器提供方向、RAM地址、传送大小。它还与外围设备对话准备好传送数据或在DMA结束时响应中断。

 

原先在PC中使用的DMA控制器能管理4个通道,每个通道与一组DMA寄存器关联,因此4个设备可以同时在控制器中存储它们的DMA信息。新一些的PC有相当于两套DMAC的设备*:第二个控制器(主)连向系统处理器,第一个(从)连在第二个控制器的0通道上+

通道编号为0~74号通道对ISA外围不可用,因为它是内部用来将从控制器级联到主控制器上。这样从控制器上可用的通道为0~38位通道),主控制器上为5~716位通道§)。每次DMA传送的大小存储在控制器中,是一个16位数,表示总线周期数。因此从控制器的最大传送大小为64KB,主控制器为128KB

由于DMA是系统范围的资源,因此核心协助处理它。它用一个DMA注册项提供DMA通道的请求和释放机制,并用一组函数配置DMA控制器的通道信息。

注册DMA的使用

你应该已经熟悉核心注册项了——我们在I/O端口和中断线那里见过它们。DMA通道的注册项与其它类似。在包含了<asm/dma.h>后,下面的函数可以用来获得和释放DMA通道的所有权:

       int request_dma(unsigned int channel, const char *name);

       void free_dma(unsigned int channel);

参数channel07之间的一个数,或更精确地说,是一个小于MAX_DMA_CHANNELS的正数。在PC上,MAX_DMA_CHANNELS被定义为8,以匹配硬件。参数name是确定设备的一个字符串。指定的名字出现在文件/proc/dma中,可由拥护程序读出。

request_dma在成功时返回0,有错误时返回-EINVAL-EBUSY。前者表明请求的通道出了范围,后者表明有其它设备正占有这个设备。

我建议你对待DMA通道象对待I/O端口和中断线一样认真;在open时请求通道比从init_module中请求要好的多。推迟请求可以允许驱动程序间的一些共享;例如,你的声卡和你的模拟I/O接口可以共享DMA通道,只要它们不在同时使用。

我同时也建议你在请求中断线之后请求DMA通道,并在中断之前释放它。这是请求这两个资源的常规顺序;依照这个顺序可以避免可能的死锁。注意每个使用DMA的设备需要一个IRQ线,不然无法表明数据传送的完成。

在典型的情况下,open的代码看起来如下,这是个虚设的dad模块(DMA获取设备)。dad设备使用一个快速的中断处理程序,不支持共享IRQ线。

(代码295  #1

open匹配的close实现如下所示:

(代码295  #2

下面是小一个装有声卡的系统上/proc/dma文件的内容:

merlino% cat /proc/dma

              1:  Sound Blaster8

              4:  cascade

有趣的是注意到缺省的声卡驱动程序在系统引导时获得DMA通道,并永不释放。显示的cascade项只是占据一个位置,表明通道4对驱动程序不可用,如前所述。

DMA控制器对话

注册完成后,驱动程序的主要工作是为正确的操作来配置DMA控制器。这项工作并不简单,好在核心引出了所有典型驱动程序所需的函数。

readwrite被调用,或者在预备异步传送时,驱动程序都需要配置DMA控制器。第二种情况,任务在open时或在对一个ioctl命令响应时被执行,这依赖于驱动程序及其实现策略。这里给出的代码一般是由readwrite设备方法调用。

本小节对DMA控制器内部给出一个快速的概览,这样你就可以理解这里介绍的代码。如果你想学更多,我鼓励你阅读<asm/dma.h>和一些介绍PC体系结构的硬件手册。特别地,我并不关注8位和16位数据传输的区别。如果你在为ISA设备板子写设备驱动程序,你应该在设备的硬件手册里查找相关信息。

必须装入控制器的信息由三项组成:RAM地址,必须传送的原子项数目(以字节或字为单位),传送的方向。为了这个目的,下面的函数由<asm/dma.h>引出:

void set_dma_mode(unsigned int channel, char mode);

       说明通道是从设备读(DMA_MODE_READ)还是向设备写(DMA_MODE_WRITE)。还有第三个模式,DMA_MODE_CASCADE,用来释放对总线的控制。级联是第一个控制器连到第二个控制器上的方法,但它也可以由真正的ISA bus-master设备使用。我在这里不想讨论bus-master

void set_dma_addr(unsigned int channel, unsigned int addr);

       分配DMA缓冲区的地址。这个函数将addr的低24位存入到控制器。参数addr必须是个总线地址(见“总线地址”)。

void set_dma_count(unsigned int channel, unsigned int count);

       分配要传送的字节数。参数count16位通道仍以字节为单位;在这种情况下,这个数必须是个偶数。

 

除了这几个函数,还有一些必须用来处理DMA设备的杂务工具:

void disable_dma(unsigned int channel);

       一个DMA通道可以在控制器内被关闭。在DMAC被配置之前,通道应该被关闭以防止不正确的操作(控制器通过8位数据传送编程,这样前面的函数都不能被原子地执行。)

void enable_dma(unsigned int channel);

       这个函数告诉控制器这个DMA通道含有效数据。

int get_dma_residue(unsigned int channel);

       驱动程序有时需要知道一个DMA传送是否结束了。这个函数返回尚待传送的字节数。如果成功传送完,则返回0;如果控制器还在工作,返回值则不可预知(但不是0)。这种不可预知性反映一个事实,即这个余数是个16位值,通过两个8位输入操作获得。

void clear_dma_ff(unsigned int channel);

       这个函数清除DMA flip-flopflip-flop用来控制对16位寄存器的访问。这些寄存器由两个连续的8位操作来访问,flip-flop用来选中低字节(当它被清除时)或高字节(当它被置时)。flip-flop8位传输完后自动反转;在访问DMA积存器前必须清除一次flip-flop

 

用这些函数,驱动程序可以实现如下所示的一个函数来预备一个DMA传送:

(代码297

如下的函数用来检查DMA的成功完成:

int dad_dma_isdone(int channel)

{

     return(get_dma_residue(channel)==0);

}

剩下唯一要做的事就是配置设备板子。这个设备特定的任务通常包括读写几个I/O端口。设备在很多地方不同。例如,有的设备期望程序员告诉硬件DMA缓冲区有多大,有时驱动程序必须从设备中读出被硬写入的数值。为了配置板子,硬件手册是你唯一的朋友。

 

DMAPCI设备

DMAPCI实现比ISA上要简单的多。

PCI支持多个bus-master,而DMA就简化成bus-mastering。需要读写主存的设备只需要简单地请求获得总线的控制,接着就可以直接控制电信号。PCI的实现在硬件级更精巧,在设备驱动程序中更容易管理。

编写PCI上的DMA传送由下列步骤组成:

分配一个缓冲区

       DMA缓冲区在内存中必须是物理连续的,但没有16MB寻址能力的限制。一个get_free_page调用就足够了。不必在优先级中指定GFP   _DMA。如果你真的需要它,你可以转向(不鼓励)在前面“分配DMA缓冲区”中介绍过的更具进攻性的技术。

和设备对话

       扩展设备必须被告知DMA缓冲区。这通常意味着将缓冲区的地址和大小写入几个设备积存器。有时,DMA的大小由硬件设备决定,但这是设备相关的。传往PCI设备的地址必须是总线地址。

正如你所看到的,不存在为PCI设备编写的通用代码。一个典型的实现如下所示,但每个设备都不相同,配置信息量变化也很大。

(代码298

快速参考

本章介绍了与内存处理有关的下列符号。下面的列表不包括第一节中介绍的符号,因为其列表太大,而且那些符号在设备驱动程序中也很少用到。

#include <linux/mm.h>

       所有与内存管理有关的函数和结构在这个头文件中定义。

int remap_page_range(unsigned long virt_add, unsigned long phys_add,

                   unsigned long size, pgprot_t prot);

       这个函数居于mmap的核心,它将开始于物理地址phys_addsize字节映射到virt_add。与虚拟空间相关联的保护位在port中指定。

#include <asm/io.h>

unsigned long virt_to_bus(volatile void * address);

void * bus_to_virt(unsigned int address);

unsigned long virt_to_phys(volatile void * address);

void * phys_to_virt(unsigned long address);

       这些函数在虚拟和物理地址之间转换。必须使用总线地址来和外围设备对话,物理地址用来和MMU电路对话。

/proc/dma

       这个文件包括DMA控制器中已分配通道的文本形式快照。基于PCIDMA并不显示,因为各个板子独立工作,不必在DMA控制器中分配一个通道。

#include <asm/dma.h>

       这个头文件定义了所有与DMA有关的函数和宏。要使用下面的符号就必须包含它。

int request_dma(unsigned int channel, const char * name);

void free_dma(unsigned int channel);

       这些函数访问DMA注册项。在使用ISA DMA通道前必须注册。

void set_dma_mode(unsigned int channel, char mode);

void set_dma_addr(unsigned int channel, unsigned int addr);

void set_dma_count(unsigned int channel, unsigned int count);

       这些函数用来将DMA信息置入DMA控制器。addr是总线地址。

void disable_dma(unsigned int channel);

void enable_dma(unsigned int channel);

       在配置时,DMA通道必须关闭。这些函数改变DMA通道的状态。

int get_dma_residue(unsigned int channel);

       如果驱动程序想知道DMA传送进行的如何,它可以调用这个函数,返回尚需传送的数据字节数。DMA成功完成后,函数返回0;如果还在传送中,这个值是不可预知的。

void clear_dma_ff(unsigned int channel);

       DMA flip-flop被控制器用来用8位操作来传送16位的值。在传送任何数值到控制器前必须将其清楚。

 



* 事实中,在sparc上的这些函数并不是inline的,而是实际extern的函数,它们没有被引出到模块化的代码中。因此,你不能在运行在上的模块中使用这些函数,不过实际上一般也用不着那样做。

* 当某页成为进程内存映象的一部分时,它的使用计数必须增加,因为在取消映射时,它会被减小。 这类锁定不能在活动的RAM页上实施,因为它可能阻止正常的系统操作(象swappingallocation/deallocation)。

* “碎片”这个词一般用于磁盘,表示文件在磁介质上不是连续地存放。这个概念同样适用于内存,即当每个虚拟地址空间都散布在整个物理RAM,很难为DMA的缓冲区请求分配连续的空闲页。

* 这些电路现在是主板芯片组的一部分,但在几年前,它们是两个独立的8237芯片。

+ 最初的PC只有一个控制器;第二个是在286平台上开始加上的。第二个控制器以主控制器的身份连接的原因是它能处理16位的传送,而第一个控制器一次只传送8位,它的存在只是为了后向兼容。

§ 一个总线I/O周期传送两个字节。

GitHub 加速计划 / li / linux-dash
10.39 K
1.2 K
下载
A beautiful web dashboard for Linux
最近提交(Master分支:2 个月前 )
186a802e added ecosystem file for PM2 4 年前
5def40a3 Add host customization support for the NodeJS version 4 年前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐