linux DMA接口

1.两种DMA映射类型

1.1. 一致性DMA映射(Consistent DMA mappings )

主要用于映射长时间使用的区域。

CPU和DMA controller不需要考虑cache的影响。

这里的consistent实际上是coherent的概念,不能保证consistent,也就是说需要memory barrier来保证memory order。

1.2 流式DMA映射(streaming DMA mapping)

主要用于一次性DMA传输,传输完成后就会释放。

2.指定DMA设备的寻址范围

include/linux/dma-mapping.h

1 // 用于一致性内存映射的映射范围
2 static inline int dma_set_coherent_mask(struct device *dev, u64 mask)
3 // 用于流式内存映射的映射范围
4 static inline int dma_set_mask(struct device *dev, u64 mask);

3.DMA映射接口

3.1一致性DMA接口

分配较大DMA buffer

 1 // dev                DMA控制器设备
 2 // size                要分配的DMA buffer大小
 3 // dma_handle    返回DMA buf的物理地址
 4 // flag                分配标志
 5 // 返回值             DMA buffer的虚拟地址
 6 void *dma_alloc_coherent(struct device *dev, size_t size, dma_addr_t *dma_handle, gfp_t flag)
 7
 8 // dev                DMA控制器设备
 9 // size                释放的DMA buffer大小
10 // cpu_addr        DMA buf的虚拟地址
11 // dma_handle    DMA buf的物理地址
12 void dma_free_coherent(struct device *dev, size_t size,
13         void *cpu_addr, dma_addr_t dma_handle) 

分配较小DMA buffer,从dma poll中申请。

 1 /**
 2  * dma_pool_alloc - 从dma poll获得一块一致性内存
 3  * @pool: 产生内存块的dma pool
 4  * @mem_flags: GFP_* bitmask
 5  * @handle: 返回内存块的dma地址
 6  */
 7 void *dma_pool_alloc(struct dma_pool *pool, gfp_t mem_flags,
 8              dma_addr_t *handle)
 9
10 /**
11  * dma_pool_free - 将内存释放回dma pool
12  * @pool:产生内存块的dma pool
13  * @vaddr: 内存块的虚拟地址
14  * @dma: 内存块的物理地址
15  */
16 void dma_pool_free(struct dma_pool *pool, void *vaddr, dma_addr_t dma)

3.2 流式DMA接口

 1 // dev        需要映射内存的设备
 2 // ptr         映射的buffer虚拟地址
 3 // size        映射的大小
 4 // dir          传输方向
 5 // attr        属性
 6 // 返回值     dma物理地址
 7 dma_addr_t dma_map_single_attrs(struct device *dev, void *ptr,
 8                           size_t size,
 9                           enum dma_data_direction dir,
10                           unsigned long attrs)
11 // dev        需要映射内存的设备
12 // addr      dma区域的物理地址
13 // size        映射的大小
14 // dir         传输方向
15 // attr        属性
16 void dma_unmap_single_attrs(struct device *dev, dma_addr_t addr,
17                       size_t size,
18                       enum dma_data_direction dir,
19                       unsigned long attrs)

page映射

1 dma_addr_t dma_map_page(struct device *dev, struct page *page,
2                       size_t offset, size_t size,
3                       enum dma_data_direction dir)
4
5 void dma_unmap_page(struct device *dev, dma_addr_t addr,
6                   size_t size, enum dma_data_direction dir)

返回dma映射错误

1 // 返回dma映射错误
2 int dma_mapping_error(struct device *dev, dma_addr_t dma_addr)

映射scatterlist

 1 int dma_map_sg_attrs(struct device *dev, struct scatterlist *sg,
 2                    int nents, enum dma_data_direction dir,
 3                    unsigned long attrs)
 4
 5 void dma_unmap_sg_attrs(struct device *dev, struct scatterlist *sg,
 6                       int nents, enum dma_data_direction dir,
 7                       unsigned long attrs)
 8
 9 // 返回map后的dma地址和长度
10 sg_dma_address(struct scatterlist *sg)
11 sg_dma_len(struct scatterlist *sg)

sync操作

 1 void dma_sync_single_for_cpu(struct device *dev, dma_addr_t addr,
 2 size_t size,
 3 enum dma_data_direction dir)
 4
 5 void dma_sync_single_for_device(struct device *dev,
 6 dma_addr_t addr, size_t size,
 7 enum dma_data_direction dir)
 8
 9 void
10 dma_sync_sg_for_cpu(struct device *dev, struct scatterlist *sg,
11 int nelems, enum dma_data_direction dir)
12
13 void
14 dma_sync_sg_for_device(struct device *dev, struct scatterlist *sg,
15 int nelems, enum dma_data_direction dir)

原文地址:https://www.cnblogs.com/fanguang/p/12285674.html

时间: 2024-11-08 22:43:30

linux DMA接口的相关文章

Linux定时器接口

Linux定时器接口主要分为三类: 一. sleep(), unsleep, alarm(),引用了SIGALARM信号,在多线程中使用信号又是相当麻烦的. 二. nanosleep(), clock_nanosleep(),让线程挂起,程序失去响应,多线程网络编程中应该避免. 三. timerfd_create(),也是用信号来deliver超时,将时间转变成一个文件描述符,可以像其他I/O事件一样操作定时器,所以程序中在写I/O框架用到定时器首选timerfd_create(). 1. ti

Linux程序接口实验:取进程标志及用户信息

0.环境平台 操作系统平台: Linux leaf 4.4.0-75-generic #96-Ubuntu SMP Thu Apr 20 09:56:33 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux 相关工具语言:vim,gcc,C语言 1.程序源代码 [email protected]:~/operation/1$ cat pflag.c  #include <unistd.h> #include <pwd.h> #include <sy

[Linux] Linux smaps接口文件结构

在Linux内核 2.6.16中引入了一个系统内存接口特性,这个接口位于/proc/$pid/目录下的smaps文件中 ,一看内容发现是进程内存映像信息,比同一目录下的maps文件更详细些. 400df000-4048c000 r--s 00000000 1f:05 286 /data/dalvik-cache/[email protected]@[email protected] Size: 3764 kB Rss: 1804 kB Pss: 1804 kB Shared_Clean: 0 k

linux seq_file 接口

如我们上面提到的, 在 /proc 下的大文件的实现有点麻烦. 一直以来, /proc 方法因为 当输出数量变大时的错误实现变得声名狼藉. 作为一种清理 /proc 代码以及使内核开发 者活得轻松些的方法, 添加了 seq_file 接口. 这个接口提供了简单的一套函数来实现大 内核虚拟文件. set_file 接口假定你在创建一个虚拟文件, 它涉及一系列的必须返回给用户空间的项. 为使用 seq_file, 你必须创建一个简单的 "iterator" 对象, 它能在序列里建立一个位

linux alloc_pages 接口

为完整起见, 我们介绍另一个内存分配的接口, 尽管我们不会准备使用它直到 15 章. 现 在, 能够说 struct page 是一个描述一个内存页的内部内核结构. 如同我们将见到的, 在内核中有许多地方有必要使用页结构; 它们是特别有用的, 在任何你可能处理高端内存 的情况下, 高端内存在内核空间中没有一个常量地址. Linux 页分配器的真正核心是一个称为 alloc_pages_node 的函数: struct page *alloc_pages_node(int nid, unsigne

Linux内核接口特定的类型

内核中一些通常使用的数据类型有它们自己的 typedef 语句, 因此阻止了任何移植性问 题. 例如, 一个进程标识符 ( pid ) 常常是 pid_t 而不是 int. 使用 pid_t 屏蔽了任 何在实际数据类型上的不同. 我们使用接口特定的表达式来指一个类型, 由一个库定义的, 以便于提供一个接口给一个特定的数据结构. 注意, 在近期, 已经相对少定义新的接口特定类型. 使用 typedef 语句已经有许多内核 开发者不喜欢, 它们宁愿看到代码中直接使用的真实类型信息, 不是藏在一个用户

Linux DMA访问的一致性

DMA访问的一致性 DMA对内存是直接访问的,而CPU对内存的访问有时会通过cache.不管是CPU还是DMA访问内存,都需要确保cache的一致性.本文只分析从DMA的角度,对内存的访问如何确保cache的一致性.个人理解,通常为保证cache的一致性,在DMA访问内存前后,对cache要有下面必要的操作. DMA读操作 DMA从外设读取数据到内存时,因读取完成后内存数据改变,因此需要在读取完成后invalidate cache. DMA写操作 DMA将内存的数据写入外设时,在写之前,有可能c

linux伙伴系统接口alloc_page分析1

在内核中分配内存,最后要通过伙伴系统接口进行实际物理页面的分配,一个重要的接口便是alloc_page.本文介绍下alloc_page的主要流程,各个部分的执行.主要包含正常分配流程,当页面不足的时候的处理方式.先定位到核心调用 #define alloc_page(gfp_mask) alloc_pages(gfp_mask, 0) order是分配页面的阶,即2的指数个页面 #define alloc_pages(gfp_mask, order) \ alloc_pages_node(num

linux /proc 接口和共享中断

在系统中安装共享处理者不影响 /proc/stat, 它甚至不知道处理者. 但是, /proc/interrupts 稍稍变化. 所有同一个中断号的安装的处理者出现在 /proc/interrupts 的同一行. 下列输出( 从一 个 x86_64 系统)显示了共享中断处理是如何显示的: CPU0 0: 8 92335412 XT-PIC timer 1: 4 53971 XT-PIC i8042 2: 0 XT-PIC cascade 5: 0 XT-PIC libata, ehci_hcd