DPDK mempool

Mempool 库

内存池是固定大小的对象分配器。 在DPDK中,它由名称唯一标识,并且使用mempool操作来存储空闲对象。 默认的mempool操作是基于ring的。它提供了一些可选的服务,如per-core缓存和对齐帮助,以确保对象被填充, 方便将他们均匀扩展到DRAM或DDR3通道上。

这个库由 Mbuf Library 使用。

1.1. Cookies

在调试模式(CONFIG_RTE_LIBRTE_MEMPOOL_DEBUG is enabled)中,将在块的开头和结尾处添加cookies。 分配的对象包含保护字段,以帮助调试缓冲区溢出。

1.2. Stats

在调试模式(CONFIG_RTE_LIBRTE_MEMPOOL_DEBUG is enabled)中,从池中获取/释放的统计信息存放在mempool结构体中。 统计信息是per-lcore的,避免并发访问统计计数器。

1.3. 内存对齐约束

根据硬件内存配置,可以通过在对象之间添加特定的填充来大大提高性能。 其目的是确保每个对象开始于不同的通道上,并在内存中排列,以便实现所有通道负载均衡。

特别是当进行L3转发或流分类时,报文缓冲对齐尤为重要。此时仅访问报文的前64B,因此可以通过在不同的信道之间扩展对象的起始地址来提升性能。

DIMM上的rank数目是可访问DIMM完整数据位宽的独立DIMM集合的数量。 由于他们共享相同的路径,因此rank不能被同事访问。 DIMM上的DRAM芯片的物理布局无需与rank数目相关。

当运行app时,EAL命令行选项提供了添加内存通道和rank数目的能力。

Note

命令行必须始终指定处理器的内存通道数目。

不同DIMM架构的对齐示例如图所示 Fig. 5.1Fig. 5.2

Fig. 5.1 Two Channels and Quad-ranked DIMM Example

在这种情况下,假设吧平稳是64B块就不成立了。

Intel® 5520芯片组有三个通道,因此,在大多数情况下,对象之间不需要填充。(除了大小为n x 3 x 64B的块)

Fig. 5.2 Three Channels and Two Dual-ranked DIMM Example

当创建一个新池时,用户可以指定使用此功能。

1.4. 本地缓存

在CPU使用率方面,由于每个访问需要compare-and-set (CAS)操作,所以多核访问内存池的空闲缓冲区成本比较高。 为了避免对内存池ring的访问请求太多,内存池分配器可以维护per-core cache,并通过实际内存池中具有较少锁定的缓存对内存池ring执行批量请求。 通过这种方式,每个core都可以访问自己空闲对象的缓存(带锁), 只有当缓存填充时,内核才需要将某些空闲对象重新放回到缓冲池ring,或者当缓存空时,从缓冲池中获取更多对象。

虽然这意味着一些buffer可能在某些core的缓存上处于空闲状态,但是core可以无锁访问其自己的缓存提供了性能上的提升。

缓存由一个小型的per-core表及其长度组成。可以在创建池时启用/禁用此缓存。

缓存大小的最大值是静态配置,并在编译时定义的(CONFIG_RTE_MEMPOOL_CACHE_MAX_SIZE)。

Fig. 5.3 显示了一个缓存操作。

Fig. 5.3 A mempool in Memory with its Associated Ring

不同于per-lcore内部缓存,应用程序可以通过接口 rte_mempool_cache_create()rte_mempool_cache_free()rte_mempool_cache_flush() 创建和管理外部缓存。 这些用户拥有的缓存可以被显式传递给 rte_mempool_generic_put()rte_mempool_generic_get() 。 接口 rte_mempool_default_cache() 返回默认内部缓存。 与默认缓存相反,用户拥有的高速缓存可以由非EAL线程使用。

1.5. Mempool 句柄

这允许外部存储子系统,如外部硬件存储管理系统和软件存储管理与DPDK一起使用。

mempool 操作包括两方面:

  • 添加新的mempool操作代码。这是通过添加mempool ops代码,并使用 MEMPOOL_REGISTER_OPS 宏来实现的。
  • 使用新的API调用 rte_mempool_create_empty()rte_mempool_set_ops_byname() 用于创建新的mempool,并制定用户要使用的操作。

在同一个应用程序中可能会使用几个不同的mempool处理。 可以使用 rte_mempool_create_empty() 创建一个新的mempool,然后用 rte_mempool_set_ops_byname() 将mempool指向相关的 mempool处理回调(ops)结构体。

传统的应用程序可能会继续使用旧的 rte_mempool_create() API调用,它默认使用基于ring的mempool处理。 这些应用程序需要修改为新的mempool处理。

对于使用 rte_pktmbuf_create() 的应用程序,有一个配置设置(RTE_MBUF_DEFAULT_MEMPOOL_OPS),允许应用程序使用另一个mempool处理。

1.6. Mempool

DPDK以两种方式对外提供内存管理方法,一个是rte_mempool,主要用于网卡数据包的收发;一个是rte_malloc,主要为应用程序提供内 存使用接口。本文讨论rte_mempool。rte_mempool由函数rte_mempool_create()负责创建,从 rte_config.mem_config->free_memseg[]中取出合适大小的内存,放到 rte_config.mem_config->memzone[]中。

rte_mempool结构体:

 1 /**
 2  * The RTE mempool structure.
 3  */
 4 struct rte_mempool {
 5     /*
 6      * Note: this field kept the RTE_MEMZONE_NAMESIZE size due to ABI
 7      * compatibility requirements, it could be changed to
 8      * RTE_MEMPOOL_NAMESIZE next time the ABI changes
 9      */
10     char name[RTE_MEMZONE_NAMESIZE]; /**< Name of mempool. */
11     RTE_STD_C11
12     union {
13         void *pool_data;         /**< Ring or pool to store objects. */
14         uint64_t pool_id;        /**< External mempool identifier. */
15     };
16     void *pool_config;               /**< optional args for ops alloc. */
17     const struct rte_memzone *mz;    /**< Memzone where pool is alloc‘d. */
18     unsigned int flags;              /**< Flags of the mempool. */
19     int socket_id;                   /**< Socket id passed at create. */
20     uint32_t size;                   /**< Max size of the mempool. */
21     uint32_t cache_size;
22     /**< Size of per-lcore default local cache. */
23
24     uint32_t elt_size;               /**< Size of an element. */
25     uint32_t header_size;            /**< Size of header (before elt). */
26     uint32_t trailer_size;           /**< Size of trailer (after elt). */
27
28     unsigned private_data_size;      /**< Size of private data. */
29     /**
30      * Index into rte_mempool_ops_table array of mempool ops
31      * structs, which contain callback function pointers.
32      * We‘re using an index here rather than pointers to the callbacks
33      * to facilitate any secondary processes that may want to use
34      * this mempool.
35      */
36     int32_t ops_index;
37
38     struct rte_mempool_cache *local_cache; /**< Per-lcore local cache */
39
40     uint32_t populated_size;         /**< Number of populated objects. */
41     struct rte_mempool_objhdr_list elt_list; /**< List of objects in pool */
42     uint32_t nb_mem_chunks;          /**< Number of memory chunks */
43     struct rte_mempool_memhdr_list mem_list; /**< List of memory chunks */
44
45 #ifdef RTE_LIBRTE_MEMPOOL_DEBUG
46     /** Per-lcore statistics. */
47     struct rte_mempool_debug_stats stats[RTE_MAX_LCORE];
48 #endif
49 }  __rte_cache_aligned;

原文地址:https://www.cnblogs.com/mysky007/p/11135593.html

时间: 2024-08-02 02:37:55

DPDK mempool的相关文章

DPDK架构与特点

当年在某公司实习的时候,当时老大给了我一份DPDK的文档,说是将来很有用,熟悉DPDK对能力提高也有帮助,就试着翻译了 <Intel DPDK Getting Started Guide>和半个<Intel DPDK Programmers Guide>,后来忙着论文就没再搞了.现在,发现 pf_ring的统计虚高了,只好重新拥抱DPDK了. DPDK的代码量还是很庞大的,分析代码之前理清库里面的各个部分的关系很有必要,下面的一张图很好的表现了各部分关系. 先介绍DPDK中的几个缩

[dpdk] 熟悉SDK与初步使用 (三)(IP Fragmentation源码分析)

对例子IP Fragmentation的熟悉,使用,以及源码分析. 问题一: main()函数大概是这样的:标红的三行将与下面叙述的事情相关 int main(int argc, char **argv) { ... ... /* init EAL */ ret = rte_eal_init(argc, argv); if (ret < 0) rte_exit(EXIT_FAILURE, "rte_eal_init failed"); ... ... /* launch per-

[dpdk] 读开发指南(1)

该文档是随着对于文档的阅读进度,不断增加的阅读笔记.主要内容以大纲为主,以及记录帮助记忆的内容. 在之后的实际应用中,也不随着不断的深入理解,逐渐丰富各大纲下面的内容. 1. 前期准备:设置两个环境变量. export RTE_SDK=/home/user/DPDK export RTE_TARGET=x86_64-native-linuxapp-gcc 2. dpdk提供的环境抽象层: DPDK loading and launching                        DPDK

DPDK内存管理(1)

1 前言 DPDK将利用hugepage预留的物理内存统一的组织管理起来,然后以库的方式对外提供使用的接口.下图展示了DPDK中内存有关的模块的相互关系. rte_eal            是统一的组织管理者(当然rte_eal不只是做内存的工作) rte_malloc       对外提供分配释放内存的API,分配的内存都是rte_eal中管理的内存 rte_ring          提供无锁队列,他之间使用了rte_eal管理的内存 rte_mempool  利用rte_eal中的内存

dpdk基础模块之rte_mbuf详解

Rte_mbuf 本文假定报文的长度不超过rte_mbuf->buf_len的长度. 内存结构 分配操作 Mbuf由缓冲池rte_mempool管理,rte_mempool在初始化时一次申请多个mbuf,申请的mbuf个数和长度都由用户指定.宏MBUF_SIZE是例子程序中使用的mbuf长度: #define MBUF_SIZE (2048 + sizeof(struct rte_mbuf) + RTE_PKTMBUF_HEADROOM) 用下面函数向rte_mempool申请一个mbuf: s

DPDK中Log的使用方法

本文谢绝转载,如有需要,请以链接的方式引用. 注:本文中的代码为git库中的dpdk-2.0.0-rc1,对应Linux平台. 1 log简介 dpdk中通过log系统记录相关的日志信息,每一条日志除日志内容外,还有两个附加信息,log级别和log类型.开发人员可根据级别和类型对日志信息进行过滤,只记录 必要的日志. 1.1 log级别 根据日志信息的优先级高低,dpdk将日志信息分为8个级别,其中RTE_LOG_DEBUG的值为8,这是日志的最高级别,也就是说记录的日志信息最多:相应的,RTE

DPDK内存管理-----(二)rte_mempool内存管理

DPDK以两种方式对外提供内存管理方法,一个是rte_mempool,主要用于网卡数据包的收发:一个是rte_malloc,主要为应用程序提供内存使用接口.本文讨论rte_mempool.rte_mempool由函数rte_mempool_create()负责创建,从rte_config.mem_config->free_memseg[]中取出合适大小的内存,放到rte_config.mem_config->memzone[]中. 本文中,以l2fwd为例,说明rte_mempool的创建及使

DPDK内存管理(1)(转)

1 前言 DPDK将利用hugepage预留的物理内存统一的组织管理起来,然后以库的方式对外提供使用的接口.下图展示了DPDK中内存有关的模块的相互关系. rte_eal            是统一的组织管理者(当然rte_eal不只是做内存的工作) rte_malloc       对外提供分配释放内存的API,分配的内存都是rte_eal中管理的内存 rte_ring          提供无锁队列,他之间使用了rte_eal管理的内存 rte_mempool  利用rte_eal中的内存

DPDK内存管理-----(一)初始化

1 前言 DPDK通过使用hugetlbfs,减少CPU TLB表的Miss次数,提高性能. 2 初始化 DPDK的内存初始化工作,主要是将hugetlbfs的配置的大内存页,根据其映射的物理地址是否连续.属于哪个Socket等,有效的组织起来,为后续管理提供便利. 2.1 eal_hugepage_info_init() eal_hugepage_info_init()主要是获取配置好的Hugetlbfs的相关信息,并将其保存在struct internal_config数据结构中. 主要工作