glusterfs 内存管理方式

glusterfs中的内存管理方式:

 1 struct mem_pool *
 2 mem_pool_new_fn (unsigned long sizeof_type,
 3                  unsigned long count, char *name)
 4 {
 5         struct mem_pool  *mem_pool = NULL;
 6         unsigned long     padded_sizeof_type = 0;
 7         void             *pool = NULL;
 8         int               i = 0;
 9         int               ret = 0;
10         struct list_head *list = NULL;
11         glusterfs_ctx_t  *ctx = NULL;
12
13         if (!sizeof_type || !count) {
14                 gf_log_callingfn ("mem-pool", GF_LOG_ERROR, "invalid argument");
15                 return NULL;
16         }
17         padded_sizeof_type = sizeof_type + GF_MEM_POOL_PAD_BOUNDARY;
18
19         mem_pool = GF_CALLOC (sizeof (*mem_pool), 1, gf_common_mt_mem_pool);
20         if (!mem_pool)
21                 return NULL;
22
23         ret = gf_asprintf (&mem_pool->name, "%s:%s", THIS->name, name);
24         if (ret < 0)
25                 return NULL;
26
27         if (!mem_pool->name) {
28                 GF_FREE (mem_pool);
29                 return NULL;
30         }
31
32         LOCK_INIT (&mem_pool->lock);
33         INIT_LIST_HEAD (&mem_pool->list);
34         INIT_LIST_HEAD (&mem_pool->global_list);
35
36         mem_pool->padded_sizeof_type = padded_sizeof_type;
37         mem_pool->cold_count = count;
38         mem_pool->real_sizeof_type = sizeof_type;
39
40         pool = GF_CALLOC (count, padded_sizeof_type, gf_common_mt_long);
41         if (!pool) {
42                 GF_FREE (mem_pool->name);
43                 GF_FREE (mem_pool);
44                 return NULL;
45         }
46
47         for (i = 0; i < count; i++) {
48                 list = pool + (i * (padded_sizeof_type));
49                 INIT_LIST_HEAD (list);
50                 list_add_tail (list, &mem_pool->list);
51         }
52
53         mem_pool->pool = pool;
54         mem_pool->pool_end = pool + (count * (padded_sizeof_type));
55
56         /* add this pool to the global list */
57         ctx = THIS->ctx;
58         if (!ctx)
59                 goto out;
60
61         list_add (&mem_pool->global_list, &ctx->mempool_list);
62
63 out:
64         return mem_pool;
65 }

在第19行中申请了一个mem_pool内存管理结构,在初始化这个结构体后,40行申请了真正要使用的内存pool并把用mem_pool->list链表串起来。之后再记录内存池的开始和结束地址(53-54),再把这个结构加入全局管理。

再看一下申请后的内存是如何使用的呢?

 1 void *
 2 mem_get (struct mem_pool *mem_pool)
 3 {
 4         struct list_head *list = NULL;
 5         void             *ptr = NULL;
 6         int             *in_use = NULL;
 7         struct mem_pool **pool_ptr = NULL;
 8
 9         if (!mem_pool) {
10                 gf_log_callingfn ("mem-pool", GF_LOG_ERROR, "invalid argument");
11                 return NULL;
12         }
13
14         LOCK (&mem_pool->lock);
15         {
16                 mem_pool->alloc_count++;
17                 if (mem_pool->cold_count) {
18                         list = mem_pool->list.next;
19                         list_del (list);
20
21                         mem_pool->hot_count++;
22                         mem_pool->cold_count--;
23
24                         if (mem_pool->max_alloc < mem_pool->hot_count)
25                                 mem_pool->max_alloc = mem_pool->hot_count;
26
27                         ptr = list;
28                         in_use = (ptr + GF_MEM_POOL_LIST_BOUNDARY +
29                                   GF_MEM_POOL_PTR);
30                         *in_use = 1;
31
32                         goto fwd_addr_out;
33                 }
34
35                 /* This is a problem area. If we‘ve run out of
36                  * chunks in our slab above, we need to allocate
37                  * enough memory to service this request.
38                  * The problem is, these individual chunks will fail
39                  * the first address range check in __is_member. Now, since
40                  * we‘re not allocating a full second slab, we wont have
41                  * enough info perform the range check in __is_member.
42                  *
43                  * I am working around this by performing a regular allocation
44                  * , just the way the caller would‘ve done when not using the
45                  * mem-pool. That also means, we‘re not padding the size with
46                  * the list_head structure because, this will not be added to
47                  * the list of chunks that belong to the mem-pool allocated
48                  * initially.
49                  *
50                  * This is the best we can do without adding functionality for
51                  * managing multiple slabs. That does not interest us at present
52                  * because it is too much work knowing that a better slab
53                  * allocator is coming RSN.
54                  */
55                 mem_pool->pool_misses++;
56                 mem_pool->curr_stdalloc++;
57                 if (mem_pool->max_stdalloc < mem_pool->curr_stdalloc)
58                         mem_pool->max_stdalloc = mem_pool->curr_stdalloc;
59                 ptr = GF_CALLOC (1, mem_pool->padded_sizeof_type,
60                                  gf_common_mt_mem_pool);
61                 gf_log_callingfn ("mem-pool", GF_LOG_DEBUG, "Mem pool is full. "
62                                   "Callocing mem");
63
64                 /* Memory coming from the heap need not be transformed from a
65                  * chunkhead to a usable pointer since it is not coming from
66                  * the pool.
67                  */
68         }
69 fwd_addr_out:
70         pool_ptr = mem_pool_from_ptr (ptr);
71         *pool_ptr = (struct mem_pool *)mem_pool;
72         ptr = mem_pool_chunkhead2ptr (ptr);
73         UNLOCK (&mem_pool->lock);
74
75         return ptr;
76 }

从17行到33行可以看出,当需要内存时,glusterfs从mem_pool->list中分配内存。关键是:当内存不足时,mem_pool如何处理呢?55-63行处理这个问题:当内存不足时,它向系统申请了内存,并处理了内存的管理信息后,直接将内存返回给调用者。

最后看看内存的释放过程:

 1 void
 2 mem_put (void *ptr)
 3 {
 4         struct list_head *list = NULL;
 5         int    *in_use = NULL;
 6         void   *head = NULL;
 7         struct mem_pool **tmp = NULL;
 8         struct mem_pool *pool = NULL;
 9
10         if (!ptr) {
11                 gf_log_callingfn ("mem-pool", GF_LOG_ERROR, "invalid argument");
12                 return;
13         }
14
15         list = head = mem_pool_ptr2chunkhead (ptr);
16         tmp = mem_pool_from_ptr (head);
17         if (!tmp) {
18                 gf_log_callingfn ("mem-pool", GF_LOG_ERROR,
19                                   "ptr header is corrupted");
20                 return;
21         }
22
23         pool = *tmp;
24         if (!pool) {
25                 gf_log_callingfn ("mem-pool", GF_LOG_ERROR,
26                                   "mem-pool ptr is NULL");
27                 return;
28         }
29         LOCK (&pool->lock);
30         {
31
32                 switch (__is_member (pool, ptr))
33                 {
34                 case 1:
35                         in_use = (head + GF_MEM_POOL_LIST_BOUNDARY +
36                                   GF_MEM_POOL_PTR);
37                         if (!is_mem_chunk_in_use(in_use)) {
38                                 gf_log_callingfn ("mem-pool", GF_LOG_CRITICAL,
39                                                   "mem_put called on freed ptr %p of mem "
40                                                   "pool %p", ptr, pool);
41                                 break;
42                         }
43                         pool->hot_count--;
44                         pool->cold_count++;
45                         *in_use = 0;
46                         list_add (list, &pool->list);
47                         break;
48                 case -1:
49                         /* For some reason, the address given is within
50                          * the address range of the mem-pool but does not align
51                          * with the expected start of a chunk that includes
52                          * the list headers also. Sounds like a problem in
53                          * layers of clouds up above us. ;)
54                          */
55                         abort ();
56                         break;
57                 case 0:
58                         /* The address is outside the range of the mem-pool. We
59                          * assume here that this address was allocated at a
60                          * point when the mem-pool was out of chunks in mem_get
61                          * or the programmer has made a mistake by calling the
62                          * wrong de-allocation interface. We do
63                          * not have enough info to distinguish between the two
64                          * situations.
65                          */
66                         pool->curr_stdalloc--;
67                         GF_FREE (list);
68                         break;
69                 default:
70                         /* log error */
71                         break;
72                 }
73         }
74         UNLOCK (&pool->lock);
75 }

在switch语句中,在case 1中处理了内存池分配的过程。在case 0中处理内存不足的情况,从这里看出,glusterfs直接将内存释放了,正好与分配的过程完美的结合。

glusterfs 内存管理方式,布布扣,bubuko.com

时间: 2024-12-20 10:47:06

glusterfs 内存管理方式的相关文章

操作系统--内存管理方式

“碎片的内存”描述一个系统中所有不可用的空闲内存.这些资源之所以仍然未被使用,是因为负责分配内存的分配器使这些内存无法使用.这一问题通常都会发生,原因在于空闲内存以小而不连续方式出现在不同的位置.由于分 配方法决定内存碎片是否是一个问题,因此内存分配器在保证空闲资源可用性方面扮演着重要的角色. internal fragmentation:when memory allocated to a process is larger than requested memory, the differe

windows内存管理方式以及优缺点

Windows内存管理方式:页式管理,段式管理,段页式管理 页式管理 将各进程的虚拟空间(逻辑地址)划分为若干个长度相等的页,业内管理把内存空间(物理内存)按照页的大小划分为片或者页面,从而实现了离散分配,然后把页式虚拟地址和内存地址建立一一对应的页表,并用相应的硬件地址变换机构来解决离散地址变化问题,(程序加载时,可将任意一页放入内存中任意一个页框而且这些页框不必连续,从而实现了离散分配)页式管理采用请求调页或预调页技术来实现内外存存储器的统一管理,地址结构由两部分构成,页号+页内地址 其优点

十天学Linux内核之第三天---内存管理方式

昨天分析的进程的代码让自己还在头昏目眩,脑子中这几天都是关于Linux内核的,对于自己出现的一些问题我会继续改正,希望和大家好好分享,共同进步.今天将会讲诉Linux如何追踪和管理用户空间进程的可用内存和内核的可用内存,还会讲到内核对内存分类的方式以及如何决定分配和释放内存,内存管理是应用程序通过软硬件协助来访问内存的一种方式,这里我们主要是介绍操作系统正常运行对内存的管理.插个话题,刚才和姐姐聊天,她快结婚了,说起了自己的初恋,可能是一句很搞笑的话,防火防盗防初恋,,嘎嘎,这个好像是的吧,尽管

Linux内核学习笔记——内核内存管理方式

一 页 内核把物理页作为内存管理的基本单位:内存管理单元(MMU)把虚拟地址转换为物理 地址,通常以页为单位进行处理.MMU以页大小为单位来管理系统中的也表. 32位系统:页大小4KB 64位系统:页大小8KB 内核用相应的数据结构表示系统中的每个物理页: <linux/mm_types.h> struct page {} 内核通过这样的数据结构管理系统中所有的页,因此内核判断一个页是否空闲,谁有拥有这个页 ,拥有者可能是:用户空间进程.动态分配的内核数据.静态内核代码.页高速缓存…… 系统中

glibc内存管理方式

程序员接触的内存空间和系统接触的物理内存空间是有所区别的.对于一般进程来讲,他面对的是一个线性虚拟内存空间:地址从0到最大值.每一个进程面对的虚拟内存空间都是一样的,都享有全部的内存地址.虚拟内存空间是线性的,但并不意味着是连续的.部分地址段的虚拟空间可以是缺失的(不是所有地址都可以用来存储数据). 虚拟内存可以按页管理,每一页大小一般为4kb.每一页背后都有一个实际物理内存(可以是主存也可以是辅存)与之对应.在物理内存中我们不叫页,而称之为帧.分页的好处就是可以在主存不够的情况下把辅存给利用上

(笔记)Linux内核学习(九)之内核内存管理方式

一 页 内核把物理页作为内存管理的基本单位:内存管理单元(MMU)把虚拟地址转换为物理 地址,通常以页为单位进行处理.MMU以页大小为单位来管理系统中的也表. 32位系统:页大小4KB 64位系统:页大小8KB 内核用相应的数据结构表示系统中的每个物理页: <linux/mm_types.h> struct page {} 内核通过这样的数据结构管理系统中所有的页,因此内核判断一个页是否空闲,谁有拥有这个页 ,拥有者可能是:用户空间进程.动态分配的内核数据.静态内核代码.页高速缓存-- 系统中

ORACLE 11G内存管理方式

SGA包含的组件: 组件名 说明 参数 buffer cache 存放从数据文件中读取的数据拷贝,所有用户之间是可以共享的 db_cache_size db_keep_cache_size db_recycle_cache_size db_nk_cache_size redo log buffer redo数据 log_buffer shared pool 存放库缓存和数据字典缓存,结果缓存,并行执行消息缓存,以及控制结构信息 shared_pool_size shared_pool_reser

c++ 内存管理方式

参考自: [1] https://www.cnblogs.com/xuelisheng/p/9278800.html [2] https://www.cnblogs.com/findumars/p/5929831.html?utm_source=itdadao&utm_medium=referral [2] 对于 c++ 中内存的管理讨论得很深入. 1. 静态储存区,储存全局变量,常量.程序编译时即分配好,程序运行结束时自动释放. 2. 栈区,非常有限的一块内存区域,储存局域变量,函数调用结束之

Windows内存管理的方式

一.内存的概念 1. 物理内存:即插在主板上的内存条.他是固定的,内存条的容量多大,物理内存就有多大(集成显卡系统除外). 但是如果程序运行很多或者程序本身很大的话,就会导致大量的物理内存占用,甚至导致物理内存消耗殆尽. 2. 虚拟内存:虚拟内存就是在硬盘上划分一块页面文件,充当内存. 当程序在运行时,有一部分资源还没有用上或者同时打开几个程序却只操作其中一个程序时,系统没必要将程序所有的资源都塞在物理内存中,于是,系统将这些暂时不用的资源放在虚拟内存上,等到需要时在调出来用. 当程序运行时需要