日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 运维知识 > linux >内容正文

linux

Linux内存管理 - slab分配器和kmalloc

發(fā)布時間:2023/12/20 linux 55 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Linux内存管理 - slab分配器和kmalloc 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

本文目的在于分析Linux內(nèi)存管理機制的slab分配器。內(nèi)核版本為2.6.31。
1. SLAB分配器

內(nèi)核需要經(jīng)常分配內(nèi)存,我們在內(nèi)核中最常用的分配內(nèi)存的方式就是kmalloc了。前面講過的伙伴系統(tǒng)只支持按頁分配內(nèi)存,但這個單位太大了,有時候我們并不需要這么大的內(nèi)存,比如我想申請128字節(jié)的空間,如果直接使用伙伴系統(tǒng)則需分配4KB的一整頁,這顯然是浪費。

slab分配器將頁拆分為更小的單位來管理,來滿足小于一頁的內(nèi)存需求。它將連續(xù)的幾個頁劃分出更小的部分拿來分配相同類型的內(nèi)存對象,對象的位置盡量做到某種對齊要求(如處理器的L1高速緩存行對齊)以便不對CPU高速緩存和TLB帶來顯著影響。slab把一類對象統(tǒng)一管理,例如,劃出兩個頁的內(nèi)存,將其分成n小份用來分配一類對象的實例,同時slab也維護一些通用的對象,用來供kmalloc使用。

提供小塊內(nèi)存并不是slab分配器的唯一任務(wù),由于結(jié)構(gòu)上的特點,它也用作一個緩存,主要針對經(jīng)常分配內(nèi)存并釋放的對象。slab分配器將釋放的內(nèi)存保存在一個內(nèi)部列表中,并不馬上返還給伙伴系統(tǒng)。在請求為該類對象分配一個實例時,會使用最近釋放的內(nèi)存塊,這樣就不必觸及伙伴系統(tǒng)以縮短分配消耗的時間,另外由于該內(nèi)存塊是“新”的,其駐留在CPU高速緩存的概率也會較高。

在下面的代碼分析中,你會看到slab的這些“手段”是如何實現(xiàn)的。

先說一下“slab著色(slab coloring)”機制,是用來防止高速緩存沖突的:相同類型的slab、對象很有可能被保存到相同的CPU cache的緩存行中,經(jīng)常使用的對象被放到CPU cache中,這當(dāng)然使我們想要的,但如果兩個不同的對象每次都被放到相同的緩存行中,那交替的讀取這兩個對象,會導(dǎo)致緩存行的內(nèi)容不斷的被更新,也就無法體現(xiàn)緩存的好處了。不過我的內(nèi)核版本是2.6.31,已經(jīng)沒有slab著色機制了,所以大家看到coloring什么的就不要再糾結(jié)了。

內(nèi)核中還提供了slob和slub兩種替代品,因為slab的結(jié)構(gòu)很復(fù)雜,并且需要使用太多額外的空間去管理一類對象。關(guān)于這兩個替代品我就不多說了,slub在性能和緩存占用方面都要優(yōu)于slab,并且在一些嵌入式設(shè)備上會看到內(nèi)核使用slub。
2. SLAB分配器的實現(xiàn)
2.1 SLAB分配器初始化

系統(tǒng)啟動時slab分配器初始化的函數(shù)為kmem_cache_init()和kmem_cache_init_late()。函數(shù)名中的“cache”是指slab分配器,我們也稱作slab緩存,注意,它與CPU中的高速緩存沒有關(guān)系,但上面講到slab利用了高速緩存的特性。下面的分析中,我會使用“slab緩存”這種叫法。

kmem_cache_init()函數(shù)為分配slab對象準備最基本的環(huán)境。在分析這個函數(shù)之前,我們先看一個內(nèi)核中創(chuàng)建slab緩存的例子:

??? static struct kmem_cache *nf_conntrack_cachep __read_mostly;
??? ?
??? nf_conntrack_cachep= kmem_cache_create("nf_conntrack",
???????????????????????? sizeof(struct nf_conn),
???????????????????????? 0, SLAB_DESTROY_BY_RCU, NULL);

上面的代碼在內(nèi)核協(xié)議棧的鏈接跟蹤模塊中創(chuàng)建struct nf_conn的slab緩存,這個slab緩存用于分配struct nf_conn對象。

當(dāng)想申請一個struct nf_conn結(jié)構(gòu)的對象時,使用kmem_cache_alloc()函數(shù)進行分配。

??? struct nf_conn *ct;
??? ct =kmem_cache_alloc(nf_conntrack_cachep, gfp);

可以看到,創(chuàng)建和使用slab緩存是非常方便的。在/proc/slabinfo文件中可以看到內(nèi)核中所創(chuàng)建的slab緩存。

kmem_cache_create()用于創(chuàng)建一個slab緩存,在哪里創(chuàng)建呢,kmem_cache_init()函數(shù)的工作就是初始化用于創(chuàng)建slab緩存的slab緩存。也就是說,一個slab緩存也應(yīng)該是通過函數(shù)kmem_cache_create()來創(chuàng)建的,但是很容易想到,內(nèi)核中的第一個slab緩存肯定不能通過這個函數(shù)來創(chuàng)建,在內(nèi)核中使用一個編譯時生成的靜態(tài)變量作為第一個slab緩存。

slab緩存用一個struct kmem_cache結(jié)構(gòu)來描述。內(nèi)核中的第一個slab緩存定義如下:

??? static struct kmem_cache cache_cache = {
??????? .batchcount = 1,
??????? .limit = BOOT_CPUCACHE_ENTRIES,
??????? .shared = 1,
??????? .buffer_size = sizeof(struct kmem_cache),
??????? .name = "kmem_cache",
??? };

系統(tǒng)中所有的slab緩存都被放入一個全局鏈表中:

staticstruct list_head cache_chain;

接下來我們來分析kmem_cache_init()函數(shù),它的實現(xiàn)分為下面幾個步驟:

1.?? 創(chuàng)建cache_cache,它將用于分配系統(tǒng)中除了它自身以外的所有slab緩存的kmem_cache對象。

2.?? 創(chuàng)建可以分配struct arraycache_init和struct kmem_list3的slab cache。先創(chuàng)建這兩個通用cache的原因后面會講到,他們也供kmalloc使用。這兩個cache是通過kmem_cache_create()創(chuàng)建的,因為cache_cache已經(jīng)可用了。這一步之后,將slab_early_init置為0。

3.?? 使用kmem_cache_create()創(chuàng)建剩余的通用cache,“剩余”是相對第2步中的兩個cache,他們都是可以供kmalloc使用的。這些通用cache的名字和對象大小見下面表格。

4.?? 為cache_cache.array[]和malloc_sizes[INDEX_AC].cs_cachep->array[]重新分配空間。

5.?? 為cache_cache.nodelists[]、malloc_sizes[INDEX_AC].cs_cachep-> nodelists[]和malloc_sizes[INDEX_L3].cs_cachep-> nodelists[]重新分配空間。

通用cache的名字和對象大小用兩個數(shù)組來記錄:malloc_sizes[]和cache_names[]。

cache_names[]
?? ?

malloc_sizes[]

size-32
?? ?

32

size-64
?? ?

64

size-96
?? ?

96

size-128
?? ?

128

……
?? ?

……

NULL
?? ?

ULONG_MAX

對于數(shù)據(jù)結(jié)構(gòu)的其他細節(jié)先不做討論,在講到在一個cache上分配對象時會說明數(shù)據(jù)結(jié)構(gòu)。

這部分需要注意一些靜態(tài)變量,在初始化cache_cache的時候只用到了靜態(tài)分配的變量,他們之間的關(guān)系如下圖,其中全局變量用紅色標出。


這時還沒有用戶自己創(chuàng)建的slab cache,所以這里看到的都是通用cache。這些通用cache主要供kmalloc使用。在這期間,不要使用kmalloc函數(shù)。
2.2 創(chuàng)建SLAB緩存

除了cache_cache自身,創(chuàng)建一個slab緩存的方法為kmem_cache_create()。slab緩存分為on-slab和off-slab兩種,on-slab就是slab管理信息和它所管理的對象放在一起,off-slab就是slab管理信息和他所管理的對象分開存放,后面會看到為什么會區(qū)分這兩種類型的slab。

我們先了解一下struct kmem_cache結(jié)構(gòu)體的成員。

??? struct kmem_cache {
??? /* 1)per-cpu data, touched during every alloc/free */
??????? struct array_cache *array[NR_CPUS]; /*per-CPU緩存 */
??? /* 2)Cache tunables. Protected by cache_chain_mutex */
??????? unsigned int batchcount;
??????? unsigned int limit;
??????? unsigned int shared;
??? ?
?????? /*每次分配的大小,如nf_conn的cache的buffer_size為sizeof(structnf_conn) */
??????? unsigned int buffer_size;
??????? u32 reciprocal_buffer_size;
??? /* 3)touched by every alloc & free from the backend */
??????? unsigned int flags;????? /* constant flags */
??????? unsigned int num;??? /* # of objs per slab */
??? ?
??? /* 4)cache_grow/shrink */
??????? /* order of pgs per slab (2^n) */
??????? unsigned int gfporder;
??? ?
??????? /* force GFP flags, e.g. GFP_DMA */
??????? gfp_t gfpflags;
??? ?
??????? size_t colour;?????????? /* cache colouring range */
??????? unsigned int colour_off; /* colour offset */
??????? /* 為slab管理信息分配空間的cache。 */
??????? struct kmem_cache *slabp_cache;
??????? /* slab管理信息的size,即struct slab和n個kmem_bufctl_t */
??????? unsigned int slab_size;
??????? unsigned int dflags;???? /* dynamic flags */
??? ?
??????? /* constructor func */
??????? void (*ctor)(void *obj);
??? ?
??? /* 5) cache creation/removal */
??????? const char *name;
??????? struct list_head next;
??? ?
??????? /*
??????? * We put nodelists[] at the end ofkmem_cache.
??????? * We still use [MAX_NUMNODES] and not [1] or[0] because cache_cache
??????? * is statically defined, so we reserve themax number of nodes.
??????? */
??????? struct kmem_list3 *nodelists[MAX_NUMNODES];
??????? /*
???????? * Donot add fields after nodelists[]
???????? */
??? };

kmem_cache_create()函數(shù)的聲明如下:

??? struct kmem_cache *
??? kmem_cache_create(const char *name, size_t size, size_t align,
??????? unsigned long flags, void (*ctor)(void *));

五個參數(shù)分別為:

name:要創(chuàng)建的cache的名字,將賦值給kmem_cache結(jié)構(gòu)的name成員。

size:要創(chuàng)建的cache每次分配對象的大小,將賦值給kmem_cache結(jié)構(gòu)的buffer_size成員。

align:分配對象以及slab管理信息的對齊量,基本上都為0,即使用默認的對齊方式。

flags:標記,kmem_cache結(jié)構(gòu)的flags成員。

ctor:分配新的slab的時候的構(gòu)造函數(shù),kmem_cache結(jié)構(gòu)的ctor成員。

這個函數(shù)的工作如下:

1.?? 根據(jù)flags、CPU的cache line以及傳入的align參數(shù),調(diào)整slab管理信息的的對齊量。

2.?? 用kmem_cache_zalloc(&cache_cache, gfp)在cache_cache上分配一個kmem_cache結(jié)構(gòu)實例cachep。

3.?? 如果對象的size不小于(PAGE_SIZE >> 3),并且全局標記slab_early_init=0,就強制給flags設(shè)置CFLGS_OFF_SLAB。

4.?? 根據(jù)align調(diào)整buffer_size大小,并調(diào)用calculate_slab_order()函數(shù),該函數(shù)從order=0尋找最小的order滿足2^order個頁的大小可用于分配至少一個對象,找到之后給cachep->num和cachep->gfporder賦值,num成員為2^gfporder個頁可分配多少個對象,函數(shù)返回值left_over為剩余的空間。對于on slab的cache而言,滿足cachep->num * cachep->buffer_size+ cachep->slab_size + left_over = (2 ^ cachep->gfporder) * PAGE_SIZE。而對于off slab的cache而言,滿足cachep->num * cachep->buffer_size + left_over = (2 ^ cachep->gfporder)* PAGE_SIZE,即沒有slab管理信息的空間,因為off slab的cache的管理信息單獨放到另一個地方。

5.?? 如果left_over比slab管理信息空間大,且cachep是off slab的,則把cachep改為on slab的,即清除CFLGS_OFF_SLAB標記。同時將left_over的值減掉slab管理信息的大小。

6.?? 給cachep的一些成員賦值:

??????? cachep->colour_off = cache_line_size();
??????? /* Offset must be a multiple of thealignment. */
??????? if (cachep->colour_off < align)
?????????? cachep->colour_off = align;
??????? cachep->colour = left_over /cachep->colour_off;
??????? cachep->slab_size = slab_size;
??????? cachep->flags = flags;
??????? cachep->gfpflags = 0;
??????? if (CONFIG_ZONE_DMA_FLAG && (flags& SLAB_CACHE_DMA))
?????????? cachep->gfpflags |= GFP_DMA;
??????? cachep->buffer_size = size;
??????? cachep->reciprocal_buffer_size =reciprocal_value(size);

7.?? 如果cachep是off slab的, slab管理信息單獨放在其他一個地方。這個地方就是根據(jù)slab_size(slab管理信息的大小)在通用cache上選擇一個合適的cache,注意這里只是選擇cache,沒有給slab信息分配空間。選好的cache賦值給cachep->slabp_cache。

8.?? 對cachep->nodelists[0]和cachep->array[0]賦值。調(diào)用的函數(shù)為setup_cpu_cache(),這個函數(shù)中根據(jù)全局變量g_cpucache_up的值給cachep的兩個成員分配不同的值。最終結(jié)果就是為cachep->array[0]分配sizeof(void *) * cachep->batchcount+ sizeof(struct array_cache)大小的空間,其中cachep->batchcount是struct array_cache中entry的數(shù)目。cachep->nodelists[0]中的三個鏈表都初始為空。

9.?? 將cachep加入到全局鏈表:list_add(&cachep->next, &cache_chain);

g_cpucache_up變量:

這個變量記錄了在不同階段,slab緩存初始化的狀態(tài),它可取的值有:

??? static enum {
?????? NONE,
?????? PARTIAL_AC,
?????? PARTIAL_L3,
?????? EARLY,
?????? FULL
??? } g_cpucache_up;

在kmem_cache_init()和kmem_cache_init_late()之間沒有調(diào)用過kmem_cache_create(),即在g_cpucache_up等于EARLY和FULL之間沒有創(chuàng)建過cache。也就是說,g_cpucache_up除了FULL之外的所有狀態(tài)都只在kmem_cache_init()中有用到,即只有創(chuàng)建通用cache有用到。

假定INDEX_AC=0,PARTIAL_L3=3。下表顯示了隨著創(chuàng)建不同的slab緩存,g_cpucache_up記錄的狀態(tài)的變化:

cache名稱
?? ?

g_cpucache_up

cache_cache
?? ?

NONE

size-32(array cache)
?? ?

NONE

size-64(kmem_list3 structures)
?? ?

PARTIAL_AC

其他通用cache
?? ?

PARTIAL_L3

自定義cache
?? ?

FULL

?
2.3 在SLAB緩存分配空間

在slab緩存中分配對象,使用的函數(shù)是kmem_cache_alloc()或kmem_cache_zalloc(),函數(shù)返回void *類型指針。實際的分配工作由____cache_alloc()完成,它的函數(shù)體很簡單:

??? static inline void *____cache_alloc(struct kmem_cache *cachep, gfp_t flags)
??? {
??????? void *objp;
??????? struct array_cache *ac;
??? ?
??????? ac = cpu_cache_get(cachep); /* ac =cachep->array[0] */
??????? if (likely(ac->avail)) {
??????????? ac->touched= 1;
?????????? objp = ac->entry[--ac->avail]; /* 最后一個entry */
??????? } else {
?????????? objp = cache_alloc_refill(cachep, flags);
??????? }
??????? return objp;
??? }

如果cachep->array[0]->avail不為0,則直接從cachep->array[0]->entry[]末尾取一個對象返回,并將avail的值減1。

如果cachep->array[0]->avail為0,即沒有可用對象可分配,則調(diào)用cache_alloc_refill()。

struct kmem_cache的array數(shù)組的每個元素都是一個per-CPU緩存,slab分配一個對象,最終都是先填充到這個緩存中,再在這上面分配出去的。

??? struct kmem_cache {
??????? /* 1) per-cpu data, touched during everyalloc/free */
??????? struct array_cache *array[NR_CPUS]; /*per-CPU緩存 */
??????? ……
??? }

struct array_cache結(jié)構(gòu)體定義如下:

??? struct array_cache {
?????? unsigned int avail; /* 該緩存中可用對象的數(shù)目 */
?????? unsigned int limit; /* 對象數(shù)目的限制,在釋放緩存時使用 */
?????? /* 如果該緩存中沒有對象可分配了,每次需要向slab申請?zhí)畛鋵ο蟮臄?shù)量 */
?????? unsigned int batchcount;
?????? unsigned int touched; /* 該緩存是否是活動的(最近分配過對象) */
?????? spinlock_t lock;
?????? void *entry[]; /* 實際的對象存放在這兒 */ /*
?????????????? * Must have thisdefinition in here for the proper
?????????????? * alignment ofarray_cache. Also simplifies accessing
?????????????? * the entries.
?????????????? */
??? };

在per-CPU緩存上分配對象時,是從后往前分配的,每分配出一個對象,avail減1,所以avail除了表示可用的對象數(shù)量,還是一個數(shù)組下標,可以通過array.entry[avail]直接獲取對象。而在釋放對象時,則先放到per-CPU緩存的最后,因為內(nèi)核假設(shè)剛釋放的對象仍然處在CPU高速緩存中,會盡快在此分配它。

per-CPU緩存的entry[]是一個指針數(shù)組,所以它只是存放對象的指針,真正的對象在slab緩存中。

我們先看一下一個on slab的cache中每個slab的結(jié)構(gòu):


圖中,slab中的對象總數(shù)由cachep->num記錄。colour為著色區(qū),我們不去關(guān)注。slab管理信息部分包括一個struct slab結(jié)構(gòu),以及cachep->num個kmem_bufctl_t的值,方便來定位某個對象。淺藍色的對象區(qū)域存放實際的對象,每個對象大小由cachep->buffer_size指出。可以看出,一個slab緩存中,有很多空間用作了管理信息。

struct slab結(jié)構(gòu)體定義如下,注意inuse和free兩個成員的含義:

??? struct slab {
?????? struct list_head list;
?????? unsigned long colouroff;
?????? void *s_mem;
?????? /* 已經(jīng)被使用的對象,最多為cachep->num*/
?????? unsigned int inuse;
??? /* 標識當(dāng)前還未被分配的對象的kmem_bufctl_t區(qū)域偏移量 */
?????? kmem_bufctl_t free;
?????? unsigned short nodeid;
??? };

我們使用kmem_cache_alloc(cachep, flags)在cache上申請一個對象時的分配步驟如下:

1.?? 先試圖在array cache即cachep->array[0]->entry[]上獲取,它上面可分配的對象的數(shù)目由cachep->array[0]->avail記錄。如果這一步找到了可用對象,就返回ac->entry[--ac->avail]。注意,在kmem_cache_create的時候,沒有分配對象的空間,所以avail肯定是0的。

2.?? 當(dāng)avail=0的時候,則array cache已經(jīng)用完。就試圖在kmem_list3即cachep->nodelists[0]上面分配,這就是cache_alloc_refill()函數(shù)需要做的事情。structkmem_list3中有三個雙向鏈表,分別指向“已部分使用的slab”、“已用盡的slab”和“完全空閑的slab”。


1) cache_alloc_refill()先查找slabs_partial鏈表中有沒有slab,如果有則在這里分配;如果沒有則查找slabs_free鏈表中有沒有slab,如果有則在這里分配。在這兩個鏈表上分配對象的方式為:將slab中的cachep->array[0]->batchcount數(shù)量的對象“分配”給cachep->array[0]->entry[],這個“分配”的過程只是指針指向的操作。然后cachep->array[0]的inuse成員的值增加,free成員前移,同時更新cachep->array[0]->avail的值。這樣,array cache上又可分配對象了,于是返回ac->entry[--ac->avail]。

注意,在slab分配出去batchcount個對象后,需要判斷該slabs鏈表是否用盡,如果用盡就將其轉(zhuǎn)移到slabs_full鏈表中。

2) 如果在slabs_partial和slabs_free鏈表中都沒有slab對象了,就需要在內(nèi)存中重新分配一個slab。這是cache_grow()函數(shù)的工作。

3.?? cache_grow()函數(shù)的主要任務(wù)就是在伙伴系統(tǒng)中分配2^(cachep->gfporder)個頁,并給分配的頁都加上PG_slab標記使其為slab使用。該函數(shù)具體實現(xiàn)如下:

a)???? 算出此次分配的slab的colour空間,其實這些結(jié)構(gòu)體的colour相關(guān)的成員在內(nèi)核中并沒有用到。下面代碼中cachep->colour是在創(chuàng)建cache的時候通過left_over計算的,為顏色數(shù)量,l3->colour_next是當(dāng)前選擇cachep->colour中的哪個顏色,cachep->colour_off是每個顏色占用的空間大小。最后算出的offset即是上圖中最開始的colour區(qū)域的長度。

??????? l3 = cachep->nodelists[nodeid];
??????? spin_lock(&l3->list_lock);
??????? offset = l3->colour_next;/* init as 0 */
??????? l3->colour_next++;
??????? if (l3->colour_next >= cachep->colour)
?????????? l3->colour_next = 0; /* 取值為0 ~ colour-1 */
??????? spin_unlock(&l3->list_lock);
??????? offset *= cachep->colour_off;

例如如果一個cache的cachep->colour=3,即有三種顏色,則分配的slab開頭的colour區(qū)域的長度就可能為0、cachep->colour_off和2 * cachep->colour_off。

b)??? 分配2^(cachep->gfporder)個頁,并給分配的頁加上PG_slab標記。分配成功后獲得第一個頁的起始地址的指針objp。

c)???? 在objp中分配slab管理信息的空間。這里分為兩種情況,如果cache是on slab的,則直接在objp的地址上非slab管理信息分配空間,并給struct slab的成員賦值。而如果是off slab的,即slab管理信息和slab對象不在一起,這時slab管理信息對象是在cachep->slabp_cache上分配的,分配的函數(shù)依然是調(diào)用kmem_cache_alloc()。

d)??? 將分配的所有頁與所屬的slab和cache建立映射關(guān)系,具體做法為,將objp開始的2^(cache->gfporder)個頁對應(yīng)的struct page都進行以下賦值:

??? page->lru.next = (structlist_head *)cache;
??? page->lru.prev = (structlist_head *)slab;

其中cache和slab是當(dāng)前的cache和剛分配的slab信息。這樣的目的是為了可以方便的找到一個對象所屬于的slab和cache。

e)??? 調(diào)用每個對象的ctor方法,并給每個對象對應(yīng)的kmem_bufctl_t賦個值,這個值從1開始,直到cachep->num-1,最后一個kmem_bufctl_t賦值為BUFCTL_END。

f)???? 將分配好的slab添加到l3的slabs_free列表中,即cachep->nodelists[0]->slabs_free列表。同時l3->free_objects += cachep->num,注意這個值是l3中的三個列表中可用對象的總數(shù),但不是cachep中可用對象的總數(shù),因為ac->entry[]中還有。

cache_grow()返回后,重新執(zhí)行cache_alloc_refill()函數(shù),這時便可以在上述的步驟中便可以找到一個對象來返回。

我們再回過頭來看一下為cachep分配slab管理信息的函數(shù)alloc_slabmgmt()。上面的c)步驟中講到在off slab的時候要在cachep->slabp_cache上分配slab管理信息,我們知道這個slabp_cache是在kmem_cache_create的時候根據(jù)slab_size大小在通用cache上選擇的一個合適的cache。而在分配slab管理信息的時候,slab管理信息作為cache的對象slabp_cache又會有它自己的slab管理信息,這樣又會重復(fù)這一分配動作,必定會導(dǎo)致遞歸,當(dāng)然遞歸的前提是slabp_cache是off slab的,也就說,slabp_cache不能是off slab的。我實際看到的slabp_cache都是size-64或size-32,因此都是on slab的,我人為的將size-64或size-32改為off slab的,不出所料,kernel就起不來了。

如果cache是off slab的,那它的slab結(jié)構(gòu)分為兩部分:


2.4 在SLAB緩存釋放空間

釋放slab對象使用kmem_cache_free()函數(shù),它直接調(diào)用了__cache_free()函數(shù)。

釋放一個對象時,分為兩種情況:

1. 如果per-CPU緩存中可用對象數(shù)目小于其limit的限制,則直接將對象釋放到per-CPU緩存中。

2. 如果per-CPU緩存中可用對象數(shù)目達到其limit的限制,則需要先將batchcount數(shù)目的對象釋放到slab緩存中,這個釋放動作順序為從前往后(即釋放下標為0~batchcount-1的對象),因為這時最開始釋放的對象很可能已經(jīng)不在高速緩存中了。然后再將我們要釋放的對象釋放到per-CPU緩存中,并且將之前下標為batchcount以及之后的對象前移。

??? static inline void__cache_free(struct kmem_cache *cachep, void *objp)
??? {
?????? struct array_cache *ac = cpu_cache_get(cachep);
??? ?
?????? ……
??? ?
?????? if (likely(ac->avail < ac->limit)) {
?????????? ac->entry[ac->avail++] = objp;
?????????? return;
?????? } else {
?????????? cache_flusharray(cachep, ac);
?????????? ac->entry[ac->avail++] = objp;
?????? }
??? }

釋放部分對象到slab緩存中的函數(shù)為cache_flusharray(),最終通過free_block()完成的,free_block()函數(shù)的工作是:

1. 獲取對象所在的slab緩存,這是通過virt_to_page()來完成的。前面在分析cache_grow()函數(shù)時講到過slab和page的關(guān)系。

2. 將得到的slab從緩存鏈表中刪除。

3. 將對象放回到slab中。

4. 將slab重新添加到緩存鏈表中,分兩種情況:如果這時slab中所有對象都是未使用的,就將其放到slabs_free鏈表中,否則將其放到slabs_partial鏈表中。另外,如果將slab放到slabs_free鏈表,會先檢查緩存中空閑對象數(shù)目總數(shù)是否超過了預(yù)定義的free_limit限制,如果超過了,則直接調(diào)用slab_destroy()釋放掉這個slab。

??? static voidfree_block(struct kmem_cache *cachep, void **objpp, int nr_objects,
????????????????? int node)
??? {
?????? int i;
?????? struct kmem_list3 *l3;
??? ?
?????? for (i = 0; i < nr_objects; i++) {
?????????? void *objp = objpp[i];
?????????? struct slab *slabp;
???????? ?
?????????? /* 獲取對象所在的slab */
?????????? slabp = virt_to_slab(objp);
?????????? l3 = cachep->nodelists[node];
??? ?
?????????? /* 將slab刪除 */
?????????? list_del(&slabp->list);
?????????? check_spinlock_acquired_node(cachep, node);
?????????? check_slabp(cachep, slabp);
??? ?
?????????? /* 將對象放回slab中 */
?????????? slab_put_obj(cachep, slabp, objp, node);
?????????? STATS_DEC_ACTIVE(cachep);
?????????? l3->free_objects++;
?????????? check_slabp(cachep, slabp);
??? ?
?????????? /* 將slab重新添加到緩存鏈表中 */
?????????? if (slabp->inuse == 0) {
????????????? /* 如果對象總數(shù)超出限制,釋放整個slab */
????????????? if (l3->free_objects > l3->free_limit) {
????????????????? l3->free_objects -= cachep->num;
????????????????? /* No need to drop any previously held
?????????????????? * lock here,even if we have a off-slab slab
?????????????????? * descriptor itis guaranteed to come from
?????????????????? * a differentcache, refer to comments before
?????????????????? *alloc_slabmgmt.
?????????????????? */
????????????????? slab_destroy(cachep, slabp);
????????????? } else {
????????????????? /* 添加到slabs_free鏈表中的開頭 */
????????????????? list_add(&slabp->list, &l3->slabs_free);
????????????? }
?????????? } else {
????????????? /* Unconditionally move a slab to the end of the
?????????????? * partial list onfree - maximum time for the
?????????????? * other objects tobe freed, too.
?????????????? */
????????????? /* 添加到slabs_partial鏈表的末尾 */
????????????? list_add_tail(&slabp->list,&l3->slabs_partial);
?????????? }
?????? }
??? }

2.5 銷毀SLAB緩存

要銷毀一個slab緩存(struct kmem_cache結(jié)構(gòu)的實例),需要調(diào)用kmem_cache_destroy()函數(shù),該函數(shù)刪除緩存的步驟為:

1. 將cachep從cache_cache鏈表中刪除。

2. 將cachep中所有對象釋放掉,空間還給伙伴系統(tǒng)。如果該slab緩存是off-slab的,還要將slab管理信息從cachep->slabp_cache中釋放。

3. 將cachep的per-CPU緩存和struct kmem_list3結(jié)構(gòu)釋放。

4. 由于cachep是cache_cache的一個對象,所以需要將cache_cache中將該對象刪除,這一步使用了kmem_cache_free()函數(shù),將slab緩存包括它管理的所有對象都釋放。
2. kmalloc

slab是kmalloc的基礎(chǔ),kmalloc使用上面講到的通用slab緩存來分配空間。

void *kmalloc(size_t size,gfp_t flags);

kmalloc可分配的最大size由KMALLOC_MAX_SIZE定義,這個值在2^25B和buddy的最大分配階之間取一個小值。

??? #defineKMALLOC_SHIFT_HIGH? ((MAX_ORDER +PAGE_SHIFT - 1) <= 25 ? \
????????????????? (MAX_ORDER + PAGE_SHIFT - 1) : 25)
??? #define KMALLOC_MAX_SIZE (1UL<< KMALLOC_SHIFT_HIGH)
??? #defineKMALLOC_MAX_ORDER?? (KMALLOC_SHIFT_HIGH -PAGE_SHIFT)

kmalloc的實現(xiàn)很簡單:

1.?? 根據(jù)size大小找到最小能裝下一個對象的通用cache。

2.?? 調(diào)用kmem_cache_alloc(cachep,flags)進行分配。

由此可知,kmalloc分配的空間是物理上連續(xù)的。

原文:https://blog.csdn.net/jasonchen_gbd/article/details/44024009

轉(zhuǎn)載于:https://www.cnblogs.com/longchang/p/10749402.html

總結(jié)

以上是生活随笔為你收集整理的Linux内存管理 - slab分配器和kmalloc的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。