日期:2014-05-16  浏览次数:20653 次

linux内存分配slub的几个疑问

对于SLUB不熟的同学可以先跳过了,涉及的东西比较细致。

简单来说SLUB的结构是N(CPU数)个kmem_cache_cpu,和一个kmem_cache_node组成。其中kmem_cache_cpu的目的是为了从技术层面上提高CPU命中缓存,以及在同一个页面上不出现一个脏的内存(即不同时被多个CPU持有)。我把这个实现机制手工在WINDOWS下实现了一套,在开启多个kmem_cache_cpu的时候出现了个问题:

1.在释放对象的时候,判断是否是当前kmem_cache_cpu页面所在

2.如果是,则直接插入

3.如果不是,释放到邻居节点


如果是单个kmem_cache_cpu肯定没问题,但是在多个kmem_cache_cpu下,很可能会把其中一个kmem_cache_cpu已经持有的页面释放到邻居节点。举个例子:


假设一个页面地址是0-9,

kmem_cache_cpu1,持有A页面,空闲的情况为A0-A5

kmem_cache_cpu2,持有B页面,

当轮到kmem_cache_cpu2执行的时候,一个A页面的地址A6释放,程序检测到非B页面,则直接释放到邻居节点。那么这个时候A页面已经被切割成两段,并且在公共的邻居节点中。这个时候反而是增加了内存的脏度。后仔细看代码发现,源码中有这段:


struct kmem_cache_cpu {
	void **freelist;	/* Pointer to first free per cpu object */
	struct page *page;	/* The slab from which we are allocating */
	int node;		/* The node of the page (or -1 for debug) */
	unsigned int offset;	/* Freepointer offset (in word units) */
	unsigned int objsize;	/* Size of an object (from kmem_cache) */
#ifdef CONFIG_SLUB_STATS
	unsigned stat[NR_SLUB_STAT_ITEMS];
#endif
};

??注意到struct page *page;了吗?之前一直忽略它。并且真相在分配的函数里面,

如果freelist无效的话,会多查询一次page页的地址。



2011年1月15日增

细致看了下,觉得这个地方还是有BUG。

释放上就两个步骤

1)走本地PAGE

2)NODE节点


申请上比较复杂

1)走本地freelist

2)走本页page

3)走邻居节点

4)走系统


并且做了一些看似应该释放做的事:

1)如果page和freelist都为空,则走deactivate_slab();

?? deactivate_slab中有很多兼容的判断,要一一舍弃。阅读源码最痛苦的就是这点。

?? 其中用到了个值page->inuse。这个值很奇怪,它指的是在kmem_cache_cpu当前+使