转载请注明出处:http://blog.csdn.net/luotuo44/article/details/43015129
需求:
斟酌这样的1个情形:在1开始,由于业务缘由向memcached存储大量长度为1KB的数据,也就是说memcached服务器进程里面有很多大小为1KB的item。现在由于业务调剂需要存储大量10KB的数据,并且很少使用1KB的那些数据了。由于数据愈来愈多,内存开始吃紧。大小为10KB的那些item频繁访问,并且由于内存不够需要使用LRU淘汰1些10KB的item。
对上面的情形,会不会觉得大量1KB的item实在太浪费了。由于很少访问这些item,所以即便它们超时过期了,还是会占据着哈希表和LRU队列。LRU队列还好,不同大小的item使用不同的LRU队列。但对哈希表来讲大量的僵尸item会增加哈希冲突的可能性,并且在迁移哈希表的时候也浪费时间。有无办法干掉这些item?使用LRU爬虫+lru_crawler命令是可以强迫干掉这些僵尸item。但干掉这些僵尸item后,它们占据的内存是归还到1KB的那些slab分配器中。1KB的slab分配器不会为10KB的item分配内存。所以还是功败垂成。
那有无别的办法呢?是有的。memcached提供的slab automove 和 rebalance两个东西就是完成这个功能的。在默许情况下,memcached不启动这个功能,所以要想使用这个功能必须在启动memcached的时候加上参数-o slab_reassign。以后就能够在客户端发送命令slabsreassign <source class> <dest class>,手动将source
class的内存页分给dest class。后文会把这个工作称为内存页重分配。而命令slabs automove则是让memcached自动检测是不是需要进行内存页重分配,如果需要的话就自动去操作,这样1切都不需要人工的干预。
如果在启动memcached的时候使用了参数-o slab_reassign,那末就会把settings.slab_reassign赋值为true(该变量的默许值为false)。还记得《slab内存分配器》说到的每个内存页的大小吗?在do_slabs_newslab函数中,1个内存页的大小会根据settings.slab_reassign是不是为true而不同。
static int do_slabs_newslab(const unsigned int id) {
slabclass_t *p = &slabclass[id];
//settings.slab_reassign的默许值为false
int len = settings.slab_reassign ? settings.item_size_max
: p->size * p->perslab;
//len就是1个内存页的大小
...
}
当settings.slab_reassign为true,也就是启动rebalance功能的时候,slabclass数组中所有slabclass_t的内存页都是1样大的,等于settings.item_size_max(默许为1MB)。这样做的好处就是在需要将1个内存页从某1个slabclass_t强抢给另外1个slabclass_t时,比较好处理。不然的话,slabclass[i]从slabclass[j] 抢到的1个内存页可以切分为n个item,而从slabclass[k]抢到的1个内存页却切分为m个item,而本身的1个内存页有s个item。这样的话是相当混乱的。假设毕竟统1了内存页大小,那末不管从哪里抢到的内存页都是切分成1样多的item个数。
启动和终止rebalance:
main函数会调用start_slab_maintenance_thread函数启动rebalance线程和automove线程。main函数是在settings.slab_reassign为true时才会调用的。
//slabs.c文件
static pthread_cond_t maintenance_cond = PTHREAD_COND_INITIALIZER;
static pthread_cond_t slab_rebalance_cond = PTHREAD_COND_INITIALIZER;
static volatile int do_run_slab_thread = 1;
static volatile int do_run_slab_rebalance_thread = 1;
#define DEFAULT_SLAB_BULK_CHECK 1
int slab_bulk_check = DEFAULT_SLAB_BULK_CHECK;
static pthread_mutex_t slabs_lock = PTHREAD_MUTEX_INITIALIZER;
static pthread_mutex_t slabs_rebalance_lock = PTHREAD_MUTEX_INITIALIZER;
static pthread_t maintenance_tid;
static pthread_t rebalance_tid;
//由main函数调用,如果settings.slab_reassign为false将不会调用本函数(默许是false)
int start_slab_maintenance_thread(void) {
int ret;
slab_rebalance_signal = 0;
slab_rebal.slab_start = NULL;
char *env = getenv("MEMCACHED_SLAB_BULK_CHECK");
if (env != NULL) {
slab_bulk_check = atoi(env);
if (slab_bulk_check == 0) {
slab_bulk_check = DEFAULT_SLAB_BULK_CHECK;
}
}
if (pthread_cond_init(&slab_rebalance_cond, NULL) != 0) {
fprintf(stderr, "Can't intiialize rebalance condition
");
return ⑴;
}
pthread_mutex_init(&slabs_rebalance_lock, NULL);
if ((ret = pthread_create(&maintenance_tid, NULL,
slab_maintenance_thread, NULL)) != 0) {
fprintf(stderr, "Can't create slab maint thread: %s
", strerror(ret));
return ⑴;
}
if ((ret = pthread_create(&rebalance_tid, NULL,
slab_rebalance_thread, NULL)) != 0) {
fprintf(stderr, "Can't create rebal thread: %s
", strerror(ret));
return ⑴;
}
return 0;
}
void stop_slab_maintenance_thread(void) {
mutex_lock(&cache_lock);
do_run_slab_thread = 0;
do_run_slab_rebalance_thread = 0;
pthread_cond_signal(&maintenance_cond);
pthread_mutex_unlock(&cache_lock);
/* Wait for the maintenance thread to stop */
pthread_join(maintenance_tid, NULL);
pthread_join(rebalance_tid, NULL);
}
要注意的是,start_slab_maintenance_thread函数启动了两个线程:rebalance线程和automove线程。automove线程会自动检测是不是需要进行内存页重分配。如果检测到需要重分配,那末就会叫rebalance线程履行这个内存页重分配工作。
默许情况下是不开启自动检测功能的,即便在启动memcached的时候加入了-o slab_reassign参数。自动检测功能由全局变量settings.slab_automove控制(默许值为0,0就是不开启)。如果要开启可以在启动memcached的时候加入slab_automove选项,并将其参数数设置为1。比如命令$memcached -o slab_reassign,slab_automove=1就开启了自动检测功能。固然也是可以在启动memcached后通过客户端命令启动automove功能,使用命令slabsautomove
<0|1>。其中0表示关闭automove,1表示开启automove。客户真个这个命令只是简单地设置settings.slab_automove的值,不做其他任何工作。
automove线程:
item状态记录仪:
由于rebalance线程启动后就会由于等待条件变量而进入休眠状态,等待他人给它内存页重分配任务。所以我们先来看1下automove线程。
automove线程要进行自动检测,检测就需要1些实时数据进行分析。然后得出结论:哪一个slabclass_t需要更多的内存,哪一个又不需要。automove线程通过全局变量itemstats搜集item的各种数据。下面看1下itemstats变量和它的类型定义。
//items.c文件
typedef struct {
uint64_t evicted;//由于LRU踢了多少个item
//即便1个item的exptime设置为0,也是会被踢的
uint64_t evicted_nonzero;//被踢的item中,超时时间(exptime)不为0的item数
//最后1次踢item时,被踢的item已过期多久了
//itemstats[id].evicted_time = current_time - search->time;
rel_time_t evicted_time;
uint64_t reclaimed;//在申请item时,发现过期并回收的item数量
uint64_t outofmemory;//为item申请内存,失败的次数
uint64_t tailrepairs;//需要修复的item数量(除非worker线程有问题否则1般为0)
//直到被超时删除时都还没被访问过的item数量
uint64_t expired_unfetched;
//直到被LRU踢出时都还没有被访问过的item数量
uint64_t evicted_unfetched;
uint64_t crawler_reclaimed;//被LRU爬虫发现的过期item数量
//申请item而搜索LRU队列时,被其他worker线程援用的item数量
uint64_t lrutail_reflocked;
} itemstats_t;
#define POWER_LARGEST 200
#define LARGEST_ID POWER_LARGEST
static itemstats_t itemstats[LARGEST_ID];
注意上面代码是在items.c文件的,并且全局变量itemstats是static类型。itemstats变量是1个数组,它是和slabclass数组逐一对应的。itemstats数组的元素负责搜集slabclass数组中对应元素的信息。itemstats_t结构体虽然提供了很多成员,可以搜集很多信息,但automove线程只用到第1个成员evicted。automove线程需要知道每个尺寸的item的被踢情况,然后判断哪1类item资源紧缺,哪1类item资源又多余。
itemstats广泛散布在items.c文件的多个函数中(主要是为了能搜集各种数据),所以这里就不给出itemstats的具体搜集实现了。固然由于evicted是重要的而且只在1个函数出现,就贴出evicted的搜集代码吧。
item *do_item_alloc(char *key, const size_t nkey, const int flags,
const rel_time_t exptime, const int nbytes,
const uint32_t cur_hv) {
item *it = NULL;
int tries = 5;
item *search;
item *next_it;
rel_time_t oldest_live = settings.oldest_live;
search = tails[id];
for (; tries > 0 && search != NULL; tries--, search=next_it) {
/* we might relink search mid-loop, so search->prev isn't reliable */
next_it = search->prev;
...
if ((search->exptime != 0 && search->exptime < current_time)
|| (search->time <= oldest_live && oldest_live <= current_time)) {
...
} else if ((it = slabs_alloc(ntotal, id)) == NULL) {//申请内存失败
//此刻,过期失效的item没有找到,申请内存又失败了。看来只能使用
//LRU淘汰1个item(即便这个item并没有过期失效)
if (settings.evict_to_free == 0) {//设置了不进行LRU淘汰item
//此时只能向客户端回复毛病了
itemstats[id].outofmemory++;
} else {
itemstats[id].evicted++;//增加被踢的item数
itemstats[id].evicted_time = current_time - search->time;
//即便1个item的exptime成员设置为永不超时(0),还是会被踢的
if (search->exptime != 0)
itemstats[id].evicted_nonzero++;
if ((search->it_flags & ITEM_FETCHED) == 0) {
itemstats[id].evicted_unfetched++;
}
it = search;
//1旦发现有item被踢,那末就启动内存页重分配操作
//这个太频繁了,不推荐
if (settings.slab_automove == 2)
slabs_reassign(⑴, id);
}
}
break;
}
...
return it;
}
从上面的代码可以看到,如果某个item由于LRU被踢了,那末就会被记录起来。在最后还可以看到如果settings.slab_automove 等于2,那末1旦有item被踢了就调用slabs_reassign函数。slabs_reassign函数就是内存页重分配处理函数。明显1有item被踢就重分配太频繁了,所以这是不推荐的。
肯定贫困和富有item:
现在回过来看1下automove线程的线程函数slab_maintenance_thread。
static void *slab_maintenance_thread(void *arg) {
int src, dest;
while (do_run_slab_thread) {
if (settings.slab_automove == 1) {//启动了automove功能
if (slab_automove_decision(&src, &dest) == 1) {
/* Blind to the return codes. It will retry on its own */
slabs_reassign(src, dest);
}
sleep(1);
} else {//等待用户启动automove
/* Don't wake as often if we're not enabled.
* This is lazier than setting up a condition right now. */
sleep(5);
}
}
return NULL;
}
可以看到如果settings.slab_automove就调用slab_automove_decision判断是不是应当进行内存页重分配。返回1就说明需要重分配内存页,此时调用slabs_reassign进行处理。现在来看1下automove线程是怎样判断要不要进行内存页重分配的。
//items.c文件
void item_stats_evictions(uint64_t *evicted) {
int i;
mutex_lock(&cache_lock);
for (i = 0; i < LARGEST_ID; i++) {
evicted[i] = itemstats[i].evicted;
}
mutex_unlock(&cache_lock);
}
//slabs.c文件
//本函数选出最好被踢选手,和最好不被踢选手。返回1表示成功选手两位选手
//返回0表示没有选出。要同时选出两个选手才返回1。并用src参数记录最好不
//不踢选手的id,dst记录最好被踢选手的id
static int slab_automove_decision(int *src, int *dst) {
static uint64_t evicted_old[POWER_LARGEST];
static unsigned int slab_zeroes[POWER_LARGEST];
static unsigned int slab_winner = 0;
static unsigned int slab_wins = 0;
uint64_t evicted_new[POWER_LARGEST];
uint64_t evicted_diff = 0;
uint64_t evicted_max = 0;
unsigned int highest_slab = 0;
unsigned int total_pages[POWER_LARGEST];
int i;
int source = 0;
int dest = 0;
static rel_time_t next_run;
/* Run less frequently than the slabmove tester. */
//本函数的调用不能过于频繁,最少10秒调用1次
if (current_time >= next_run) {
next_run = current_time + 10;
} else {
return 0;
}
//获得每个slabclass的被踢item数
item_stats_evictions(evicted_new);
pthread_mutex_lock(&cache_lock);
for (i = POWER_SMALLEST; i < power_largest; i++) {
total_pages[i] = slabclass[i].slabs;
}
pthread_mutex_unlock(&cache_lock);
//本函数会频繁被调用,所以有次数可说。
/* Find a candidate source; something with zero evicts 3+ times */
//evicted_old记录上1个时刻每个slabclass的被踢item数
//evicted_new则记录了现在每个slabclass的被踢item数
//evicted_diff则能表现某1个LRU队列被踢的频繁程度
for (i = POWER_SMALLEST; i < power_largest; i++) {
evicted_diff = evicted_new[i] - evicted_old[i];
if (evicted_diff == 0 && total_pages[i] > 2) {
//evicted_diff等于0说明这个slabclass没有item被踢,而且
//它又占有最少两个slab。
slab_zeroes[i]++;//增加计数
//这个slabclass已历经3次都没有被踢记录,说明空间多得很
//就选你了,最好不被踢选手
if (source == 0 && slab_zeroes[i] >= 3)
source = i;
} else {
slab_zeroes[i] = 0;//计数清零
if (evicted_diff > evicted_max) {
evicted_max = evicted_diff;
highest_slab = i;
}
}
evicted_old[i] = evicted_new[i];
}
/* Pick a valid destination */
//选出1个slabclass,这个slabclass要连续3次都是被踢最多item的那个slabclass
if (slab_winner != 0 && slab_winner == highest_slab) {
slab_wins++;
if (slab_wins >= 3)//这个slabclass已连续3次成为最好被踢选手了
dest = slab_winner;
} else {
slab_wins = 1;//计数清零(固然这里是1)
slab_winner = highest_slab;//本次的最好被踢选手
}
if (source && dest) {
*src = source;
*dst = dest;
return 1;
}
return 0;
}
从上面的代码也能够看到,其实判断的方法也比较简单。从slabclass数组当选出两个选手:1个是连续3次没有被踢item了,另外1个则是连续3次都成为最好被踢手。如果找到了满足条件的两个选手,那末返回1。此时automove线程就会调用slabs_reassign函数。
下达 rebalance任务:
在贴出slabs_reassign函数前,回想1下slabs reassign命令。前面讲的都是自动检测要不要进行内存页重分配,都快要忘了还有1个手动要求内存页重分配的命令。如果客户端使用了slabs reassign命令,那末worker线程在接收到这个命令后,就会调用slabs_reassign函数,函数参数是slabs reassign命令的参数。现在自动检测和手动设置大1统了。
enum reassign_result_type {
REASSIGN_OK=0, REASSIGN_RUNNING, REASSIGN_BADCLASS, REASSIGN_NOSPARE,
REASSIGN_SRC_DST_SAME
};
enum reassign_result_type slabs_reassign(int src, int dst) {
enum reassign_result_type ret;
if (pthread_mutex_trylock(&slabs_rebalance_lock) != 0) {
return REASSIGN_RUNNING;
}
ret = do_slabs_reassign(src, dst);
pthread_mutex_unlock(&slabs_rebalance_lock);
return ret;
}
static enum reassign_result_type do_slabs_reassign(int src, int dst) {
if (slab_rebalance_signal != 0)
return REASSIGN_RUNNING;
if (src == dst)//不能相同
return REASSIGN_SRC_DST_SAME;
/* Special indicator to choose ourselves. */
if (src == ⑴) {//客户端命令要求随机选出1个源slab class
//选出1个页数大于1的slab class,并且该slab class不能是dst
//指定的那个。如果不存在这样的slab class,那末返回⑴
src = slabs_reassign_pick_any(dst);
/* TODO: If we end up back at ⑴, return a new error type */
}
if (src < POWER_SMALLEST || src > power_largest ||
dst < POWER_SMALLEST || dst > power_largest)
return REASSIGN_BADCLASS;
//源slab class没有或只有1个内存页,那末就不能分给别的slab class
if (slabclass[src].slabs < 2)
return REASSIGN_NOSPARE;
//全局变量slab_rebal
slab_rebal.s_clsid = src;//保存源slab class
slab_rebal.d_clsid = dst;//保存目标slab class
slab_rebalance_signal = 1;
//唤醒slab_rebalance_thread函数的线程.
//在slabs_reassign函数中已锁上了slabs_rebalance_lock
pthread_cond_signal(&slab_rebalance_cond);
return REASSIGN_OK;
}
//选出1个内存页数大于1的slab class,并且该slab class不能是dst
//指定的那个。如果不存在这样的slab class,那末返回⑴
static int slabs_reassign_pick_any(int dst) {
static int cur = POWER_SMALLEST - 1;
int tries = power_largest - POWER_SMALLEST + 1;
for (; tries > 0; tries--) {
cur++;
if (cur > power_largest)
cur = POWER_SMALLEST;
if (cur == dst)
continue;
if (slabclass[cur].slabs > 1) {
return cur;
}
}
return ⑴;
}
do_slabs_reassign会把源slab class 和目标slab class保存在全局变量slab_rebal,并且在最后会调用pthread_cond_signal唤醒rebalance线程。
rebalance线程:
现在automove线程已退出历史舞台了,rebalance线程也从沉睡中苏醒过来并登上舞台。现在来看1下rebalance线程的线程函数slab_rebalance_thread。注意:在1开始slab_rebalance_signal是等于0的,当需要进行内存页重分配就会把slab_rebalance_signal变量赋值为1。
static void *slab_rebalance_thread(void *arg) {
int was_busy = 0;
/* So we first pass into cond_wait with the mutex held */
mutex_lock(&slabs_rebalance_lock);
while (do_run_slab_rebalance_thread) {
if (slab_rebalance_signal == 1) {
//标志要移动的内存页的信息,并将slab_rebalance_signal赋值为2
//slab_rebal.done赋值为0,表示没有完成
if (slab_rebalance_start() < 0) {//失败
/* Handle errors with more specifity as required. */
slab_rebalance_signal = 0;
}
was_busy = 0;
} else if (slab_rebalance_signal && slab_rebal.slab_start != NULL) {
was_busy = slab_rebalance_move();//进行内存页迁移操作
}
if (slab_rebal.done) {//完成内存页重分配操作
slab_rebalance_finish();
} else if (was_busy) {//有worker线程在使用内存页上的item
/* Stuck waiting for some items to unlock, so slow down a bit
* to give them a chance to free up */
usleep(50);//休眠1会儿,等待worker线程放弃使用item,然后再次尝试
}
if (slab_rebalance_signal == 0) {//1开始就在这里休眠
/* always hold this lock while we're running */
pthread_cond_wait(&slab_rebalance_cond, &slabs_rebalance_lock);
}
}
return NULL;
}
锁定内存页:
函数slab_rebalance_start对要源slab class进行1些标注,当worker线程要访问源slab class的时候意想到正在内存页重分配。
//memcached.h文件
struct slab_rebalance {
//记录要移动的页的信息。slab_start指向页的开始位置。slab_end指向页
//的结束位置。slab_pos则记录当前处理的位置(item)
void *slab_start;
void *slab_end;
void *slab_pos;
int s_clsid; //源slab class的下标索引
int d_clsid; //目标slab class的下标索引
int busy_items; //是不是worker线程在援用某个item
uint8_t done;//是不是完成了内存页移动
};
//memcached.c文件
struct slab_rebalance slab_rebal;
//slabs.c文件
static int slab_rebalance_start(void) {
slabclass_t *s_cls;
int no_go = 0;
pthread_mutex_lock(&cache_lock);
pthread_mutex_lock(&slabs_lock);
if (slab_rebal.s_clsid < POWER_SMALLEST ||
slab_rebal.s_clsid > power_largest ||
slab_rebal.d_clsid < POWER_SMALLEST ||
slab_rebal.d_clsid > power_largest ||
slab_rebal.s_clsid == slab_rebal.d_clsid)//非法下标索引
no_go = ⑵;
s_cls = &slabclass[slab_rebal.s_clsid];
//为这个目标slab class增加1个页表项都失败,那末就
//根本没法为之增加1个页了
if (!grow_slab_list(slab_rebal.d_clsid)) {
no_go = ⑴;
}
if (s_cls->slabs < 2)//目标slab class页数太少了,没法分1个页给他人
no_go = ⑶;
if (no_go != 0) {
pthread_mutex_unlock(&slabs_lock);
pthread_mutex_unlock(&cache_lock);
return no_go; /* Should use a wrapper function... */
}
//标志将源slab class的第几个内存页分给目标slab class
//这里是默许是将第1个内存页分给目标slab class
s_cls->killing = 1;
//记录要移动的页的信息。slab_start指向页的开始位置。slab_end指向页
//的结束位置。slab_pos则记录当前处理的位置(item)
slab_rebal.slab_start = s_cls->slab_list[s_cls->killing - 1];
slab_rebal.slab_end = (char *)slab_rebal.slab_start +
(s_cls->size * s_cls->perslab);
slab_rebal.slab_pos = slab_rebal.slab_start;
slab_rebal.done = 0;
/* Also tells do_item_get to search for items in this slab */
slab_rebalance_signal = 2;//要rebalance线程接下来进行内存页移动
pthread_mutex_unlock(&slabs_lock);
pthread_mutex_unlock(&cache_lock);
return 0;
}
slab_rebalance_start会将1个slab class的1个内存页标注为要移动的,此时就不能让worker线程访问这个内存页的item了。现在看1下假设worker线程恰好要访问这个内存页的1个item时会产生甚么。
item *do_item_get(const char *key, const size_t nkey, const uint32_t hv) {
item *it = assoc_find(key, nkey, hv);//assoc_find函数内部没有加锁
if (it != NULL) {//找到了,此时item的援用计数最少为1
refcount_incr(&it->refcount);//线程安全地自增1
/* Optimization for slab reassignment. prevents popular items from
* jamming in busy wait. Can only do this here to satisfy lock order
* of item_lock, cache_lock, slabs_lock. */
if (slab_rebalance_signal &&
((void *)it >= slab_rebal.slab_start && (void *)it < slab_rebal.slab_end)) {
//这个item恰好在要移动的内存页里面。此时不能返回这个item
//worker线程要负责把这个item从哈希表和LRU队列中删除这个item,避免
//后面有其他worker线程又访问这个不能使用的item
do_item_unlink_nolock(it, hv);
do_item_remove(it);
it = NULL;
}
}
...
return it;
}
移动(归还)item:
现在回过头继续看rebalance线程。前面说到已标注了源slab class的1个内存页。标注完rebalance线程就会调用slab_rebalance_move函数完成真实的内存页迁移操作。源slab class上的内存页是有item的,那末在迁移的时候怎样处理这些item呢?memcached的处理方式是很粗鲁的:直接删除。如果这个item还有worker线程在使用,rebalance线程就等你1下。如果这个item没有worker线程在援用,那末即便这个item没有过期失效也将直接删除。
由于1个内存页可能会有很多个item,所以memcached也采取分期处理的方法,每次只处理少许的item(默许为1个)。所以呢,slab_rebalance_move函数会在slab_rebalance_thread线程函数中屡次调用,直到处理了所有的item。
/* refcount == 0 is safe since nobody can incr while cache_lock is held.
* refcount != 0 is impossible since flags/etc can be modified in other
* threads. instead, note we found a busy one and bail. logic in do_item_get
* will prevent busy items from continuing to be busy
*/
static int slab_rebalance_move(void) {
slabclass_t *s_cls;
int x;
int was_busy = 0;
int refcount = 0;
enum move_status status = MOVE_PASS;
pthread_mutex_lock(&cache_lock);
pthread_mutex_lock(&slabs_lock);
s_cls = &slabclass[slab_rebal.s_clsid];
//会在start_slab_maintenance_thread函数中读取环境变量设置slab_bulk_check
//默许值为1.一样这里也是采取分期处理的方案处理1个页上的多个item
for (x = 0; x < slab_bulk_check; x++) {
item *it = slab_rebal.slab_pos;
status = MOVE_PASS;
if (it->slabs_clsid != 255) {
void *hold_lock = NULL;
uint32_t hv = hash(ITEM_key(it), it->nkey);
if ((hold_lock = item_trylock(hv)) == NULL) {
status = MOVE_LOCKED;
} else {
refcount = refcount_incr(&it->refcount);
if (refcount == 1) { /* item is unlinked, unused */
//如果it_flags&ITEM_SLABBED为真,那末就说明这个item
//根本就没有分配出去。如果为假,那末说明这个item被分配
//出去了,但处于归还途中。参考do_item_get函数里面的
//判断语句,有slab_rebalance_signal作为判断条件的那个。
if (it->it_flags & ITEM_SLABBED) {//没有分配出去
/* remove from slab freelist */
if (s_cls->slots == it) {
s_cls->slots = it->next;
}
if (it->next) it->next->prev = it->prev;
if (it->prev) it->prev->next = it->next;
s_cls->sl_curr--;
status = MOVE_DONE;//这个item处理成功
} else {//此时还有另外1个worker线程在归还这个item
status = MOVE_BUSY;
}
} else if (refcount == 2) { /* item is linked but not busy */
//没有worker线程援用这个item
if ((it->it_flags & ITEM_LINKED) != 0) {
//直接把这个item从哈希表和LRU队列中删除
do_item_unlink_nolock(it, hv);
status = MOVE_DONE;
} else {
/* refcount == 1 + !ITEM_LINKED means the item is being
* uploaded to, or was just unlinked but hasn't been freed
* yet. Let it bleed off on its own and try again later */
status = MOVE_BUSY;
}
} else {//现在有worker线程正在援用这个item
status = MOVE_BUSY;
}
item_trylock_unlock(hold_lock);
}
}
switch (status) {
case MOVE_DONE:
it->refcount = 0;//援用计数清零
it->it_flags = 0;//清零所有属性
it->slabs_clsid = 255;
break;
case MOVE_BUSY:
refcount_decr(&it->refcount); //注意这里没有break
case MOVE_LOCKED:
slab_rebal.busy_items++;
was_busy++;//记录是不是有不能马上处理的item
break;
case MOVE_PASS:
break;
}
//处理这个页的下1个item
slab_rebal.slab_pos = (char *)slab_rebal.slab_pos + s_cls->size;
if (slab_rebal.slab_pos >= slab_rebal.slab_end)//遍历完了这个页
break;
}
//遍历完了这个页的所有item
if (slab_rebal.slab_pos >= slab_rebal.slab_end) {
/* Some items were busy, start again from the top */
//在处理的时候,跳过了1些item(由于有worker线程在援用)
if (slab_rebal.busy_items) {//此时需要从头再扫描1次这个页
slab_rebal.slab_pos = slab_rebal.slab_start;
slab_rebal.busy_items = 0;
} else {
slab_rebal.done++;//标志已处理完这个页的所有item
}
}
pthread_mutex_unlock(&slabs_lock);
pthread_mutex_unlock(&cache_lock);
return was_busy;//返回记录
}
劫富济贫:
上面代码中的was_busy就标志了是不是有worker线程在援用内存页中的1个item。其实slab_rebalance_move函数的名字获得不好,由于实现的不是移动(迁移),而是把内存页中的item删除从哈希表和LRU队列中删除。如果处理完内存页的所有item,那末就会slab_rebal.done++,标志处理完成。在线程函数slab_rebalance_thread中,如果slab_rebal.done为真就会调用slab_rebalance_finish函数完成真实的内存页迁移操作,把1个内存页从1个slab
class 转移到另外1个slab class中。
static void slab_rebalance_finish(void) {
slabclass_t *s_cls;
slabclass_t *d_cls;
pthread_mutex_lock(&cache_lock);
pthread_mutex_lock(&slabs_lock);
s_cls = &slabclass[slab_rebal.s_clsid];
d_cls = &slabclass[slab_rebal.d_clsid];
/* At this point the stolen slab is completely clear */
//相当于把指针赋NULL值
s_cls->slab_list[s_cls->killing - 1] =
s_cls->slab_list[s_cls->slabs - 1];
s_cls->slabs--;//源slab class的内存页数减1
s_cls->killing = 0;
//内存页所有字节清零,这个也很重要的
memset(slab_rebal.slab_start, 0, (size_t)settings.item_size_max);
//将slab_rebal.slab_start指向的1个页内存馈赠给目标slab class
//slab_rebal.slab_start指向的页是从源slab class中得到的。
d_cls->slab_list[d_cls->slabs++] = slab_rebal.slab_start;
//依照目标slab class的item尺寸进行划分这个页,并且将这个页的
//内存并入到目标slab class的空闲item队列中
split_slab_page_into_freelist(slab_rebal.slab_start,
slab_rebal.d_clsid);
//清零
slab_rebal.done = 0;
slab_rebal.s_clsid = 0;
slab_rebal.d_clsid = 0;
slab_rebal.slab_start = NULL;
slab_rebal.slab_end = NULL;
slab_rebal.slab_pos = NULL;
slab_rebalance_signal = 0;//rebalance线程完成工作后,再次进入休眠状态
pthread_mutex_unlock(&slabs_lock);
pthread_mutex_unlock(&cache_lock);
}