我正在一台有 4 个 Operton 6272 处理器、运行 centOS 的机器上试验 NUMA。有 8 个 NUMA 节点,每个节点有 16GB 内存。
这是我正在运行的一个小型测试程序。
void pin_to_core(size_t core)
{
cpu_set_t cpuset;
CPU_ZERO(&cpuset);
CPU_SET(core, &cpuset);
pthread_setaffinity_np(pthread_self(), sizeof(cpu_set_t), &cpuset);
}
int main()
{
pin_to_core( 0 );
size_t bufSize = 100;
for( int i = 0; i < 131000; ++i )
{
if( !(i % 10) )
{
std::cout << i << std::endl;
long long free = 0;
for( unsigned j = 0; j < 8; ++j )
{
numa_node_size64( j, &free );
std::cout << "Free on node " << j << ": " << free << std::endl;
}
}
char* buf = (char*)numa_alloc_onnode( bufSize, 5 );
for( unsigned j = 0; j < bufSize; ++j )
buf[j] = j;
}
return 0;
}
所以基本上一个在核心 #0 上运行的线程在 NUMA 节点 5 上分配 131K 100 字节缓冲区,用垃圾初始化它们并泄漏它们。每 10 次迭代,我们打印出有关每个 NUMA 节点上可用内存量的信息。
在输出的开头,我得到:
0
Free on node 0: 16115879936
Free on node 1: 16667398144
Free on node 2: 16730402816
Free on node 3: 16529108992
Free on node 4: 16624508928
Free on node 5: 16361529344
Free on node 6: 16747118592
Free on node 7: 16631336960
...
最后我得到:
Free on node 0: 15826657280
Free on node 1: 16667123712
Free on node 2: 16731033600
Free on node 3: 16529358848
Free on node 4: 16624885760
Free on node 5: 16093630464
Free on node 6: 16747384832
Free on node 7: 16631332864
130970
Free on node 0: 15826657280
Free on node 1: 16667123712
Free on node 2: 16731033600
Free on node 3: 16529358848
Free on node 4: 16624885760
Free on node 5: 16093630464
Free on node 6: 16747384832
Free on node 7: 16631332864
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
130980
...
我不清楚的事情:
1)为什么会有那些“mbind:无法分配内存”消息?事实上,如果我将缓冲区大小更改为 1000,我远未用完所有内存,并且行为不会改变,这让我认为我用完了某种内核资源句柄.
2) 即使我要求在节点 5 上分配内存,实际分配似乎已经在节点 0 和 5 之间分配。
任何人都可以就为什么会发生这种情况提供任何见解吗?
更新
想就第(2)点提供更多细节。一些内存未在节点 5 上分配的事实似乎与我们正在初始化核心 #0(属于 NUMA 节点 0)上的缓冲区这一事实有关。如果我更改pin_to_core(0)
为,pin_to_core(8)
则分配的内存将在节点 1 和 5 之间拆分。如果是,pin_to_core(40)
则所有内存都分配在节点 5 上。
更新2
我查看了 libnuma 的源代码,并尝试将调用替换为numa_alloc_onnode()
来自那里的更多低级调用:mmap()
和mbind()
. 我现在还在检查内存驻留在哪个 NUMA 节点上——我为此使用了move_pages()
调用。结果如下。在初始化(循环j
)之前,页面没有映射到任何节点(我得到 ENOENT 错误代码),并且在初始化之后,页面被分配给节点 0 或节点 5。模式是常规的:5,0,5,0 ,... 和以前一样,当我们接近第 131000 次迭代时,调用mbind()
开始返回错误代码,发生这种情况时,页面总是分配给节点 0。 mbind 返回的错误代码是 ENOMEM,文档说这意味着“内核内存”用完。我不知道它是什么,但它不可能是“物理”内存,因为我每个节点有 16GB。
所以到目前为止,这是我的结论:
当另一个 NUMA 节点的核心首先接触内存时,由 NUMA施加的内存映射限制
mbind()
仅保持 50%。我希望这被记录在某个地方,因为悄悄地违背承诺并不好......调用次数有限制
mbind
。所以应该尽可能mbind()
大的内存块。
我要尝试的方法是:在固定到特定 NUMA ndo 内核的线程上执行内存分配任务。为了让您更加安心,我将尝试调用 mlock(因为这里描述的问题)。