我观察到,当 linux futexes 竞争时,系统会在自旋锁上花费大量时间。我注意到这是一个问题,即使不直接使用 futex,但在调用 malloc/free、rand、glib 互斥调用和其他调用 futex 的系统/库调用时也是如此。有没有办法摆脱这种行为?
我正在使用带有内核 2.6.32-279.9.1.el6.x86_64 的 CentOS 6.3。我还尝试了直接从 kernel.org 下载的最新稳定内核 3.6.6。
最初,问题发生在具有 16GB RAM 的 24 核服务器上。该进程有 700 个线程。使用“perf record”收集的数据表明,自旋锁是从 __lll_lock_wait_private 和 __lll_unlock_wake_private 调用的 futex 调用的,并且正在消耗 50% 的 CPU 时间。当我使用 gdb 停止该进程时,回溯显示对 __lll_lock_wait_private __lll_unlock_wake_private 的调用是由 malloc 和 free 进行的。
我试图减少这个问题,所以我编写了一个简单的程序,表明确实是 futexes 导致了自旋锁问题。
启动 8 个线程,每个线程执行以下操作:
//...
static GMutex *lMethodMutex = g_mutex_new ();
while (true)
{
static guint64 i = 0;
g_mutex_lock (lMethodMutex);
// Perform any operation in the user space that needs to be protected.
// The operation itself is not important. It's the taking and releasing
// of the mutex that matters.
++i;
g_mutex_unlock (lMethodMutex);
}
//...
我在一台 8 核机器上运行它,它有足够的 RAM。
使用“top”,我观察到机器空闲 10%,用户模式 10%,系统模式 90%。
使用“perf top”,我观察到以下内容:
50.73% [kernel] [k] _spin_lock
11.13% [kernel] [k] hpet_msi_next_event
2.98% libpthread-2.12.so [.] pthread_mutex_lock
2.90% libpthread-2.12.so [.] pthread_mutex_unlock
1.94% libpthread-2.12.so [.] __lll_lock_wait
1.59% [kernel] [k] futex_wake
1.43% [kernel] [k] __audit_syscall_exit
1.38% [kernel] [k] copy_user_generic_string
1.35% [kernel] [k] system_call
1.07% [kernel] [k] schedule
0.99% [kernel] [k] hash_futex
我希望这段代码在自旋锁中花费一些时间,因为 futex 代码必须获取 futex 等待队列。我还希望代码在系统中花费一些时间,因为在这段代码中,用户空间中运行的代码非常少。然而,50% 的时间花在自旋锁上似乎是多余的,尤其是当这个 cpu 时间需要做其他有用的工作时。