我使用原子而不是锁编写了一些东西,并且在我的情况下它的速度如此之慢而感到困惑,我编写了以下迷你测试:
#include <pthread.h>
#include <vector>
struct test
{
test(size_t size) : index_(0), size_(size), vec2_(size)
{
vec_.reserve(size_);
pthread_mutexattr_init(&attrs_);
pthread_mutexattr_setpshared(&attrs_, PTHREAD_PROCESS_PRIVATE);
pthread_mutexattr_settype(&attrs_, PTHREAD_MUTEX_ADAPTIVE_NP);
pthread_mutex_init(&lock_, &attrs_);
}
void lockedPush(int i);
void atomicPush(int* i);
size_t index_;
size_t size_;
std::vector<int> vec_;
std::vector<int> vec2_;
pthread_mutexattr_t attrs_;
pthread_mutex_t lock_;
};
void test::lockedPush(int i)
{
pthread_mutex_lock(&lock_);
vec_.push_back(i);
pthread_mutex_unlock(&lock_);
}
void test::atomicPush(int* i)
{
int ii = (int) (i - &vec2_.front());
size_t index = __sync_fetch_and_add(&index_, 1);
vec2_[index & (size_ - 1)] = ii;
}
int main(int argc, char** argv)
{
const size_t N = 1048576;
test t(N);
// for (int i = 0; i < N; ++i)
// t.lockedPush(i);
for (int i = 0; i < N; ++i)
t.atomicPush(&i);
}
如果我取消注释 atomicPush 操作并运行测试,time(1)
我会得到如下输出:
real 0m0.027s
user 0m0.022s
sys 0m0.005s
如果我运行循环调用原子的东西(看似不必要的操作在那里,因为我希望我的函数看起来尽可能像我更大的代码一样)我得到这样的输出:
real 0m0.046s
user 0m0.043s
sys 0m0.003s
我不确定为什么会发生这种情况,因为在这种情况下我预计原子会比锁更快......
当我使用 -O3 编译时,我看到锁和原子更新如下:
lock:
real 0m0.024s
user 0m0.022s
sys 0m0.001s
atomic:
real 0m0.013s
user 0m0.011s
sys 0m0.002s
在我较大的应用程序中,尽管锁的性能(单线程测试)仍然做得更好。