我有一个在 Linux 上运行的 C++ 程序,其中创建了一个新线程来执行一些独立于主线程的计算成本高的工作(计算工作通过将结果写入文件来完成,这些文件最终非常大)。但是,我的表现相对较差。
如果我直接实现该程序(不引入其他线程),它会在大约 2 小时内完成任务。使用多线程程序大约需要 12 个小时来完成相同的任务(这是在仅产生一个线程的情况下测试的)。
我尝试了几件事,包括pthread_setaffinity_np将线程设置为单个 CPU(在我正在使用的服务器上可用的 24 个 CPU 中),以及pthread_setschedparam设置调度策略(我只尝试了 SCHED_BATCH )。但到目前为止,这些影响可以忽略不计。
这种问题有什么一般原因吗?
编辑:我添加了一些我正在使用的示例代码,希望这是最相关的部分。函数 process_job() 是实际执行计算工作的,但在这里包含太多。基本上,它读取两个数据文件,并使用这些数据对内存中的图形数据库执行查询,其中结果在几个小时内被写入两个大文件。
编辑第 2 部分:澄清一下,问题不在于我想使用线程来提高我所拥有的算法的性能。但相反,我想同时运行我的算法的许多实例。因此,我希望算法在放入线程时以与我根本不使用多线程时相似的速度运行。
编辑第 3 部分:感谢所有建议。正如一些人建议的那样,我目前正在做一些单元测试(查看哪些部分正在减慢)。由于该程序需要一段时间来加载和执行,因此需要时间来查看测试的任何结果,因此对于迟到的回复我深表歉意。我认为我想澄清的要点是线程可能导致程序运行缓慢的可能原因。从我从评论中收集到的信息来看,根本不应该。当我找到合理的解决方案时,我会发布,再次感谢。
(最终)编辑第 4 部分:事实证明,问题毕竟与线程无关。在这一点上描述它会太麻烦(包括使用编译器优化级别),但这里发布的想法非常有用和赞赏。
struct sched_param sched_param = {
sched_get_priority_min(SCHED_BATCH)
};
int set_thread_to_core(const long tid, const int &core_id) {
cpu_set_t mask;
CPU_ZERO(&mask);
CPU_SET(core_id, &mask);
return pthread_setaffinity_np(tid, sizeof(mask), &mask);
}
void *worker_thread(void *arg) {
job_data *temp = (job_data *)arg; // get the information for the task passed in
...
long tid = pthread_self();
int set_thread = set_thread_to_core(tid, slot_id); // assume slot_id is 1 (it is in the test case I run)
sched_get_priority_min(SCHED_BATCH);
pthread_setschedparam(tid, SCHED_BATCH, &sched_param);
int success = process_job(...); // this is where all the work actually happens
pthread_exit(NULL);
}
int main(int argc, char* argv[]) {
...
pthread_t temp;
pthread_create(&temp, NULL, worker_thread, (void *) &jobs[i]); // jobs is a vector of a class type containing information for the task
...
return 0;
}