137

我不确定这是否更多地被视为操作系统问题,但我想我会在这里问一下,以防有人对 Python 的结局有所了解。

我一直在尝试使用 并行化一个 CPU 密集型for循环joblib,但我发现不是将每个工作进程分配给不同的核心,而是将它们全部分配给同一个核心并且没有性能提升。

这是一个非常简单的例子......

from joblib import Parallel,delayed
import numpy as np

def testfunc(data):
    # some very boneheaded CPU work
    for nn in xrange(1000):
        for ii in data[0,:]:
            for jj in data[1,:]:
                ii*jj

def run(niter=10):
    data = (np.random.randn(2,100) for ii in xrange(niter))
    pool = Parallel(n_jobs=-1,verbose=1,pre_dispatch='all')
    results = pool(delayed(testfunc)(dd) for dd in data)

if __name__ == '__main__':
    run()

...这是我在htop此脚本运行时看到的内容:

htop

我在 4 核笔记本电脑上运行 Ubuntu 12.10 (3.5.0-26)。显然joblib.Parallel是为不同的工作人员生成单独的进程,但是有什么方法可以让这些进程在不同的内核上执行?

4

3 回答 3

163

经过一番谷歌搜索后,我在这里找到了答案。

事实证明,某些 Python 模块(numpy, scipy, tables, pandas, skimage...)在导入时会与核心亲和力混淆。据我所知,这个问题似乎是由它们链接多线程 OpenBLAS 库引起的。

一种解决方法是使用

os.system("taskset -p 0xff %d" % os.getpid())

在模块导入后粘贴此行,我的示例现在可以在所有内核上运行:

htop_workaround

到目前为止,我的经验是,这似乎对numpy的性能没有任何负面影响,尽管这可能是特定于机器和任务的。

更新:

还有两种方法可以禁用 OpenBLAS 本身的 CPU 关联重置行为。在运行时,您可以使用环境变量OPENBLAS_MAIN_FREE(或GOTOBLAS_MAIN_FREE),例如

OPENBLAS_MAIN_FREE=1 python myscript.py

或者,如果您从源代码编译 OpenBLAS,您可以在构建时通过编辑Makefile.rule包含该行来永久禁用它

NO_AFFINITY=1
于 2013-03-26T15:36:46.007 回答
32

Python 3 现在公开了直接设置亲和力的方法

>>> import os
>>> os.sched_getaffinity(0)
{0, 1, 2, 3}
>>> os.sched_setaffinity(0, {1, 3})
>>> os.sched_getaffinity(0)
{1, 3}
>>> x = {i for i in range(10)}
>>> x
{0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
>>> os.sched_setaffinity(0, x)
>>> os.sched_getaffinity(0)
{0, 1, 2, 3}
于 2015-07-12T17:56:27.500 回答
15

这似乎是 Ubuntu 上 Python 的一个常见问题,并不特定于joblib

我建议尝试 CPU 亲和性 ( taskset)。

于 2013-03-26T14:47:54.777 回答