我cupy
在一个接收数组的函数中使用numpy
,将它推到 GPU 上,对其执行一些操作并返回它的cp.asnumpy
副本。
问题:函数执行后没有释放内存(如 中所示ndidia-smi
)。
我知道cupy
. 但是,这似乎仅适用于每个用户。当多个用户在同一个 GPU 服务器上进行计算时,他们会受到其他用户缓存内存的限制。
最后我还尝试cp._default_memory_pool.free_all_blocks()
在函数内部调用。这似乎没有任何效果。cupy
在主代码中导入并free_all_blocks
“手动”调用是可行的,但我想将 GPU 的东西封装在函数中,对用户不可见。
您能否完全释放函数内部使用的 GPU 内存,以便其他用户可以使用它?
最小的例子:
主要模块:
# dont import cupy here, only numpy
import numpy as np
# module in which cupy is imported and used
from memory_test_module import test_function
# host array
arr = np.arange(1000000)
# out is also on host, gpu stuff happens in test_function
out = test_function(arr)
# GPU memory is not released here, unless manually:
import cupy as cp
cp._default_memory_pool.free_all_blocks()
功能模块:
import cupy as cp
def test_function(arr):
arr_gpu = cp.array(arr)
arr_gpu += 1
out_host = cp.asnumpy(arr_gpu)
# this has no effect
cp._default_memory_pool.free_all_blocks()
return out_host