我正在尝试在with as 存储后端pytorch
上构建一个项目。IterableDataset
zarr
class Data(IterableDataset):
def __init__(self, path, start=None, end=None):
super(Data, self).__init__()
store = zarr.DirectoryStore(path)
self.array = zarr.open(store, mode='r')
if start is None:
start = 0
if end is None:
end = self.array.shape[0]
assert end > start
self.start = start
self.end = end
def __iter__(self):
return islice(self.array, self.start, self.end)
这适用于小型测试数据集,但是一旦我移动到我的实际数据集(480 000 000 x 290),我就会遇到内存泄漏。我已经尝试定期注销 python 堆,因为一切都慢了下来,但我看不到任何异常增加的大小,所以我使用的库 ( pympler
) 实际上并没有捕获内存泄漏。
我有点不知所措,所以如果有人知道如何进一步调试它,将不胜感激。
在PyTorch 论坛上交叉发布。