当我尝试保存一个非常大的(20000 x 20000 元素)数组时,我得到了全零:
In [2]: shape = (2e4,)*2
In [3]: r = np.random.randint(0, 10, shape)
In [4]: r.tofile('r.data')
In [5]: ls -lh r.data
-rw-r--r-- 1 whg staff 3.0G 23 Jul 16:18 r.data
In [6]: r[:6,:6]
Out[6]:
array([[6, 9, 8, 7, 4, 4],
[5, 9, 5, 0, 9, 4],
[6, 0, 9, 5, 7, 6],
[4, 0, 8, 8, 4, 7],
[8, 3, 3, 8, 7, 9],
[5, 6, 1, 3, 1, 4]])
In [7]: r = np.fromfile('r.data', dtype=np.int64)
In [8]: r = r.reshape(shape)
In [9]: r[:6,:6]
Out[9]:
array([[0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0],
[0, 0, 0, 0, 0, 0]])
np.save() 做了类似的奇怪事情。
网上搜了一下,发现OSX中有一个已知的bug:
https://github.com/numpy/numpy/issues/2806
当我尝试使用 Python 的 read() 从文件中读取 tostring() 数据时,出现内存错误。
有没有更好的方法来做到这一点?谁能推荐一个实用的解决方法来解决这个问题?