我有一个 50,000x5,000 矩阵(浮点)文件。当用于 x = np.genfromtxt(readFrom, dtype=float)
将文件加载到内存中时,我收到以下错误消息:
文件“C:\Python27\lib\site-packages\numpy\lib\npyio.py”,第 1583 行,在 genfromtxt for (i, converter) in enumerate(converters)])
MemoryError
我想将整个文件加载到内存中,因为我正在使用 Scipy 计算每个向量之间的欧几里德距离。dis = scipy.spatial.distance.euclidean(x[row1], x[row2])
有什么有效的方法可以将一个巨大的矩阵文件加载到内存中。
谢谢你。
Update:
我设法解决了这个问题。这是我的解决方案。我不确定它是否有效或逻辑正确,但对我来说效果很好:
x = open(readFrom, 'r').readlines()
y = np.asarray([np.array(s.split()).astype('float32') for s in x], dtype=np.float32)
....
dis = scipy.spatial.distance.euclidean(y[row1], y[row2])
请帮助我改进我的解决方案。