我试图连接数百个数组大小,总计近 25GB 的数据。我正在 56 GB 机器上进行测试,但我收到内存错误。我认为我做进动的方式效率低下,而且会占用大量内存。这是我的代码:
for dirname, dirnames, filenames in os.walk('/home/extra/AllData'):
filenames.sort()
BigArray=numpy.zeros((1,200))
for file in filenames:
newArray[load(filenames[filea])
BigArray=numpy.concatenate((BigArrat,newArray))
任何想法,想法或解决方案?
谢谢