从测量我得到的文本文件基本上包含一个浮点数表,尺寸为 1000x1000。这些占用大约 15MB 的空间,考虑到我在一个系列中得到大约 1000 个结果文件,保存起来是不可接受的。所以我试图在不丢失数据的情况下尽可能地压缩它们。我的想法是将这些数字分组到我期望的范围内的 ~1000 步中并保存它们。这将提供足够的分辨率。但是,我仍然需要考虑 1.000.000 点,因此我生成的文件仍然约为 4MB。我可能无法再压缩它了?更大的问题是计算时间。现在我估计每个文件需要 10-12 秒,所以 1000 个文件大约需要 3 小时。太棒了。这是我想出来的算法,你有什么建议吗?那里'
import numpy
data=numpy.genfromtxt('sample.txt',autostrip=True, case_sensitive=True)
out=numpy.empty((1000,1000),numpy.int16)
i=0
min=-0.5
max=0.5
step=(max-min)/1000
while i<=999:
j=0
while j<=999:
k=(data[i,j]//step)
out[i,j]=k
if data[i,j]>max:
out[i,j]=500
if data[i,j]<min:
out[i,j]=-500
j=j+1
i=i+1
numpy.savetxt('converted.txt', out, fmt="%i")
提前感谢您提供的任何提示!雅各布