我正在将 ax,y,z 点文件 (LAS) 读入 python 并遇到内存错误。我正在为我正在从事的项目的已知点之间插入未知点。我开始处理小文件(< 5,000,000 点),并且能够毫无问题地读取/写入 numpy 数组和 python 列表。我收到了更多要使用的数据(> 50,000,000 点),现在我的代码因 MemoryError 而失败。
处理如此大量的数据有哪些选择?我不必一次将所有数据加载到内存中,但我需要使用scipy kd-tree查看相邻点我在 64 位 Windows XP 操作系统上使用 Python 2.7 32 位。
提前致谢。
编辑:代码发布在下面。我取出了用于长计算和变量定义的代码。
from liblas import file
import numpy as np
f = file.File(las_file, mode='r')
num_points = int(f.__len__())
dt = [('x', 'f4'), ('y', 'f4'), ('z', 'f4'), ('i', 'u2'), ('c', 'u1'), ('t', 'datetime64[us]')]
xyzict = np.empty(shape=(num_points,), dtype = dt)
counter = 0
for p in f:
newrow = (p.x, p.y, p.z, p.intensity, p.classification, p.time)
xyzict[counter] = newrow
counter += 1
dropoutList = []
counter = 0
for i in np.nditer(xyzict):
# code to define P1x, P1y, P1z, P1t
if counter != 0:
# code to calculate n, tDiff, and seconds
if n > 1 and n < scanN:
# code to find v and vD
for d in range(1, int(n-1)):
# Code to interpolate x, y, z for points between P0 and P1
# Append tuple of x, y, and z to dropoutList
dropoutList.append(vD)
# code to set x, y, z, t for next iteration
counter += 1