我有一些大(甚至压缩到 10GB 左右)文件,其中包含一个 ASCII 标头,然后原则上每个大约 3MB 的 numpy.recarrays,我们称它们为“事件”。我的第一种方法如下所示:
f = gzip.GzipFile(filename)
f.read(10000) # fixed length ascii header
event_dtype = np.dtype([
('Id', '>u4'), # simplified
('UnixTimeUTC', '>u4', 2),
('Data', '>i2', (1600,1024) )
])
event = np.fromfile( f, dtype = event_dtype, count=1 )
但是,这是不可能的,因为 np.fromfile 需要一个真正的 FILE 对象,因为它确实进行了低级调用(找到了一张很旧的票https://github.com/numpy/numpy/issues/1103)。
所以据我了解,我必须这样做:
s = f.read( event_dtype.itemsize )
event = np.fromstring(s, dtype=event_dtype, count=1)
是的,它有效!但这不是非常低效吗?不是为 s 分配了内存,并为每个事件收集垃圾吗?在我的笔记本电脑上,我达到了 16 个事件/秒,即 ~50MB/秒
我想知道是否有人知道一种聪明的方法,一次分配内存,然后让 numpy 直接读入该内存。
顺便提一句。我是一名物理学家,所以……在这个行业还是个新手。