我必须将所有庞大的数据放在 hdf5 中的单个数据集中。现在,问题是,如果您尝试:
>> hdf5write('hd', '/dataset1', [1;2;3])
>> hdf5write('hd', '/dataset1', [4;5;6], 'WriteMode', 'append')
??? Error using ==> hdf5writec
writeH5Dset: Dataset names must be unique when appending data.
如您所见,当您尝试将数据附加到同一数据集时,hdf5write 会报错。我环顾四周,发现一种可能的解决方法是先从数据集中获取数据,然后在 matlab 环境中直接连接数据。当然,这对于小数据来说不是问题。对于这种情况,我们谈论的是千兆字节的数据,Matlab 开始大喊内存不足。
因此,在这种情况下,我有哪些可用选项?
注意:我们的 matlab 版本中没有 h5write 函数。