问题标签 [hdf]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - matlab读取用pandas制作的h5文件
我有一个 csv 文件,我已经用 pandas 将它转换成一个 h5 文件:
现在我想用matlab阅读它。
我怎样才能做到这一点?
我努力了
但我得到:
python - HDF 存储:将浮动元组列表保存到文件
我有一个大的 csv 文件,其中一列包含作为浮点元组的 gps 坐标列表。当然,如果我将文件作为 pandas 数据框读取,它们的类型只是字符串,这不是那么有用。
我想要做的是将字符串转换为浮点元组列表并将它们保存为一种我可以简单地加载到数据框并运行查询的格式。对此的重要限制是,我无法为整个大数据集计算此转换,因此无法转储二进制对象。
从我读到的,似乎 HDF 存储应该能够以所需的格式保存数据并允许我附加行,所以我可以将字符串逐位转换为 GPS 条目,从而不会出现我的记忆问题限制。
但是,当我尝试创建 HDF 文件时,我得到:
产生此错误的代码是:
df 包含原始数据的切片,在 POLYLINE 列上映射转换函数后,这至少应该意味着该列中的所有数据具有相同的类型。
我该如何解决生成的错误或有哪些其他方法可以很好地工作?
编辑:转换前的 df.head() 导致:
并在转换 POLYLINE 列之后(省略其他列以节省空间):
我现在对其进行了更改,因此结果输出也是列表列表而不是元组列表。检查其中的单个元素表明转换之前的条目是一个字符串,内部列表中的单个项目是一个浮点数,应该是这样,尽管它的打印方式并没有说明这一点。
r - 如何在 R 的压缩文件中提取和读取 bzip2ed hdf5?
我想读取压缩文件中的 hdf5 文件。这里的问题是这个 hdf5 文件也被双压缩为 bzip2ed (.bz2) 文件。
请参考下图。
压缩文件是"g2_BIOPAR_SWI_201012250000_GLOBE_ASCAT_V2_0_0.ZIP"
.
目标 bz2 文件是"g2_BIOPAR_SWI_201012250000_GLOBE_ASCAT_V2_0_0.h5.bz2"
.
有人可以告诉我一些如何做的提示或指导吗?
r - 如何使用此 R 函数拼接相同的 HDF 文件?
一个文件夹中有 1000 多张 MODIS HDF 图像:
他们的名字告诉我们哪些文件必须镶嵌在一起。
例如,在以下文件中,2009090表示这三个图像必须拼接在一起:
或者这两个,是同一日期,2009091:
我将使用这个函数(函数源)来拼接它们:
我应该如何将我的 HDF 文件介绍给hdfNames?
我应该在文件名中写什么?
我试图找到该功能的手册,但什么也没有。
谢谢你的帮助。
r - 将 HDF 文件加载到 R 时出错
我正在尝试在 R 中使用叶绿素水平的 HDF 数据,我已经rhdf5
安装并运行了包,但是当我尝试在其中加载我的 HDF 数据时,我得到了错误行。
这是我正在使用的代码
它产生的错误是
我浏览了谷歌,发现其他人有这个问题,但不知道如何解决它。
r - 如何在 R 中为 HDF 文件编写循环?
我在一个文件夹中有 1,000 多个 MODIS HDF 图像:
他们的名字向我们展示了哪些 HDF 文件属于某个日期并且必须镶嵌在一起。
例如,在下面,2009090表示这三张图片属于同一日期,必须拼接在一起:
或者这两个,是同一日期,2009091:
现在,我可以成功地使用mosaicHDF () 将它们拼接到一个日期,如下所示:
由于文件夹中有 1,000 多个 HDF 文件 1 年,我应该如何编写一个循环以对所有 HDF 文件使用此功能,并为每个日期制作一个马赛克文件?
如果有人能帮助我,我将不胜感激。
谢谢。
excel - 在 Excel 中加载 HDF5?
有没有办法将 HDF5 文件(有时称为 H5、HD5 或分层数据格式)加载/导入到 Excel 中?
我不想导出中间 CSV 文件,因为理想情况下我想在 Excel 中修改数据并重新保存回 HDF5(但可以接受的答案是首先解决加载文件的问题)。
Note that HDF5 is the format used by Python's PyTables, pandas, and h5py (experts in these packages may be able to answer this question). However I would prefer not to use Python to solve this problem (I would prefer an existing software tool). Maybe there is a way with ODBC...but I don't know how.
python - 使用 pyhdf 时找不到字段
我目前正在处理HDF
文件(第 4 版),并且我使用该pyhdf
模块(http://hdfeos.org/software/pyhdf.php)。
当我使用 MATLAB 在 MATLAB 中打开我的一个 HDF 文件时nctoolbox
,我得到以下变量:
使用 python,pyhdf
我只看到 2 个变量:
如果有人可以帮助我弄清楚这里发生了什么。
python - 追加 HDFStore 失败,无法匹配现有表结构
尝试通过pd.HDFStore('mystore.h5', mode='a').append(my_frame, chunk)
. 这些块在列和类型方面都是相同的(它们来自同一个数据框)但是它适用于很多块然后在中途爆炸。
ValueError: cannot match existing table structure for [Net_Bal_Amt,Loan_Current_Rate] on appending data
我打印出导致此失败的数据帧块,它们的共同点是特定列的所有“无”值(它们最初从源中为空)。不知道如何纠正这一点。只要它们为空,它们就应该保持为 None 或 NaN 或 null。谢谢。
数据类型:
版本:pytables:3.1.1 熊猫:0.15.2 python:3.4
崩溃时附加的块的 dtypes: