0

我对此感到非常困惑,我有两个脚本从同一个笔记本服务器运行。我在同一个文件夹中有一个 HDFStore,但是对于一个脚本,它看起来是空的,而对于另一个则不是。这是在两个笔记本中运行的相同代码:

import os 
os.getcwd()

返回 NB 1: 'E:\DoingDataScience\Identify\Scripts'

返回 NB 2: 'E:\DoingDataScience\Identify\Scripts'

store = pd.HDFStore('data_test.h5')
store.items

返回注意 1:

<bound method HDFStore.items of <class 'pandas.io.pytables.HDFStore'>
File path: data_test.h5
/test_database            frame        (shape->[3,5])>

返回注意 2:

<bound method HDFStore.items of <class 'pandas.io.pytables.HDFStore'>
File path: data_test.h5
Empty>

所有的情况看起来都一样。它是否跟踪 Pandas DF 的来源?我认为这可能是由于 NB 1 已经打开了该文件,因为 NB 1 创建了它。但是杀死 NB 1 并重新启动 NB 2 也没有做任何事情。

编辑:添加 os.stats:

NB 1 和 NB 2 两者:

nt.stat_result(st_mode=33206, st_ino=0L, st_dev=0L, st_nlink=0, 
st_uid=0, st_gid=0, st_size=1311400L, st_atime=1465072325L, 
st_mtime=1465149771L, st_ctime=1465072325L)

更新:现在重新启动后我收到一个新错误:

HDF5ExtError:HDF5 错误回溯

文件“C:\aroot\work\hdf5-1.8.15-patch1\src\H5F.c”,第 604 行,在 H5Fopen 中无法打开文件文件“C:\aroot\work\hdf5-1.8.15-patch1\ src\H5Fint.c",第 1085 行,在 H5F_open 中无法读取超级块文件 "C:\aroot\work\hdf5-1.8.15-patch1\src\H5Fsuper.c",第 294 行,在 H5F_super_read 中无法加载超级块文件“C:\aroot\work\hdf5-1.8.15-patch1\src\H5AC.c”,第 1320 行,在 H5AC_protect H5C_protect() 中失败。文件“C:\aroot\work\hdf5-1.8.15-patch1\src\H5C.c”,第 3574 行,在 H5C_protect 中无法加载条目文件“C:\aroot\work\hdf5-1.8.15-patch1 \src\H5C.c",第 7954 行,在 H5C_load_entry 中无法加载条目文件 "C:\aroot\work\hdf5-1.8.15-patch1\src\H5Fsuper_cache.c",第 476 行,在 H5F_sblock_load 截断文件中:eof = 800, sblock->base_addr = 0,

HDF5 错误回溯结束

无法打开/创建文件“data_test.h5”

4

1 回答 1

2

很可能您已经编写了数据

/test_database            frame        (shape->[3,5])>

在 NB1 的会话中并且没有关闭store(这将保存并刷新您对文件/磁盘的更改)

因此,当您h5在 NB2 中打开文件时,它尚未刷新,因此为空。

于 2016-06-05T18:31:22.770 回答