1

我已经在我的 AWS Databricks 集群上成功安装了两个 h2o,然后成功启动了 h2o 服务器:

h2o.init()

当我尝试导入存储在我的 Databricks DBFS 中的 iris CSV 文件时:

train, valid = h2o.import_file(path="/FileStore/tables/iris.csv").split_frame(ratios=[0.7])

我收到 H2OResponseError:服务器错误 water.exceptions.H2ONotFoundArgumentException

CSV 文件绝对存在;在同一个 Databricks 笔记本中,我可以将其直接读入 DataFrame 并使用完全相同的完全限定路径查看内容:

df_iris = ks.read_csv("/FileStore/tables/iris.csv")
df_iris.head()

我也试过打电话:

h2o.upload_file("/FileStore/tables/iris.csv")

但无济于事;我得到 H2OValueError: File /FileStore/tables/iris.csv 不存在。我也尝试过直接从我的本地计算机(C 驱动器)上传文件,但这也没有成功。

我试过不使用完全限定的路径,只指定文件名,但我得到了同样的错误。我已经阅读了 H2O 文档并搜索了网络,但找不到以前遇到过此问题的任何人。

有人可以帮帮我吗?

谢谢。

4

1 回答 1

1

H2O 可能不明白这条路径在 DBFS 上。您可以尝试指定路径/dbfs/FileStore/tables/iris.csv- 在这种情况下,它将被读取为“本地文件”,或者尝试使用模式指定完整路径,例如dbfs:/FileStore/tables/iris.csv- 但这可能需要用于 H2O 的 DBFS 特定 jar。

于 2020-12-21T10:37:39.197 回答