我已经在我的 AWS Databricks 集群上成功安装了两个 h2o,然后成功启动了 h2o 服务器:
h2o.init()
当我尝试导入存储在我的 Databricks DBFS 中的 iris CSV 文件时:
train, valid = h2o.import_file(path="/FileStore/tables/iris.csv").split_frame(ratios=[0.7])
我收到 H2OResponseError:服务器错误 water.exceptions.H2ONotFoundArgumentException
CSV 文件绝对存在;在同一个 Databricks 笔记本中,我可以将其直接读入 DataFrame 并使用完全相同的完全限定路径查看内容:
df_iris = ks.read_csv("/FileStore/tables/iris.csv")
df_iris.head()
我也试过打电话:
h2o.upload_file("/FileStore/tables/iris.csv")
但无济于事;我得到 H2OValueError: File /FileStore/tables/iris.csv 不存在。我也尝试过直接从我的本地计算机(C 驱动器)上传文件,但这也没有成功。
我试过不使用完全限定的路径,只指定文件名,但我得到了同样的错误。我已经阅读了 H2O 文档并搜索了网络,但找不到以前遇到过此问题的任何人。
有人可以帮帮我吗?
谢谢。