4

尝试引用/加载使用 Blob 存储中的数据源文件生成的 dsource 或 dprep 文件时,我收到错误消息“No files for given path(s)”。

使用 .py 和 .ipynb 文件进行测试。这是代码:

# Use the Azure Machine Learning data source package
from azureml.dataprep import datasource

df = datasource.load_datasource('POS.dsource') #Error generated here

# Remove this line and add code that uses the DataFrame
df.head(10)

请让我知道还有哪些其他信息会有所帮助。谢谢!

4

2 回答 2

4

遇到了同样的问题,需要一些研究才能弄清楚!

目前,只有两种集群类型支持来自 blob 存储的数据源文件:Azure HDInsight PySparkDocker (Linux VM) PySpark

为了使其正常工作,必须按照配置 Azure 机器学习实验服务中的说明进行操作。

在提交第一个命令之前,我还在az ml experiment prepare -c <compute_name>集群上安装了所有依赖项,因为该部署需要相当长的时间(我的 D12 v2 集群至少需要 10 分钟。)

.py文件与 HDInsight PySpark 计算群集一起运行(用于存储在 Azure blob 中的数据。)但.ipynb文件仍然无法在我的本地 Jupyter 服务器上运行 - 单元永远不会完成。

于 2017-11-20T05:41:50.023 回答
0

我来自 Azure 机器学习团队 - 抱歉,您遇到了 Jupyter notebook 的问题。您是否尝试过从 CLI 运行笔记本?如果您从 CLI 运行,您应该会看到 stderr/stdout。WB 中的 IFrame 会吞下实际的错误消息。这可能会帮助您进行故障排除。

于 2017-11-21T21:47:18.007 回答