1

我正在寻找一个工作示例,如何从 train.py 脚本中访问Azure 机器学习托管数据存储中的数据。我按照链接中的说明进行操作,我的脚本能够解析数据存储。

但是,无论我尝试过什么 ( as_download(), as_mount()),我总是得到的只是一个DataReference对象。或者,也许我只是不明白如何从文件中实际读取数据。

run = Run.get_context()
exp = run.experiment
ws = run.experiment.workspace

ds = Datastore.get(ws, datastore_name='mydatastore')
data_folder_mount = ds.path('mnist').as_mount()

# So far this all works. But how to go from here?
4

1 回答 1

2

您可以将您创建的 DataReference 对象作为输入传递给您的训练产品(scriptrun/estimator/hyperdrive/pipeline)。然后在您的训练脚本中,您可以通过参数访问安装的路径。完整教程:https ://docs.microsoft.com/en-us/azure/machine-learning/service/tutorial-train-models-with-aml

于 2019-08-08T18:37:38.360 回答