我正在从Batch AI迁移到新的Azure机器学习服务。以前,我在Azure Files共享上放置了python脚本,这些脚本直接从那里运行。
在新服务中,当您创建一个Estimator时,您必须提供一个源目录和一个输入脚本。该文档指出源目录是复制到远程计算机的本地目录。
但是,Estimator构造函数还允许您指定一个数据存储名称,该名称应指定用于项目共享的数据存储。
对我来说,这听起来像您可以指定一个数据存储,然后源目录相对于该数据存储,但是这不起作用,它仍然希望在本地计算机上找到源目录。
tf_est = TensorFlow(source_directory='./script',
source_directory_data_store=ds,
script_params=script_params,
compute_target=compute_target,
entry_script='helloworld.py',
use_gpu=False)
有人知道是否有可能使用数据存储来执行培训工作吗?