我正在关注pytorch sagemaker docs here,但是我坚持在这条线上
torch.jit.optimized_execution(True, {'target_device': 'eia:device ordinal'})
运行它时,出现错误optimized_execution() takes 1 positional argument but 2 were given
。我正在使用pytorch 1.3.1,但是我尝试使用1.4.0并遇到了类似的问题。如果没有第二个参数,是否可以使用优化执行?如何指定加速器?
答案 0 :(得分:2)
(为方便起见,我将启用了弹性推理的PyTorch框架称为“ PyTorch-EI”)
您是否通过笔记本电脑或主机使用SageMaker?目前尚未发布SageMaker笔记本支持,因此没有可激活的官方笔记本内核/ Conda环境具有启用了Elastic Inference的PyTorch框架。但是,您可以通过激活pytorch_p36
环境(具有标准PyTorch),卸载PyTorch,然后使用PyTorch-EI 1.3.1 framework wheel-从here链接的安装来创建自己的环境。
SageMaker托管目前不支持开箱即用的PyTorch-EI。如果您当前正在使用SageMaker托管并遇到问题,请共享一些推断代码+您正在使用的容器。容器列表可以在here上找到。
还要注意,EC2当前通过DLAMI v27.0支持Elastic Inference。 Conda环境名称为amazonei_pytorch_p36
。
答案 1 :(得分:0)
我误读了文档。它说the Elastic Inference enabled PyTorch framework accepts two parameters for this context, while the vanilla PyTorch framework accepts only one parameter.
。它应该适用于割炬1.3.1,因为到目前为止,这是sagemaker的所有支持。