我有一个正在接受培训的自定义估算器。然后使用以下命令保存模型:
estimator.export_savedmodel()
我正在训练GPU实例,并希望在CPU实例上执行服务/推断。似乎使用export_savedmodel
保存了设备信息,并且当我尝试在CPU实例上进行推理时,出现错误。
我做了一些研究,似乎设置clear_devices
标志是解决此问题的方法。但是,我不知道在何处添加此标志。我不是手动实例化会话来运行代码,因此我在线上找到了很多解决方案(在保存或加载模型时添加此标志)对我不起作用。
我正在使用tf.contrib.predictor.from_saved_model
是否可以在现有代码设置中使用clear_devices标志(使用estimator.export_savedmodel()
保存并使用tf.contrib.predictor.from_saved_model
加载)?如果是,该怎么办?