我正在遵循Beeren Sahu在Tensorflow中使用DeepLab的指南:https://beerensahu.wordpress.com/2018/04/17/guide-for-using-deeplab-in-tensorflow/
我正在尝试使用DeepLab模型在TensorFlow中进行语义分割。我已经在此处下载了DeepLab代码:https://github.com/tensorflow/models
运行后:
hpcsub -cmd python3.4 model_test.py
我收到以下错误:
Traceback (most recent call last):
File "model_test.py", line 20, in <module>
from deeplab import common
ImportError: No module named 'deeplab'
基本上抱怨model_test.py中的第20行:
from deeplab import common
我知道这是一个“ deeplab”依赖错误,但是我不知道如何解决。按照Sahu的教程的建议,我添加了以下两个库:
# From tensorflow/models/research/
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/deeplab
使用这两个导出命令,我仍然得到相同的结果。
我在Github上发现了具有类似问题的其他人,但他们尚未找到解决方案: 1-https://github.com/tensorflow/models/issues/5214 2-- https://github.com/tensorflow/models/issues/4364
如果您没有解决方案,但是可以推荐有关使用Google开源DeepLab-v3进行语义图像分割的有用教程,请分享!
答案 0 :(得分:0)
答案 1 :(得分:0)
您当前工作目录的路径是什么?
您需要从tensorflow / model / research目录运行export命令和脚本。
$ cd /path/to/tensorflow
$ cd models/research
$ export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
$ export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/deeplab
$ python deeplab/model_test.py
此脚本的输出将如下所示。
.....
----------------------------------------------------------------------
Ran 5 tests in 19.040s
OK