我正在关注 Beeren Sahu 在 Tensorflow 中使用 DeepLab 的指南:https ://beerensahu.wordpress.com/2018/04/17/guide-for-using-deeplab-in-tensorflow/
我正在尝试使用 DeepLab 模型在 TensorFlow 中进行语义分割。我在这里下载了 DeepLab 代码:https ://github.com/tensorflow/models
运行后:
hpcsub -cmd python3.4 model_test.py
我收到以下错误:
Traceback (most recent call last):
File "model_test.py", line 20, in <module>
from deeplab import common
ImportError: No module named 'deeplab'
基本上抱怨model_test.py中的第20行:
from deeplab import common
我知道这是一个“deeplab”依赖错误,但我不知道如何解决它。正如 Sahu 的教程所推荐的,我添加了以下两个库:
# From tensorflow/models/research/
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/deeplab
使用这两个导出命令,我仍然得到相同的结果。
我在 Github 上找到了其他有类似问题的人,但他们还没有找到解决方案:1-- https://github.com/tensorflow/models/issues/5214 2-- https://github.com/张量流/模型/问题/4364
如果您没有解决方案,但可以推荐有关使用 Google 开源 DeepLab-v3 进行语义图像分割的有用教程,请分享!