问题标签 [deeplab]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - export_model.py - 未找到:在检查点文件中未找到张量名称“MobilenetV2/Conv/BatchNorm/beta”
我一直在尝试从https://github.com/tensorflow/models/blob/master/research/deeplab/g3doc/pascal.md训练我自己的 deeplab 模型。
我在 Google Colab 上运行一切。
我已经能够很好地训练模型:
并很好地创建可视化:
但是运行 export_model.py 不起作用。我认为这可能是我训练的模型的问题,所以我尝试导出我正在训练的初始检查点 - 它也不起作用。
运行 export_model.py 的完整输出:
我知道类似的 GitHub 问题(https://github.com/tensorflow/models/issues/6212和https://github.com/tensorflow/models/issues/3992),但它看起来不像任何得到解决。我还尝试在 deeplab 中的 export_model.py 代码中四处寻找,但我对 TF 代码了解得不够多,不知道在哪里看。
java - 使用 Java API 的 TensorFlow 推理非常慢
我下载了使用预训练模型的 DeepLabv3 推理的 python3 示例。在我使用的 CPU 上,实际推理的运行时间约为 19 秒。TensorFlow 是使用 pip 安装的:
pip install intel-tensorflow
这是来自 colab Jupyter 笔记本的代码:
带输出:
我试图用 Java 重写它。我通过克隆https://github.com/tensorflow/tensorflow
标签v2.1.0
和运行从源代码编译了 tensorflow
下面是对应的Java代码:
运行以下命令:
产生以下输出:
除了错误本身,运行时间是 3912 秒......
python - 使用 Tensorflow 的 DeepLab 输出黑屏
我在我自己的数据集上训练了 DeepLab,initialize_last_layer
并且last_layers contain_logits
只使用了两者False
。我只有 2 类背景和标签。我尝试使用--num_classes=2
但3
没有任何效果。我的ignore_labe
l 是255
,而我的背景是(0,0,0,255)
,标签是(1,1,1,255)
。我也给了label_weights 1:20
但没用。我看到的只是segmented_results
文件夹中的黑色图像。有什么解决办法吗?
anaconda - Deeplabcut 安装_conda 环境
我正在尝试安装 deeplabcut。我正在遵循指示。
但是,当我尝试这样做时,“conda env create -f DLC-CPU.yaml”。它在下面发生一些错误。有没有人知道如何修复?
tensorflow - DeepLabV3,珊瑚的分割和分类/检测
我正在尝试使用 DeepLabV3 在 Coral 上进行图像分割和对象检测/分类。
我能够在珊瑚上使用 DeepLabV3 成功运行 semantic_segmentation.py 示例,但这仅显示了一个对象被分割的图像。
我看到它为颜色分配了标签 - 我如何将我根据模型的标签信息制作的 labels.txt 文件与这些颜色相关联?(我怎么知道哪个颜色对应哪个标签)。
当我尝试运行引擎 = DetectionEngine(args.model)
使用 deeplab 模型,我得到了错误
ValueError: 检测模型应该有 4 个输出张量!这个模型有 1 个。
我想这种方式是错误的方法吗?
谢谢!
python - 具有自定义输入大小((100、100)而不是(513、513))的USB Coral TPU的DeeplabV3 MobileNetV2量化
我一直在按照https://github.com/tensorflow/models/blob/394baa9f21424d3522ccfbdcee8acd3840891ff6/research/deeplab/g3doc/quantize.md中的步骤来量化 USB Coral TPU 的 DeeplabV3 MobileNetV2 模型,但我无法让它工作.
即使我从底部提供的模型(不是 8_bits,原始模型)开始,我也无法让它运行。而且我什至对两种模型都有不同的问题。
对于 deeplabv3_mnv2_pascal_train_aug:
-deeplab/train.py
量化脚本成功运行。
-deeplab/export_model.py
脚本步骤有效。
-tflite_convert
作品也是。
- EdgeTPU 编译器得到神秘的错误信息:Internal compiler error. Aborting!
对于 deeplabv3_mnv2_dm05_pascal_trainaug: -deeplab/train.py
量化运行的脚本得到:
ValueError: Total size of new array must be unchanged for MobilenetV2/Conv/weights lh_shape: [(3, 3, 3, 16)], rh_shape: [(3, 3, 3, 32)]
我尝试了这个解决方案,但没有成功。
直接使用 .pb 文件,
deeplab/train.py
带有量化意识的训练会因 python 崩溃而失败。在 python 中进行后量化直接有效。
- edgetpu_compiler 工作。
- 但是一旦在 TPU 上运行,我们得到 0.87 TPS,很可能是因为 edgetpu-converter 无法将所有转换为 edgtpu。
任何让它工作的指导都会很棒。我也对不遵循 tensorflow 指南的解决方案持开放态度。
tensorflow - 在 deeplab 上训练我自己的数据集,但推理全黑
我尝试在 TensorFlow 模型园中的 deeplab 模型上训练我自己的数据集,随着时间的推移,我可以得到一个减少的损失结果,我使用官方 repo 提供的预训练模型。
但是当我尝试查看最新的检查点或尝试将模型冻结为 .pb 并进行推理时,除了黑色图像之外什么都没有(我用 NumPy 检查这些图像,所有像素都是 0)。
我的训练脚本是这样的:
以前有没有人发生过?
tensorflow - 用于移动的 Deeplab xception (tensorflow lite)
我正在检查使用预先训练的 deeplab xception65_coco_voc_trainval模型运行图像分割的选项。
冻结模型大小约为 161MB,将其转换为 tflite 后大小约为 160MB,在我的 PC cpu 上运行此模型需要约 25 秒。
这是“预期的”还是我可以做得更好?
到 tflite 的转换如下:
谢谢!
tensorflow - 关于Deeplab输出全黑(0)输出
我想问一下关于使用mobilenetv2输出全黑(0)数组的Deeplab的问题,并确认它是全零而不是0~1。我看到很多人有同样的问题,但我还没有找到解决方案。1.我的分割数据是一维数组(去除了颜色图),所以我认为这应该不是问题,标签在0~1之间,根据类。2.我已经设置了正确的类数,train,val,trainval数据数。3.我可以毫无问题地训练模型,并且损失值很好。我的火车配置:
可见配置:
任何人都可以帮助我,或者请告诉我您的成功设置,就像您的配置或您的数据集一样。
tensorflow - 有没有将 deeplab 代码迁移到 tensorflow 2 的计划?
tensorflow/models/research/deeplab 下的 deeplab 代码似乎使用的是旧版本的 tensorflow。随着新版本的 tensorflow 的推出,是否有计划迁移现有的 repo 以使用 tf2,特别是用于模型定义的 tf2.keras api?