问题标签 [tensorflow-model-garden]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
57 浏览

pytorch - 关于训练 MobileDet 的问题

我正在尝试在 PyTorch 中训练 mobiledet[1]。实验遵循论文设置[2],但初始学习率(0.8)太大而无法覆盖。

能不能拿到mobiledet的训练日志来找问题?谢谢!

链接:

[1] https://arxiv.org/abs/2004.14525 [2] https://github.com/tensorflow/models/blob/master/research/object_detection/samples/configs/ssdlite_mobileet_dsp_320x320_coco_sync_4x4.config

0 投票
0 回答
24 浏览

tensorflow-model-garden - 使用 TF2 对象检测 API 创建的精简模型的预处理

在使用 Tensorflow 2 对象检测 API 训练模型执行推理时,我正在尝试解决何时必须使用预处理。从代码来看,似乎是:

  1. SavedModel 在训练结束时创建 - 是的,需要预处理

  2. 使用导出的模型exporter_main_v2.py- 否,将预处理层添加到模块中

  3. 使用 tf lite 导出的模型export_tflite_graph_tf2.py- 是的,需要预处理吗?

只是为了确认 tf lite 模型需要哪些预处理?是吗:

  1. 应用训练中使用的预处理,这取决于模型。

  2. 然后应用量化缩放?

0 投票
1 回答
226 浏览

python - “从 object_detection 导入 model_lib_v2”时出现分段错误

models/research/object_detection/model_main_tf2.pytensorflow/models(或只是)运行时,python -c "from object_detection import model_lib_v2"我得到:

我使用指南来设置对象检测 API,我没有遇到任何问题,python object_detection/builders/model_builder_tf2_test.py也可以正常工作。

nvidia-smi输出:

Python版本:3.8.5

张量流版本:2.5.0

操作系统:Ubuntu 20.04.2 LTS(Focal Fossa)

编辑:使用 Python3 的故障处理程序添加调试:

0 投票
1 回答
66 浏览

tensorflow-model-garden - pipeline.config 中没有fine_tune_checkpoint 字段

我想微调CenterNet MobileNetV2 FPN 关键点 512x512以进行对象检测:https ://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf2_detection_zoo.md 。我下载了焦油并提取了。pipeline.config没有fine_tune_checkpoint字段,因此我无法对预训练模型进行微调。我有两个问题: - 有没有办法添加微调字段?是因为这个模型的输出是关键点吗?

0 投票
1 回答
85 浏览

python - 对于非方形图像,Deeplabv3 重新训练结果偏斜

我在 Google Colab 中微调预训练模型deeplabv3_mnv2_pascal_train_aug时遇到问题。

当我使用vis.py进行可视化时,如果图像的高度/宽度较大,即图像不是正方形,结果似乎会移到图像的左侧/上侧。

用于微调的数据集是Look Into Person。这样做的步骤是:

  1. 在 deeplab/datasets/data_generator.py 中创建数据集
  1. 转换为 tfrecord
  1. 训练
  1. 可视化

通过以下步骤,我面临的问题的一个示例是:

原始图像

Deeplabv3 结果

我不知道我是否遗漏了一些重要的东西,或者是否需要更多的培训。然而,训练似乎不是一个解决方案,因为它的损失目前从 1.5 上下波动到 0.5,大约。

提前致谢。

0 投票
0 回答
61 浏览

python - 丢弃特定类 Deeplabv3 的分割

我正在使用 Deeplabv3 执行语义分割。我使用Look into person数据集进行了微调。

从该数据集中存在的 19 个类中,我想忽略其中的一些(例如,Socks),因为某些类通常分割得很差,我并不真正需要它们。

data_generator.py 中,我在此处定义的所有数据集中看到了一个变量ignore_label=255,但进一步阅读它似乎并不是我想要的。

那么,Deeplabv3 中有一种方法可以在训练数据集中的某些类时忽略吗?

0 投票
2 回答
522 浏览

python - 珊瑚 AI TPU 的 SSD MobileNet V2 FPNLite 320x320 转换问题

我正在尝试使用 Coral TPU 在 Rasperry PI 上运行 Tensorflow 模型精简版。型号为 SSD Mobile Net 2。经过完全量化或浮点 I/O 转换后,它在 PC 上运行良好。但是,当我在 Coral TPU 上运行它时,我得到了很多错误的结果。通常它是误报类 0(映射到人)。有人可以帮助我吗,我想出了如何解决它的想法?

张量流版本:2.5.0

TensorFlow Lite 版本:2.5.0

我做的步骤:

  1. 下载模型:http: //download.tensorflow.org/models/object_detection/tf2/20200711/ssd_mobilenet_v2_fpnlite_320x320_coco17_tpu-8.tar.gz
  2. 我将输入调整大小图层更改为 320x320,但结果与原始 300x300 相同。
  3. 我将保存的模型转换为 tf lite 友好格式:
  1. 模型转换为 TF Lite 格式,model_path 指向上一步输出,我尝试量化True/False 和下面代码的注释部分:

数据提供者,使用第 5 步中的代码:

  1. 代表性数据集 - Coco 2017 估值数据 - 500 个样本。
  1. 珊瑚AI编译:
  1. 使用 Coral AI (Rpi) 进行推理。它适用于 Coral AI SDK 中提供的 SSD2 Mobile Net。

8.输入图像,缩放和居中:

  1. 获取输出张量:

我注意到,当我运行转换几次时,结果略有不同——代表性数据是从集合中随机获得的。在我在 PC 上运行的 Coral AI 编译模型上,差异更加明显。

0 投票
0 回答
53 浏览

python - 在Tensorflow中使用model_zoo的faster_rcnn_resnet101_v1_640x640_coco17_tpu-8时遇到错误==2.5

我正在使用python 3.8并且tensor flow=2.5我想使用faster_rcnn_resnet101_v1_640x640_coco17_tpu-8模型来进行对象检测,但我面临以下错误。

错误:

0 投票
0 回答
39 浏览

tensorflow - 使用 Tensorflow 模型花园对象检测 API 训练自定义(实验)模型

我想采用 TensorFlow 或 Keras 模型对象的现有实现并将其训练(或微调)作为 TensorFlow 模型园的对象检测 API 的一部分。

我注意到在模型原型中提供了一个实验模型选项:

但目前尚不清楚我所指的函数应该构建什么(它不是 a keras.model)。在示例配置中,我找不到使用实验模型选项的示例。

我有哪些选择?有没有在某处使用experimental_model 选项的例子?

0 投票
1 回答
110 浏览

tensorflow - MobileNet:验证精度高,预测结果差

我正在使用 TensorFlow训练MobileNet_v1_1.0_224 。我正在使用TensorFlow-Slim 图像分类模型库中的 python 脚本进行训练。我的 4 个类的数据集分布如下:

normal_faces: 42070
oncall_faces: 13563(人们在通话时会在图像中看到手机)
Smoke_faces: 5949
yawning_faces: 1630

数据集中的所有图像都是正方形图像,并且大于224x224

我正在使用train_image_classifier.py使用以下参数训练模型,

训练模型后,eval_image_classifier.py在验证集上显示出大于95%的准确度,但是当我导出冻结图并将其用于预测时,它的表现非常糟糕。

我也试过这个笔记本,但这也产生了类似的结果。

日志:训练日志
图:损失准确性

这是什么原因?我该如何解决这个问题?

我在 SO 上看到过类似的问题,但没有特别与 MobileNets 相关。