问题标签 [tensorflow-model-garden]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
pytorch - 关于训练 MobileDet 的问题
我正在尝试在 PyTorch 中训练 mobiledet[1]。实验遵循论文设置[2],但初始学习率(0.8)太大而无法覆盖。
能不能拿到mobiledet的训练日志来找问题?谢谢!
链接:
[1] https://arxiv.org/abs/2004.14525 [2] https://github.com/tensorflow/models/blob/master/research/object_detection/samples/configs/ssdlite_mobileet_dsp_320x320_coco_sync_4x4.config
tensorflow-model-garden - 使用 TF2 对象检测 API 创建的精简模型的预处理
在使用 Tensorflow 2 对象检测 API 训练模型执行推理时,我正在尝试解决何时必须使用预处理。从代码来看,似乎是:
SavedModel 在训练结束时创建 - 是的,需要预处理
使用导出的模型
exporter_main_v2.py
- 否,将预处理层添加到模块中使用 tf lite 导出的模型
export_tflite_graph_tf2.py
- 是的,需要预处理吗?
只是为了确认 tf lite 模型需要哪些预处理?是吗:
应用训练中使用的预处理,这取决于模型。
然后应用量化缩放?
python - “从 object_detection 导入 model_lib_v2”时出现分段错误
models/research/object_detection/model_main_tf2.py
从tensorflow/models
(或只是)运行时,python -c "from object_detection import model_lib_v2"
我得到:
我使用本指南来设置对象检测 API,我没有遇到任何问题,python object_detection/builders/model_builder_tf2_test.py
也可以正常工作。
nvidia-smi
输出:
Python版本:3.8.5
张量流版本:2.5.0
操作系统:Ubuntu 20.04.2 LTS(Focal Fossa)
编辑:使用 Python3 的故障处理程序添加调试:
tensorflow-model-garden - pipeline.config 中没有fine_tune_checkpoint 字段
我想微调CenterNet MobileNetV2 FPN 关键点 512x512以进行对象检测:https ://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf2_detection_zoo.md 。我下载了焦油并提取了。pipeline.config没有fine_tune_checkpoint字段,因此我无法对预训练模型进行微调。我有两个问题: - 有没有办法添加微调字段?是因为这个模型的输出是关键点吗?
python - 对于非方形图像,Deeplabv3 重新训练结果偏斜
我在 Google Colab 中微调预训练模型deeplabv3_mnv2_pascal_train_aug时遇到问题。
当我使用vis.py进行可视化时,如果图像的高度/宽度较大,即图像不是正方形,结果似乎会移到图像的左侧/上侧。
用于微调的数据集是Look Into Person。这样做的步骤是:
- 在 deeplab/datasets/data_generator.py 中创建数据集
- 转换为 tfrecord
- 训练
- 可视化
通过以下步骤,我面临的问题的一个示例是:
我不知道我是否遗漏了一些重要的东西,或者是否需要更多的培训。然而,训练似乎不是一个解决方案,因为它的损失目前从 1.5 上下波动到 0.5,大约。
提前致谢。
python - 丢弃特定类 Deeplabv3 的分割
我正在使用 Deeplabv3 执行语义分割。我使用Look into person数据集进行了微调。
从该数据集中存在的 19 个类中,我想忽略其中的一些(例如,Socks),因为某些类通常分割得很差,我并不真正需要它们。
在data_generator.py 中,我在此处定义的所有数据集中看到了一个变量ignore_label=255,但进一步阅读它似乎并不是我想要的。
那么,Deeplabv3 中有一种方法可以在训练数据集中的某些类时忽略吗?
python - 珊瑚 AI TPU 的 SSD MobileNet V2 FPNLite 320x320 转换问题
我正在尝试使用 Coral TPU 在 Rasperry PI 上运行 Tensorflow 模型精简版。型号为 SSD Mobile Net 2。经过完全量化或浮点 I/O 转换后,它在 PC 上运行良好。但是,当我在 Coral TPU 上运行它时,我得到了很多错误的结果。通常它是误报类 0(映射到人)。有人可以帮助我吗,我想出了如何解决它的想法?
张量流版本:2.5.0
TensorFlow Lite 版本:2.5.0
我做的步骤:
- 下载模型:http: //download.tensorflow.org/models/object_detection/tf2/20200711/ssd_mobilenet_v2_fpnlite_320x320_coco17_tpu-8.tar.gz
- 我将输入调整大小图层更改为 320x320,但结果与原始 300x300 相同。
- 我将保存的模型转换为 tf lite 友好格式:
- 模型转换为 TF Lite 格式,model_path 指向上一步输出,我尝试量化True/False 和下面代码的注释部分:
数据提供者,使用第 5 步中的代码:
- 代表性数据集 - Coco 2017 估值数据 - 500 个样本。
- 珊瑚AI编译:
- 使用 Coral AI (Rpi) 进行推理。它适用于 Coral AI SDK 中提供的 SSD2 Mobile Net。
8.输入图像,缩放和居中:
- 获取输出张量:
我注意到,当我运行转换几次时,结果略有不同——代表性数据是从集合中随机获得的。在我在 PC 上运行的 Coral AI 编译模型上,差异更加明显。
python - 在Tensorflow中使用model_zoo的faster_rcnn_resnet101_v1_640x640_coco17_tpu-8时遇到错误==2.5
我正在使用python 3.8
并且tensor flow=2.5
我想使用faster_rcnn_resnet101_v1_640x640_coco17_tpu-8
模型来进行对象检测,但我面临以下错误。
错误:
tensorflow - 使用 Tensorflow 模型花园对象检测 API 训练自定义(实验)模型
我想采用 TensorFlow 或 Keras 模型对象的现有实现并将其训练(或微调)作为 TensorFlow 模型园的对象检测 API 的一部分。
我注意到在模型原型中提供了一个实验模型选项:
但目前尚不清楚我所指的函数应该构建什么(它不是 a keras.model
)。在示例配置中,我找不到使用实验模型选项的示例。
我有哪些选择?有没有在某处使用experimental_model 选项的例子?
tensorflow - MobileNet:验证精度高,预测结果差
我正在使用 TensorFlow训练MobileNet_v1_1.0_224 。我正在使用TensorFlow-Slim 图像分类模型库中的 python 脚本进行训练。我的 4 个类的数据集分布如下:
normal_faces: 42070
oncall_faces: 13563(人们在通话时会在图像中看到手机)
Smoke_faces: 5949
yawning_faces: 1630
数据集中的所有图像都是正方形图像,并且大于224x224
我正在使用train_image_classifier.py使用以下参数训练模型,
训练模型后,eval_image_classifier.py在验证集上显示出大于95%的准确度,但是当我导出冻结图并将其用于预测时,它的表现非常糟糕。
我也试过这个笔记本,但这也产生了类似的结果。
这是什么原因?我该如何解决这个问题?
我在 SO 上看到过类似的问题,但没有特别与 MobileNets 相关。