问题标签 [single-shot-detector]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 减少 SSD-300 的训练步骤
我是深度学习的新手,我正在尝试训练我的 SSD-300(单次检测器)模型,这需要太长时间。例如,即使我跑了 50 个 epoch,它也在训练 108370+ 全局步骤。我正在使用来自官方 github 存储库的默认 train_ssd_network.py 文件:https ://github.com/balancap/SSD-Tensorflow
我为训练运行的命令:
如何更改训练步骤以及理想的训练步骤是什么?
train_ssd_network.py 没有提供与 global_steps 相关的具体数字
python - 如何使用 VGG16(pytorch)和自定义数据集创建预训练权重
我刚开始学习pytorch。
但是,你知道为 SSD pytorch 创建预训练权重的方法吗?
我们有一个自定义数据集,因此我们希望使用 VGG16 使用自定义数据集创建预训练权重,以提高 SSD 的性能。
然后从那里带来重量将用于SSD。
让我知道它的可行性。
先感谢您
tensorflow - 不稳定的损失 SSD-300 由于 mAP 低
我正在训练我已将图像大小调整为 300x300 的 SSD-300 模型。我正在使用 github repo 中提到的默认设置:https ://github.com/balancap/SSD-Tensorflow
训练时损失是不稳定的。我尝试训练它直到 50,000 个训练步骤。我得到的当前mAP是0.26(VOC 2007)和0.24(VOC 2012)
训练集:1500 张图片测试:300 张图片
当前参数:
我该怎么做才能获得良好的准确性(mAP)?
损失的例子,损失甚至达到了80:
评估:
azure - 从 azure ML Registered Models 读取 MobileNetSSd 模型文件
1
我有一个预先训练好的MobileNetSSd.caffemodelmodel
文件MobileNetSSd.prototxt
。现在我想将这些部署到管道中的 Azure ML
首先,我尝试使用以下代码注册这两个模型:
文件注册成功,Home/Models
目录下可见
现在我需要阅读这些模型,但我无法阅读它们。
我尝试使用以下代码,但它给了我一个错误,如下所述:
#错误:
我不知道为什么它找不到模型......我有点迷茫,如果有人可以帮我阅读这些模型,我将不胜感激
python - 使用重新预训练的 VGG16 模型进行多标签分类和自定义数据集是否可以提高 SSD 性能?
就像我写上面的标题一样,我正在使用 SSD 进行对象检测。
我为提高 SSD 性能 (AP) 所做的工作是将预训练模型转换为使用自定义数据集(具有多标签的图像)进行多标签分类的重新预训练模型,并将平均值转换为自定义数据集平均值。我没有更改 SSD Pytorch 的其余代码(https://github.com/midasklr/SSD.Pytorch)。至于我修改的SSD,损失图与SSD一样显示下降损失。但是,我改装的SSD并没有表现出SSD那样的AP性能。有什么建议可以检查一下我改装的SSD性能不好的原因吗?
tensorflow-lite - 与 YOLOv4 相比,TF2 Model Zoo 的 RetinaNet 和 MobileNet 显示出极差的准确性和泛化能力
我很抱歉,但这个问题可能被极度低估(由于共享限制)。
我正在使用一个包含大约 2500 个图像和大约 3200 个注释的小型专有对象检测数据集。
我使用 Alex 的 Darknet 框架训练了一个 YOLOv4 模型,使用默认参数(更改了输入大小等要求),我看到了非常好的性能。一个高度自信的网络,可以很好地概括。我使用了yolov4.conv.137
检查点并按照此处提到的步骤进行操作
在本教程以及Eager Mode Few Shot Detection教程中,我尝试使用 Tensorflow 2 的对象检测 API 执行相同的任务,并且主要使用默认训练参数。我从模型动物园尝试了不同版本的 MobilNet SSD 和 RetinaNet SSD 检查点。
我主要是为了测试这些模型与 Google 的 EdgeTPU 的兼容性。
我看到的主要问题是 TF2 对象检测 API 模型在将它们转换为 TFlite 后的可怕泛化能力。诸如嘈杂的盒子和仅看到奇异类预测之类的问题。就好像他们只接受了 1 或 2 张图像的训练。
- YOLOv4 框架可能会出现这种性能差异,是否有任何具体原因?
- 关于在微调这些模型以提高性能时可能会发生什么变化的任何建议?
- 你认为我应该关注 EfficientDet 类型的模型,因为它们在基准数据集上表现出更好的性能吗?
非常感谢您的帮助和见解!