问题标签 [single-shot-detector]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
99 浏览

python - 减少 SSD-300 的训练步骤

我是深度学习的新手,我正在尝试训练我的 SSD-300(单次检测器)模型,这需要太长时间。例如,即使我跑了 50 个 epoch,它也在训练 108370+ 全局步骤。我正在使用来自官方 github 存储库的默认 train_ssd_network.py 文件:https ://github.com/balancap/SSD-Tensorflow

我为训练运行的命令:

如何更改训练步骤以及理想的训练步骤是什么?

train_ssd_network.py 没有提供与 global_steps 相关的具体数字

0 投票
1 回答
45 浏览

python - 如何使用 VGG16(pytorch)和自定义数据集创建预训练权重

我刚开始学习pytorch。

但是,你知道为 SSD pytorch 创建预训练权重的方法吗?

我们有一个自定义数据集,因此我们希望使用 VGG16 使用自定义数据集创建预训练权重,以提高 SSD 的性能。

然后从那里带来重量将用于SSD。

让我知道它的可行性。

先感谢您

0 投票
1 回答
77 浏览

tensorflow - 不稳定的损失 SSD-300 由于 mAP 低

我正在训练我已将图像大小调整为 300x300 的 SSD-300 模型。我正在使用 github repo 中提到的默认设置:https ://github.com/balancap/SSD-Tensorflow

训练时损失是不稳定的。我尝试训练它直到 50,000 个训练步骤。我得到的当前mAP是0.26(VOC 2007)和0.24(VOC 2012)

训练集:1500 张图片测试:300 张图片

当前参数:

我该怎么做才能获得良好的准确性(mAP)?

损失的例子,损失甚至达到了80:

评估:

0 投票
0 回答
25 浏览

azure - 从 azure ML Registered Models 读取 MobileNetSSd 模型文件

1

我有一个预先训练好的MobileNetSSd.caffemodelmodel文件MobileNetSSd.prototxt。现在我想将这些部署到管道中的 Azure ML

首先,我尝试使用以下代码注册这两个模型:

文件注册成功,Home/Models目录下可见

现在我需要阅读这些模型,但我无法阅读它们。

我尝试使用以下代码,但它给了我一个错误,如下所述:

#错误:

我不知道为什么它找不到模型......我有点迷茫,如果有人可以帮我阅读这些模型,我将不胜感激

0 投票
0 回答
19 浏览

python - 使用重新预训练的 VGG16 模型进行多标签分类和自定义数据集是否可以提高 SSD 性能?

就像我写上面的标题一样,我正在使用 SSD 进行对象检测。

我为提高 SSD 性能 (AP) 所做的工作是将预训练模型转换为使用自定义数据集(具有多标签的图像)进行多标签分类的重新预训练模型,并将平均值转换为自定义数据集平均值。我没有更改 SSD Pytorch 的其余代码(https://github.com/midasklr/SSD.Pytorch)。至于我修改的SSD,损失图与SSD一样显示下降损失。但是,我改装的SSD并没有表现出SSD那样的AP性能。有什么建议可以检查一下我改装的SSD性能不好的原因吗?

0 投票
0 回答
23 浏览

tensorflow-lite - 与 YOLOv4 相比,TF2 Model Zoo 的 RetinaNet 和 MobileNet 显示出极差的准确性和泛化能力

我很抱歉,但这个问题可能被极度低估(由于共享限制)。

我正在使用一个包含大约 2500 个图像和大约 3200 个注释的小型专有对象检测数据集。

我使用 Alex 的 Darknet 框架训练了一个 YOLOv4 模型,使用默认参数(更改了输入大小等要求),我看到了非常好的性能。一个高度自信的网络,可以很好地概括。我使用了yolov4.conv.137检查点并按照此处提到的步骤进行操作

在本教程以及Eager Mode Few Shot Detection教程中,我尝试使用 Tensorflow 2 的对象检测 API 执行相同的任务,并且主要使用默认训练参数。我从模型动物园尝试了不同版本的 MobilNet SSD 和 RetinaNet SSD 检查点。

我主要是为了测试这些模型与 Google 的 EdgeTPU 的兼容性。

我看到的主要问题是 TF2 对象检测 API 模型在将它们转换为 TFlite 后的可怕泛化能力。诸如嘈杂的盒子和仅看到奇异类预测之类的问题。就好像他们只接受了 1 或 2 张图像的训练。

  1. YOLOv4 框架可能会出现这种性能差异,是否有任何具体原因?
  2. 关于在微调这些模型以提高性能时可能会发生什么变化的任何建议?
  3. 你认为我应该关注 EfficientDet 类型的模型,因为它们在基准数据集上表现出更好的性能吗?

非常感谢您的帮助和见解!