问题标签 [mobilenet]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 使用 MobileNet 和 Faster RCNN 检测小物体
我正在使用 Tensorflow 对象检测 API 对各种动物进行对象检测。过去,我成功地将 MobileNet v1 应用于各种设置,并且我对结果感到满意。
现在,我遇到了一个新物种的问题,它比我之前处理的动物小约 1/3。从视觉上看,动物在一定比例上看起来是一样的,这意味着要预测的边界框在图像大小的 5-15% 范围内,而不是之前的 20%-30%。
我觉得应该有一些我需要调整的超参数才能让东西恢复工作,但我很难找到合适的管道配置。我已经尝试将 anchor_generator 的 min_scale 和 max_scale 调整为更小的值,但没有成功。
有趣的是,使用 Faster RCNN 可以立即处理完全相同的数据。
有什么想法可以尝试吗?
deep-learning - MobileNet V3 比 V2 快多少?
这是有关 MobileNet V3 的论文的链接。
根据该论文,h-swish 和 Squeeze-and-excitation 模块是在 MobileNet V3 中实现的,但它们旨在提高准确性,而无助于提高速度。
h-swish 比 swish 快,有助于提高准确性,但如果我没记错的话,它比 ReLU 慢得多。
SE 也有助于提高准确性,但它增加了网络的参数数量。
我错过了什么吗?我仍然不知道 MobileNet V3 如何比 V2 更快,上面所说的在 V3 中实现。
我没有提到他们还修改了他们网络的最后一部分,因为我计划使用 MobileNet V3 作为主干网络并将其与 SSD 层结合起来进行检测,所以网络的最后一部分不会用过的。
下表(可在上述论文中找到)显示 V3 仍然比 V2 快。
python - 尝试使用“load_model”,但他创建了 0 层的新模型
我想用 load_model 加载新的微调模型。但是我不加载而是创建一个空的新的。该模型是在具有相同 keras 和 Python 版本的相同环境中构建的。示例代码也是如此。
model = load_weights 也不起作用
那是我的输出
我试着把它放在我的 MobileNet 结构中,但它仍然因同样的错误而失败。
python - Conv2dTranspose 产生错误的输出形状
我目前正在尝试修改 mobilenetv2,以便它检测图像中的某些对象并返回一个标记所述对象位置的热图。为此,热图必须具有与输入图像完全相同的分辨率。
我的方法是构建某种 U-Net 之类的编码器-解码器网络,该网络利用 Conv2dTranspose 将移动网络的输出缩放回其原始形状,并使用通往每个相应卷积的快捷路径来降低分辨率。
第一个对应层之间的第一个连接效果很好,但是第二个失败了,因为它们的输出形状不匹配。正如我预期的那样,第一个 Conv2dTranspose 将分辨率提高了 2 倍。然而,第二个没有。它具有输入形状 (None, 20, 80, 192) 并且应该输出 (None, 40, 160, 144)。不幸的是,实际的输出形状是 (None, 36, 156, 144),这使得层的串联成为不可能。
如何实现一致的输出形状?我认为这就是 padding='same' 应该保证的吗?非常感谢您的帮助!
到目前为止,我已经尝试更改填充类型、设置 output_padding 参数、步幅和过滤器大小。其中没有一个或多或少令人惊讶地以所需的方式影响输出形状。
ValueError:Concatenate
图层需要具有匹配形状的输入,但连接轴除外。得到输入形状:[(None, 40, 160, 144), (None, 36, 156, 144)]
第一个形状是 Conv2dTransposed 输出的所需形状,第二个是实际形状。这些应该是相同的串联工作。
conv-neural-network - 使用数据集中带有水印的图像进行 CNN 分类
我想知道在训练 CNN(MobileNetv2)时训练集中带有水印的图像是否会影响其准确性。简单地将它们从集合中移除会更好吗?谢谢!
deep-learning - 在 Pytorch 中微调预训练模型 MobileNet_V2
我是 pyTorch 的新手,我正在尝试创建一个分类器,其中我有大约 10 种图像文件夹数据集,对于这个任务,我使用的是预训练模型( MobileNet_v2 ),但问题是我无法更改它的 FC 层. 没有 model.fc 属性。谁能帮我做到这一点。谢谢
tensorflow - Tensorflow OD API - 微调模型时使用 dropout
我正在尝试用我自己的数据微调 SSD MobileNet v2(来自模型动物园)。在 pipeline.config 我看到它use_dropout
设置为 false。这是为什么?我认为应该使用 dropout 来防止过度拟合。
是因为批量标准化吗?在这篇论文中,它说:
3.4 Batch Normalization 对模型进行正则化
当使用 Batch Normalization 进行训练时,可以看到一个训练示例与 mini-batch 中的其他示例一起出现,并且训练网络不再为给定的训练示例生成确定性值。在我们的实验中,我们发现这种效果有利于网络的泛化。虽然 Dropout (Srivastava et al., 2014) 通常用于减少过度拟合,但在批量归一化网络中,我们发现它可以被移除或降低强度。
python - 如何将灰度图像数据集加载到移动网络模型
我正在尝试将灰度图像数据集(fashion-mnist)加载到 MobileNet 模型以预测手写数字,但根据本教程,只能将 RGB 图像加载到模型中。当我尝试提供时尚 mnist 样品时,它给了我以下错误
检查输入时出错:预期 keras_layer_13_input 的形状为 (224, 224, 3) 但数组的形状为 (224, 224, 1)
如何解决这个问题呢 ?
python - 如何将我自己的数据集添加到 MobileNet 模型中?
我正在尝试通过将我自己的数据集加载到 MobileNet 模型来进行预测。根据本教程,数据集(cats_vs_dogs
)是从 TensorFlow 数据集加载的,如下所示
如何更改上述代码以加载我自己的猫与狗数据集?
python - AttributeError:“函数”对象没有属性“预处理输入”
我想试试 MobileNetV2 的预测。我总是收到一条错误消息,但我不知道要更改什么。
这是错误消息。
也许有人可以帮助我。