问题标签 [faster-rcnn]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - 如何为 MATLAB 内置的多类 Faster R-CNN 函数准备训练数据?
我正在训练 Faster-RCNN 进行多类对象检测。我正在使用 matlab 内置函数 trainFasterRCNNObjectDetector 和 alexnet。该代码适用于单个对象,但是当尝试用于多个对象时,它显示“警告:从 3 个训练图像中的 2 个中删除了无效的边界框。trainingData 中的以下行具有无效的边界框数据:”。这是因为有些图像不包含一个类,为此我只放了空括号。
tensorflow - 训练图像大小 Faster-RCNN
我将使用 fast-rcnn 为一个类训练我的数据集。我所有的图像都是 1920x1080 尺寸。我应该调整图像大小或裁剪图像,还是可以用这个大小进行训练?我的对象也非常小(大约 60x60)。
在配置文件中,尺寸写为 min_dimension: 600 和 max_dimension: 1024,因此我很困惑用 1920x1080 大小的图像训练模型。
deep-learning - 如何在高分辨率图像上进行目标检测?
我有大约2000 X 2000
像素的图像。我试图识别的对象尺寸较小(通常在100 X 100
像素左右),但它们有很多。
我不想调整输入图像的大小、应用对象检测并将输出重新缩放回原始大小。这样做的原因是我只有很少的图像可以使用,我更喜欢裁剪(这会导致每个图像有多个训练实例)而不是调整到更小的尺寸(这会给我每个原始图像 1 个输入图像)。
是否有用于对象检测的复杂方法或裁剪和重新组装图像,尤其是在对测试图像进行推断时?
对于培训,我想我会取出随机作物,并将其用于培训。但是对于测试,我想知道是否有裁剪测试图像的特定方法,应用对象检测并将结果组合回来以获得原始大图像的输出。
yolo - 什么神经网络模型最有效
目前我研究神经网络。我尝试使用不同的模型来识别人,并遇到了一个对我来说非常有趣的问题。我用的是yolo v3,mask r-cnn,但是从间接角度拍摄的照片中都漏掉了照片中的人。现有模型中哪一个是最准确和最有效的?
python - 如何将图像批次作为本地人传递给 profile.runctx?
我想向profile.runctx
Ex发送一批图像
我有一个函数inference
,它接受一个序列图像批次作为输入。如何将一系列图像作为参数传递profile.runctx
?
python - (0) 未知:获取卷积算法失败。这可能是因为 cuDNN 未能初始化
这里我使用 mask_rcnn 进行对象检测。代码运行正常,但现在我收到以下错误。
代码 :
错误消息:
1 处理 1 个图像图像形状:(1123, 1588, 3) 最小值:13.00000 最大值:255.00000 uint8 模塑图像形状:(1, 1024, 1024, 3) 最小值:-123.70000 最大值:150.10000 float64 image_metas 形状:(1, 15) 最小值:0.00000 最大值:1588.00000 float64 锚形状:(1, 261888, 4) 最小值:-0.35390 最大值:1.29134 float32 ------------------------ -------------------------------------------------- -- UnknownError Traceback (most recent call last) in 15 16 # 运行检测 ---> 17 results = model.detect([image], verbose=1) 18 19 # 可视化结果
image-segmentation - 图像分割算法是否只考虑形状?还是尺寸、颜色和表面图案?
我有 100 个不同的对象类别,它们有时形状非常相似,但颜色、大小和表面图案不同。任何图像分割算法是否也考虑颜色、大小和图案,或者它们只是查看对象的轮廓?谢谢
c# - 在 C# Windows 窗体应用程序中使用 ONNX 模型
我已经在 Keras 中训练了一个 Mask RCNN 的深度学习模型,并导出了一个能够在 Python 中成功运行和测试图像的 ONNX 模型(权重矩阵)。是否有可能通过 Visual Studio 在 Windows 窗体应用程序、C# 中使用相同的 ONNX 模型?如果是,有什么要求?
系统信息:
- Windows 10 企业版 2016 LTSB
- 视觉工作室 2019
- ONNX 运行时版本(您正在使用):
- 掩码 RCNN,在 ONNX Runtime v0.5.0 中
python - 对象检测算法在测试算法后输出检测到的对象周围没有边界框的图像
我和我的伙伴创建了一个修改后的更快的 rcnn 算法,它在测试算法后输出图像时似乎没有任何边界框,但它只输出平均平均精度。到目前为止,我尝试做的是卸载并重新安装 TensorFlow,但问题仍然存在。