问题标签 [detectron]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 元组索引超出范围-detectron2
我保存了我在 colab 的输出文件中训练的名为 final_model 的模型,但它给出了一个元组索引超出范围错误。我该如何解决这个错误。另外,我想从谷歌驱动器导入输出文件。如何编辑图片中的代码。
python - 如何在对象检测任务中将水平边界框转换为定向边界框
我试图用更快的 rcnn 检测定向边界框很长一段时间,但我无法做到这一点。我的目标是检测 DOTA 数据集中的对象。我在 pytorch 中使用了内置的更快的 rcnn 模型,但意识到它不支持 OBB。然后我找到了另一个构建在 pytorch 框架上的名为detectron2 的库。detectron2 中内置的更快的 rcnn 网络实际上与 OBB 兼容,但我无法使该模型与 DOTA 一起使用。因为我无法将 DOTA 框注释转换为(cx, cy, w, h, a)
. 在 DOTA 中,对象由 4 个角的坐标标注,它们是(x1,y1,x2,y2,x3,y3,x4,y4)
.
我想不出将这 4 个坐标转换为 的解决方案(cx, cy, w, h, a)
,其中 cx 和 cy 是 OBB 的中心点,w、h 和 a 分别是宽度、高度和角度。
有什么建议吗?
deeplab - 如何使用检测器在可可数据集上训练 DeepLabv3+
我需要在 coco 数据集上训练 DeepLabv3+ 模型。当我在城市景观上训练 Detectron2 时,它帮了我很多忙。通常,detectron2 告诉当配置文件更改时,您可以在其他数据集上训练模型。但是,当我将配置文件数据集部分更改为 coco 时,训练过程不会发生。有没有人在 coco 数据集上训练 deeplabv3+ 或 deeplabv3 或者我怎样才能正确使用配置文件,我还应该改变什么?使用detectron2时,配置文件需要注意什么?
amazon-web-services - 调用端点错误 - AWS Sagemaker 上的detectron2:ValueError:类型 [application/x-npy] 尚不支持此类型
我一直在按照本指南在 Sagemaker 上实施 Detectron2 模型。在训练和批量转换方面,一切看起来都不错。
但是,我尝试稍微调整代码以创建一个可以通过发送有效负载来调用的端点,但我遇到了一些麻烦。
在此笔记本的末尾,创建 SageMaker 模型对象后:
我添加了以下代码:
而且我可以看到模型已经成功部署。
但是,当我尝试使用以下内容预测图像时:
我收到以下错误:
ModelError:调用 InvokeEndpoint 操作时发生错误 (ModelError):从主服务器收到服务器错误 (500),消息为“类型 [application/x-npy] 尚不支持此类型 Traceback(最近一次调用):文件”/opt /conda/lib/python3.6/site-packages/sagemaker_inference/transformer.py”,第 126 行,在转换结果 = self._transform_fn(self._model, input_data, content_type, accept) 文件“/opt/conda/lib/ python3.6/site-packages/sagemaker_inference/transformer.py”,第 215 行,在 _default_transform_fn 数据 = self._input_fn(input_data, content_type) 文件“/opt/ml/model/code/predict_sku110k.py”,第 98 行,在input_fn raise ValueError(err_msg) ValueError: Type [application/x-npy] not support this type yet
我尝试了一堆不同的输入类型:图像字节编码(使用 cv2.imencode('.jpg', cv_img)[1].tobytes() 创建)、numpy 数组、BytesIO 对象(使用 io 模块创建) ,形式为 {'input': image} 的字典,其中 image 是以前的任何一个(这是因为我前段时间创建的 tensorflow 端点使用了这种格式)。
因为我认为这可能是相关的,所以我还在此处复制粘贴用作入口点的推理脚本:
谁能指出调用模型的正确格式(或如何调整代码以使用端点)?我正在考虑将 request_content_type 更改为“application/json”,但我不确定它是否会有很大帮助。
编辑:我尝试了一个受此SO 线程启发的解决方案,但它不适用于我的情况。
python - 特征提取跟踪
我正在尝试提取特征向量(128 暗淡)以进行深度排序跟踪。我正在使用框架Detectron2。我看到以下用于特征提取的代码:
但我不明白如何从这段代码中提取 128 维特征向量。我很乐意在这里得到一点帮助。提前致谢。
pytorch - 在 pytorch 中可视化为 ResNet 101 提出的锚框
我想可视化 ResNet-101 模型中 Region Proposal Network 提出的边界框。我正在使用detectron2/configs/COCO-InstanceSegmentation/mask_rcnn_R_101_FPN_3x配置。
我想要像这样可视化的负锚框和正锚框:
训练后我有模型对象:(
model = trainer.model
这给了我一个 GeneralizedRCNN 对象)
以及从 cv2 读取的图像变量:
img = cv2.imread(filename)
任何关于我如何继续这样做的指导将不胜感激。
python - 什么是 total_loss、loss_cls 等
我想通过 Pytorch 和 Detectron2 训练一个使用 faster_rcnn 或 mask_rcnn 的自定义数据集。一切正常,但我想知道我想知道我有什么结果。
我有这个结果,我想知道这一切意味着什么
pytorch - Detectron2:预测中没有实例
我正在尝试在我用coco- annotator 注释的自定义数据集上训练 Detectron2 。训练后我想预测我的图像的实例,但我没有得到任何显示。
训练:
预言:
显示了相应的图像,但没有实例。有什么建议么?总体评价分数不是很好,但我选择了最好的班级,在那里我也没有得到任何预测......
python - 在detectron2中没有注释的图像数据集的推断
动机
- 我有一个detectron2 Mask R-CNN基线模型,它足以准确地预测一些对象边界。
- 我想将这些预测边界转换为 COCO 多边形来注释下一个数据集(监督标签)。
- 为此,我需要对没有注释的图像数据集进行推理。
- detectron2 方法
register_coco_instances
并load_coco_json
需要带有注释的图像来正确标记预测对象。
问题
代码
detectron - 在将图像加载到 COCO detectron2 期间无法可视化图像
我想在detectron2上加载和绘制带有掩码的图像。但是在加载过程中,它会抛出这样的错误:
另外,我在 colab 和 kaggle 笔记本中遇到了这样的错误。在我本地的 jupyter 中,我没有收到此错误。如何摆脱 TypeError?我可以离开这一步而不使用 Visualizer 还是在分割期间需要它?