因为我在其他地方找不到答案,所以我决定在这里描述我的问题。我正在尝试创建Eachine TrashCan Drone 的关键点检测器以估计其姿势。我遵循了一些教程。第一个是使用 TensorFlow ObjectDetectionAPI,因为我找不到解决方案,所以我尝试使用detectron2。一切都很好,直到我需要注册自己的数据集来重新训练模型。
我在 Google Colab 上运行代码并使用 coco-annotator 进行注释(https://github.com/jsbroks/coco-annotator/)
我不认为我错误地注释了我的数据集,但谁知道呢,所以我将在下面的超链接中展示给你看:图片由我做的注释
我使用该代码注册数据:
from detectron2.data.datasets import register_coco_instances
register_coco_instances("TrashCan_train", {}, "./TrashCan_train/mask_train.json", "./TrashCan_train")
register_coco_instances("TrashCan_test", {}, "./TrashCan_test/mask_test.json", "./TrashCan_test")
这没有给我一个错误,但是当我尝试使用该代码开始培训过程时:
from detectron2.engine import DefaultTrainer
cfg = get_cfg()
cfg.merge_from_file(model_zoo.get_config_file("COCO-Keypoints/keypoint_rcnn_R_50_FPN_3x.yaml"))
cfg.DATASETS.TRAIN = ("TrashCan_train",)
cfg.DATASETS.TEST = ("TrashCan_test")
cfg.DATALOADER.NUM_WORKERS = 2
cfg.MODEL.WEIGHTS = ("detectron2://COCO-Keypoints/keypoint_rcnn_R_50_FPN_3x/137849621/model_final_a6e10b.pkl") # Let training initialize from model zoo
cfg.SOLVER.IMS_PER_BATCH = 2
cfg.SOLVER.BASE_LR = 0.00025 # pick a good LR
cfg.SOLVER.MAX_ITER = 25 # 300 iterations seems good enough for this toy dataset; you may need to train longer for a practical dataset
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 128 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # liczba klas
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
trainer = DefaultTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
我最终得到了这个:
WARNING [07/14 14:36:52 d2.data.datasets.coco]:
Category ids in annotations are not in [1, #categories]! We'll apply a mapping for you.
[07/14 14:36:52 d2.data.datasets.coco]: Loaded 5 images in COCO format from ./mask_train/mask_train.json
---------------------------------------------------------------------------
KeyError Traceback (most recent call last)
<ipython-input-12-f4f5153c62a1> in <module>()
14
15 os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
---> 16 trainer = DefaultTrainer(cfg)
17 trainer.resume_or_load(resume=False)
18 trainer.train()
7 frames
/usr/local/lib/python3.6/dist-packages/detectron2/data/datasets/coco.py in load_coco_json(json_file, image_root, dataset_name, extra_annotation_keys)
183 obj["bbox_mode"] = BoxMode.XYWH_ABS
184 if id_map:
--> 185 obj["category_id"] = id_map[obj["category_id"]]
186 objs.append(obj)
187 record["annotations"] = objs
KeyError: 9
这是您可以下载我的文件的地方:
https://github.com/BrunoKryszkiewicz/EachineTrashcan-keypoints/blob/master/TrashCan_Datasets.zip
在哪里可以找到我的 Colab 笔记本:
https://colab.research.google.com/drive/1AllLZxrR64irms9mm-RiZ4DNOs2CaAEZ9?usp=sharing
我创建了这么小的数据集,因为首先,我想经历一下训练过程。如果我能做到这一点,我会让我的数据集更大。
现在我什至不确定是否有可能重新训练人类关键点模型来获取类似无人机的物体或任何其他物体的关键点。我需要说我对这个话题很陌生,所以我请求你的理解。如果您知道任何有关创建自定义(非人类)关键点检测器的教程,我将不胜感激。
此致!