到目前为止,我所做的如下:我在我的数据集中的一个视频中标记(跟踪)我的对象,通过 yolo 格式将其导出,并通过 yolo_v4-tiny 对其进行训练。现在我剩下的是训练中的 .weights 文件。
我的最终目标是自动注释我的其余视频。所以现在我想将训练有素的材料作为自定义模型添加到 cvat 中。我已经坚持了几天了,我似乎无法在任何地方找到任何合适的答案。
我已阅读以下文档,但没有发现它特别有用:| https://openvinotoolkit.github.io/cvat/docs/manual/advanced/serverless-tutorial/ | https://openvinotoolkit.github.io/cvat/docs/administration/advanced/installation_automatic_annotation/ |
有人可以给我关于如何做到这一点的一般步骤,或者至少指出我正确的方向吗?