0

我已经导出了 YOLOV5 模型,但是输出配置在VNCoreMLFeatureValueObservations而不是VNDetectedObjectObservation.

输出配置:

[<vncoremlfeatureValueObserative:0x282f19980> 4FC4A8B2-A967-A967-4CC7-8A86-E16863258F1B RESSECTREREVISION = 1置信度= 1置信度= 1置信= 1.000000 -BE2D-4A50-B5F9-99D3153CB0E7 requestRevision=1 confidence=1.000000“2327”-“MultiArray:Float32 1 x 3 x 40 x 40 x 85 阵列”(1.000000),<VNCoreMLFeatureValueObservation:0x282f18c60> 88211394-85CE-8 5639E82B3416 requestRevision=1 confidence=1.000000“2346”-“MultiArray:Float32 1 x 3 x 80 x 80 x 85 数组”(1.000000)]

所以,我的问题是这个 MultiArray 包含什么信息VNCoreMLFeatureValueObservation(它是 UIImage 还是 CGRect 之类的东西?还是不同的东西?)以及如何将这个多维数组转换为我可以实际使用的有用数据集?

4

1 回答 1

2

你需要把你的 YOLO 模型变成一个管道,最后有一个 NMS 模块。现在 Core ML / Vision 会将模型视为对象检测器。

另请参阅我的博客文章:https ://machinethink.net/blog/mobilenet-ssdlite-coreml/

于 2020-07-28T11:42:37.550 回答