我有两个CoreML
MLMModels
(从 转换而来.pb
)。
第一个模型输出 a Float32 3 × 512 × 512
MLMultiArray
,它基本上描述了一个图像。
第二个模型输入是 a Float32 1 × 360 × 640 × 3
MLMultiArray
,它也是一个图像,但大小不同。
我知道理论上我可以将第二个模型输入转换为图像,然后将第一个模型输出转换为图像(预测后),调整大小,然后喂给第二个模型,但是感觉效率不是很高已经是模型造成的明显延迟,所以我正在努力提高性能。
是否可以“调整大小”/“重塑”/“转置”第一个模型输出以匹配第二个模型输入?我正在使用https://github.com/hollance/CoreMLHelpers(由令人惊叹的 Matthijs Hollemans 提供)助手,但我真的不明白如何在不破坏数据并尽可能保持高效的情况下做到这一点。
谢谢!