2

所有的推论都计划在cpu上进行。当我指定一个回退到系统 caffe 的层时,我已经成功地将模型与 IR 协调起来。但是,我应该如何编码和编译 cpp 代码,让它知道我要去用户后备层,以及在哪里可以找到 libcaffe。

4

1 回答 1

2

不推荐回退到框架。

如果您的网络具有默认情况下推理引擎不支持的自定义层,则执行推理的受支持且有效的方法 - 实现您自己的层并为某些插件注册它们。有关如何为 CPU 和 GPU 执行此操作的更多详细信息,您可以通过此链接找到:https ://software.intel.com/en-us/articles/OpenVINO-Custom-Layers-Support-in-Inference-Engine 。

于 2018-08-30T19:55:32.660 回答