了解到 XNNPACK 一般可以大大加速计算,因此在 Xcode/Objective-C 上进行了尝试。这是根据官方文档的小鬼
// add XNNPACK
TFLInterpreterOptions *options = [[TFLInterpreterOptions alloc] init];
options.useXNNPACK = YES;
// init interpreter
NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"mymodel" ofType:@"tflite"];
_modelInterpreter = [[TFLInterpreter alloc] initWithModelPath:modelPath
options:options
error:&error];
使用 CocoaPods,我尝试使用 TensorFlowLite 2.3.0、2.4.0 和最新的 xxx-nighly 版本。在所有情况下,只要启用 XNNPACK,init 就会失败。在内部,它在 TFLInterpreter.mm 中的这一行失败:
_interpreter = TfLiteInterpreterCreate(model, cOptions);
我是否遗漏了某些东西,或者只是 XNNPACK 尚未在 lib 中正确实现?
谢谢!