0

了解到 XNNPACK 一般可以大大加速计算,因此在 Xcode/Objective-C 上进行了尝试。这是根据官方文档的小鬼

// add XNNPACK
TFLInterpreterOptions *options = [[TFLInterpreterOptions alloc] init];
options.useXNNPACK = YES;
    
// init interpreter
NSString *modelPath = [[NSBundle mainBundle] pathForResource:@"mymodel" ofType:@"tflite"];
_modelInterpreter = [[TFLInterpreter alloc] initWithModelPath:modelPath
                                                      options:options
                                                        error:&error];

使用 CocoaPods,我尝试使用 TensorFlowLite 2.3.0、2.4.0 和最新的 xxx-nighly 版本。在所有情况下,只要启用 XNNPACK,init 就会失败。在内部,它在 TFLInterpreter.mm 中的这一行失败:

_interpreter = TfLiteInterpreterCreate(model, cOptions);

我是否遗漏了某些东西,或者只是 XNNPACK 尚未在 lib 中正确实现?

谢谢!

4

0 回答 0