我正在开发一个需要 ML 模型集成的 Android 应用程序。为此,我使用 TensorFlow lite 进行部署。我使用基于自定义模型的连体网络进行输出,输出形状为 [1 128]。当我推断 tf lite 模型时在 Google Colab 上的 python 中,输出 [1 128] 数字与我的 Android 设备上生成的数字不同。输入图像在推理以及输入和输出形状上都是相同的,但我仍然在我的 Android 上得到不同的输出向量电话和 Python TFlite 模型。我正在使用 Firebase 机器学习。
安卓代码
val interpreter=Interpreter(model)
val imageBitmap= Bitmap.createScaledBitmap(BitmapFactory.decodeFileDescriptor(contentResolver.openFileDescriptor(fileUri,"r")?.fileDescriptor),256,256,true)
val inputImage=ByteBuffer.allocateDirect(256*256*3*4).order(ByteOrder.nativeOrder())
for(ycord in 0 until 256){
for(xcord in 0 until 256){
val pixel=imageBitmap.getPixel(xcord,ycord)
inputImage.putFloat(Color.red(pixel)/1.0f)
inputImage.putFloat(Color.green(pixel)/1.0f)
inputImage.putFloat(Color.blue(pixel)/1.0f)
}
}
imageBitmap.recycle()
val modelOutput=ByteBuffer.allocateDirect(outputSize).order(ByteOrder.nativeOrder())
interpreter.run(inputImage,modelOutput)
modelOutput.rewind()
val probs=modelOutput.asFloatBuffer()
success(ImageProcessResult.Success(probs))
请帮助我。我很快就需要它。感谢任何帮助