问题标签 [tensorflow-lite]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
537 浏览

quantization - 如何对量化的 tflite 的输出进行去量化?

我已经使用uint8量化将PB文件转换为tflite 。我想知道如何将uint8的输出转换回浮点数,以便之前的代码仍然可以工作。

0 投票
3 回答
25420 浏览

python - 如何使用相同的测试数据测试 .tflite 模型以证明其行为与原始模型相同?

我已经基于经过训练的模型生成了一个 .tflite 模型,我想测试 tfilte 模型是否给出与原始模型相同的结果。

给出相同的测试数据并获得相同的结果。

0 投票
2 回答
1641 浏览

tensorflow - 使用 tensorflow 更改 mobilenet_ssd 的输入图像大小

我正在使用 tensorflow 和 tflite 来检测对象。我使用的模型是来自https://github.com/tensorflow/models/tree/master/research/object_detection的 mobilenet_ssd(版本 2)

检测的输入图像大小固定为300*300,在模型中是硬编码的。我想输入1280*720的图像进行检测,怎么做?我没有分辨率为 1280*720 的训练图像数据集。我只有 pascal 和 coco 数据集。

如何修改模型以接受 1280*720 图像(不缩放图像)进行检测?

0 投票
1 回答
1470 浏览

tensorflow - 在移动 iOS 上运行 Faster-rcnn

我有更快的 rcnn 模型,我使用 GPU 训练并在我的谷歌云实例上工作(使用谷歌模型 API 训练),
我想在移动设备上运行它,我找到了一些 GitHub,显示如何运行 SSDmobileNet 但我找不到一个运行 Faster-rcnn。
实时不是我现在关心的问题。
我有 iPhone 6、iOS 11.4
该模型可以使用 Metal、CoreML、tensorflow-lite 运行......但对于 POC,我需要它在没有训练新网络的情况下在移动设备上运行。
有什么帮助吗?
谢谢!

0 投票
2 回答
1043 浏览

android - TensorFlow 冻结 protobuf 文件检查点文件不存在

我正在使用这个演示中的 retrain.python 文件。我得到不同类型的文件:

在此处输入图像描述

在此处输入图像描述

在此处输入图像描述

我想用检查点文件冻结 graph.pb,优化冻结的文件,然后将优化的文件转换为 tflite 文件,以便在 android 应用程序中使用它。

我尝试了不同的方法来冻结文件,但没有运气,

终端中不存在获取检查点文件

UnicodeDecodeError:“utf-8”编解码器无法解码位置 1 的字节 0x86:无效的起始字节

如何完成所有步骤并获取tflite文件以及如何合并labels.txt文件?

注意:这是我在终端中使用的命令:

错误:检查点''不存在!

试过:

请帮忙!

0 投票
1 回答
700 浏览

ios - Swift:处理 UIImage 数据以用于 Firebase 自定义 TFLite 模型

我正在使用 Swift、Firebase 和 Tensorflow 构建图像识别模型。我有一个重新训练过的 MobileNet 模型,该模型将 [1,224,224,3] 的输入数组复制到我的 Xcode 包中,当我尝试从图像中添加数据作为输入时,出现错误:Input 0 should have 602112 bytes, but found 627941 bytes.我正在使用以下代码:

如何将图像数据重新处理为 602112 字节?如果有人可以帮助我,我会很困惑,那就太好了:)

0 投票
2 回答
15445 浏览

python - 如何在 Python 中导入 tensorflow lite 解释器?

我正在 Raspberry Pi 3b 上使用 TF lite 开发一个 Tensorflow 嵌入式应用程序,运行 Raspbian Stretch。我已将图形转换为 flatbuffer (lite) 格式,并在 Pi 上本地构建了 TFLite 静态库。到目前为止,一切都很好。但是应用程序是 Python 并且似乎没有可用的 Python 绑定。Tensorflow Lite 开发指南 ( https://www.tensorflow.org/mobile/tflite/devguide ) 指出“有 Python 绑定和演示应用程序的计划。” 然而,/tensorflow/contrib/lite/python/interpreter_wrapper 中有包含所有需要的解释器方法的包装器代码。然而,从 Python 调用它却让我难以理解。

我生成了一个 SWIG 包装器,但构建步骤失败并出现许多错误。没有描述interpreter_wrapper 状态的readme.md。所以,我想知道包装器是否对其他人有用,我应该坚持下去,还是它从根本上被破坏了,我应该去别处寻找(PyTorch)?有没有人找到 Pi3 的 TFLite Python 绑定的路径?

0 投票
1 回答
1243 浏览

python - TensorFlow 将模型导出转换保存到 tflite

TLDR:我ValueError:在运行时得到一个

目标:我正在尝试将 TensorFlow 保存的模型转换为 tflite,以便通过 Firebase 在移动设备上进行部署。我可以训练模型并输出保存的模型,但我无法.tflite使用 python ToCo 接口将其转换为。任何帮助将不胜感激。此外,如果有人可以评论 tflite 转换是否会捕获hub.text_embedding_column()我所依赖的输入过程。移动部署会使用原始输入文本执行此操作,还是我需要单独部署其中的那一部分?

问题:这是我正在运行的代码:

输入:

训练和评估:

保存模型:

转换模型:

错误

运行最后一行时,出现以下错误:

ValueError:张量 input_example_tensor:0 未知类型 tf.string

完整的跟踪是:

ValueError Traceback (最近一次调用最后一次)
in ()
1 converter = tf.contrib.lite.TocoConverter.from_saved_model("my-model/1529320265/")
----> 2 tflite_model = converter.convert()

/media/rmn/data/projects/anaconda3/envs/monily_tf19/lib/python3.6/site-packages/tensorflow/contrib/lite/python/lite.py in convert(self)
307 reorder_across_fake_quant=self.reorder_across_fake_quant,
308 change_concat_input_ranges =self.change_concat_input_ranges,
--> 309 allow_custom_ops=self.allow_custom_ops)
310 返回结果
311
/media/rmn/data/projects/anaconda3/envs/monily_tf19/lib/python3.6/site-packages/tensorflow/contrib/lite/ python/convert.py in toco_convert(input_data, input_tensors, output_tensors, inference_type, inference_input_type, input_format, output_format, quantized_input_stats, default_ranges_stats, drop_control_dependency, reorder_across_fake_quant, allow_custom_ops, change_concat_input_ranges)
204 else:
205 raise ValueError("Tensors %s not known type %r" % (input_tensor.name, --> 206 input_tensor.dtype))
207
208 input_array = model.input_arrays.add()

ValueError:张量 input_example_tensor:0 未知类型 tf.string

细节

train_df并且test_df是由单个输入文本列和二进制目标变量组成的熊猫数据框。我正在使用 Python 3.6.5 和 TensorFlow r1.9。

0 投票
1 回答
3349 浏览

android - Is it possible to quantize a tflite model?

I have a .pb model, which I want to use as a custom MLKit model. MLKit only supports .tflite models, but even after I use toco to get the TensorFlow Lite model, the file size is too large for Firebase (95 MB and only 40 MB allowed).

Is there a way to quantize the graph and then convert to TFLite or quantize a .tflite graph?

When I do the former, I get the following error message: Unsupported TensorFlow op: Dequantize) for which the quantized form is not yet implemented. Sorry, and patches welcome (that's a relatively fun patch to write, mostly providing the actual quantized arithmetic code for this op).

0 投票
2 回答
2324 浏览

tensorflow - TensorFlow lite:将模型转换为 tflite 后精度损失很大

我一直在尝试 TFLite 来提高 Android 上的检测速度,但奇怪的是我的 .tflite 模型现在几乎只检测到 1 个类别。

我已经对重新训练移动网络后得到的 .pb 模型进行了测试,结果很好,但由于某种原因,当我将其转换为 .tflite 时,检测就差了……

对于再训练,我使用了来自Tensorflow 的 retrain.py 文件,用于诗人 2

我正在使用以下命令来重新训练、优化推理并将模型转换为 tflite:

我在这里做错什么了吗?准确性的损失从何而来?