问题标签 [google-mlkit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Firebase ML 套件的 QR 码扫描器可多次扫描每个 QR 码
我的扫描仪多次扫描单个 QR 码,这就是为什么我的 createDialog 方法运行多次的原因,我在其中获取有关 QR 码和使用它的用户以及发布它并将数据存储到 Db 中的用户节点的代理的信息,并且因为它运行多个时间我的 Db 无法跟踪编号。为每个用户扫描 qr 码的次数..
android - 在不使用第三方服务的情况下在 android 中读取图像中的文本
你好我正在开发一个移动应用程序(android)来分享医疗报告。应用程序的一部分是读取这些报告中的文本(报告为 JPEG/图像格式)。由于医疗报告包含敏感数据,我无法使用第三方服务来执行此操作。在任何情况下都不能与第三方共享医疗报告。这是一个要求。
这可能吗?我怎样才能做到这一点?请指导我。
android - ML Kit 人脸检测 ML 模型大小在 Android 上
我在 Android 上使用 ML Kit 成功检测到人脸。
我按照此处的步骤配置了 ML Kit ,包括第四个,可选但推荐:
将您的应用配置为在从 Play 商店安装应用后自动将 ML 模型下载到设备。
我现在试图发现的是这种 ML 模型的实际大小,因为它是自动下载的。有谁知道我在哪里/如何找到这些信息?我想知道用户在安装我的应用程序时必须下载的总大小。
java - “内部错误:准备张量分配时意外失败” - Firebase MLKIT - Android - 本地模型加载失败
我正在使用 Firebase MLKIT 在应用内本地实现“.tflite”模型。model.tflite 文件大小约为 132 MB。它显示了错误原因:
onFailure:java.lang.IllegalStateException:内部错误:准备张量分配时意外失败:此解释器不支持常规 TensorFlow 操作。确保在推理之前调用 Flex 委托。节点号 17 (Flex) 未能准备好。
和错误信息:
本地模型加载失败,模型选项:本地模型路径:model.tflite。远程模型名称:未指定。
该模型被用于将一张普通图像转换为黑白图像[出于某种目的]。
我也列出了依赖项,
- 实施 'com.google.firebase:firebase-ml-model-interpreter:22.0.3'
- 实施 'org.tensorflow:tensorflow-lite:1.13.1'
我也访问了该链接,但无法理解如何在我的情况下处理此问题:https ://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/java/src/test/java/org/tensorflow /lite/InterpreterFlexTest.java
我也附上代码片段:
'''
'''
让我知道需要做什么。
ios - 架构 x86_64 颤动的未定义符号
我正在使用应用程序颤振。Android工作正常,但在ios没有。我需要一些帮助才能在 ios mobile 上运行它。我正在使用 lib: google_maps_flutter: ^0.5.27+3和firebase_ml_vision : ^0.9.3+8。Xcode 11.4.1 和 Mac os Catalina 10.15.4。有人知道如何解决这个问题。我还没找到。
记录错误如下:
flutter - 将 base64 字符串编码的图像/字节图像作为图像传递,以便在 Flutter 中的 Firebase ML Vision 中进行处理
我想从 base64 编码的图像中 OCR 文本。我知道图像有效,因为我可以使用
Image.memory(base64Decode(captchaEncodedImgFetched))
现在,问题是我需要将此图像传递给 Firebase ML Vision 进行处理。
该库firebase_ml_vision
有一个使用文件中的图像的示例
但是我有一个 base64 编码的图像。
我尝试了以下
但它似乎需要 FirebaseVisionImageMetadata()
作为一个论点,但我对字节图像一无所知。
这门课需要更多我不明白的论点。例如,它需要一个size : Size(width, height)
参数。图像不是应该已经有尺寸了吗?为什么我需要再次指定它?
现在我将它设置为Size(200, 50)
. 然后还有其他论点,我不知道该传递给他们什么。例如planeData
和rawFormat
。
以下是这些文档:
firebase - ML KIT 中最小人脸尺寸的确切用例是什么?
根据官方文档,
最小人脸尺寸:浮点数(默认值:0.1f)- 要检测的人脸相对于图像的最小尺寸。
那么,是不是只有当它与这个尺寸匹配时才会检测到人脸?
我已经测试过,无法得到任何合理的结果。
如果面部太小,我不希望检测到面部。
android - 无法在叠加 Surfaceview 上的正确位置获取条形码边界框
我正在使用带有 Firebase MLKit 条形码阅读器的 CameraX 来检测条形码。应用 识别条码没有问题。但我正在尝试添加边界框,以实时显示 CameraX 预览中的条形码区域。边界框信息从条形码检测器功能中检索。但它没有正确的位置和大小,如下所示。
这是我的活动布局。
SurfaceView
用于绘制此矩形形状。
条码检测发生在BarcodeAnalyzer
实现ImageAnalysis.Analyzer
. 在覆盖analyze
函数中,我检索如下条码数据。
barcodeDetectListener
是对我创建的接口的引用,该接口用于将此数据传回我的活动。
在我的主要活动中,我将这些数据发送到OverlaySurfaceHolder
实现SurfaceHolder.Callback
. 此类负责在overlayed 上绘制边界框SurfaceView
。
正如您在此处看到的,我正在发送覆盖SurfaceView
的宽度和高度以在OverlaySurfaceHolder
课堂上进行计算。
OverlaySurfaceHolder.kt
请谁能指出我做错了什么?
swift - 如何在不丢失换行符的情况下翻译文本?
我正在使用 Firebase ML Kit Translate 将一些文本从日语翻译成英语。
我只是使用他们在文档中的示例代码:
当我输入日文文本时,我注意到所有换行符都被忽略了,而英文翻译在一个文本块中。是否有启用换行符的设置或者这是一个错误?
firebase - Flutter 中的 FirebaseVisionImage 是什么?
我有一段代码,无法得到这个,但只了解图像选择器的一部分。任何人解释我,什么是卷FirebaseVisionImage
。顺便说一句,我正在使用firebase_ml_vision