问题标签 [firebase-mlkit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 如何获取类的上下文
我有以下课程,我尝试获取上下文以便将意图发送到另一个活动。
但是我在设置意图的行中出现错误:
“尝试在空对象引用上调用虚拟方法'java.lang.String android.content.Context.getPackageName()'”
我也尝试过 MyApplication.getContext() 而不是 mContext,但没有结果。
有任何想法吗?
android - Android:出现错误:添加新依赖项后任务“:app:processDebugGoogleServices”执行失败
完整的错误跟踪:
当我添加最后一个依赖项时发生错误:
这是我的 gradle 依赖项:
尝试同步库,但无论我做什么,我都会不断收到此错误。
ios - 有没有办法只在 VisionLabelDetector 中获得最高置信度结果?
为了存档这个,我考虑只取 1 个结果,这是最重要的结果,所以我检查了文档,VisionCloudDetectorOptions有这个变量maxResults
,所以如果我将它设置为 1,我的目标就完成了,但这仅适用于基于云的图像标签。所以我检查了在本地运行的VisionLabelDetectorOptions并且没有选项。以及从这里打印出来的结果
会变成这个
这些是我从Firebase/quickstart-ios从第 645 行开始运行的示例代码。
我的第二个解决方案是在用于返回第一个结果topResult
的 CoreML 中执行类似操作。VNClassificationObservation
像这样的东西
但我还没有想出如何像那样复制。
那么,有没有办法只取最高的Confidence
标签呢?在这种情况下是Food
标签。
google-play-services - 谷歌条形码阅读器可以在手机上不安装播放服务的情况下使用吗?
我有一个嵌入式手机应用程序,手机运行的是 Android 7,没有任何 GMS 应用程序,包括播放服务,因为它不是 GMS 认证设备。
我可以在此设备上使用 Google 条码读取 SDK,还是需要运行 Google Play 服务?
android - 如何检查扫描的文档是否包含地址
我需要扫描文档并检查它是否包含特定数据。简单地说,假设我需要查找扫描的发票是否包含特定地址。
与在文档中的写入方式相比,要搜索的给定地址可以以不同的方式写入,例如:
搜索地址(意大利地址):“Piazza Santa Rita 43, 10390, Torino(TO)
扫描文档中的地址可以是:“Torino, P.zza S.Rita 43, 10390, Torino”或“Pizza S.Rita 43, 10390, Torino”等
我正在寻找一种方法来在要搜索的数据之间找到一种“相似性”,这样如果我找到一个接近 80% 的文本,我认为它是一个有效的文档
除了地址的输入方式之外,另一个问题是扫描的文档可能(大部分时间会)质量很差,因此 OCR 引擎可能会误解某些字符,从而产生不好的结果(比如“c”变成了一个'o',一个'3'变成了'B',等等......所以我也想考虑到这一点
例如,扫描的文档可能会导致“Plzza S.Rita 4B, 1O390, Tcrinc”
关于如何解决这个问题的任何建议?
实际上我正在Android上开发这个,使用OpenCV去歪斜文档图片和Google Firebase ML-KIT在设备上扫描文档(我不能依赖外部服务,我必须在设备上解决它)所以我应该解决这使用 Java 并从 ml-kit ocr 找到的文本中查看,但即使您有在其他语言/平台中实现它的建议也可以作为参考。
android - .lite 和 .tflite 格式有什么区别
.lite
和.tflite
格式(TensorFlow 格式)有什么区别?如果没有区别,为什么会有两个?
除了问题之外,我似乎无法将带有.lite
扩展文件的模型上传到 Firebase ML 套件。这可能是什么原因?
ios - FirebaseML Vision 不适用于使用设备摄像头捕获的图像
我指的是示例代码
[ https://codelabs.developers.google.com/codelabs/mlkit-ios/#0
给这里以检测图像中的文本。如果我使用我的发票图像(扫描文档)运行此代码,它可以正常工作。但是当我去捕捉发票打印输出的图像时,它并没有给我任何准确的结果。在给定的示例中,我刚刚启动了相机并将捕获的图像提供给
帮我弄清楚问题
更新
ios - 如何减小 ML Kit iOS 的包大小?
我开发了一个应用程序来使用 ML Kit iOS 进行文本识别。我只需要用英语识别。是否可以减小包装的尺寸。目前它超过300 MB。
android - ML Kit Barcode Scanning - FirebaseVisionImageMetadata 使用哪种图像格式?
ML Kit 的条形码扫描功能的文档说您应该在下面的代码段中配置FirebaseVisionImageMetadata
类似的内容:
完全没有关于使用什么格式的文档。ImageFormat 接口的 API 文档并没有真正的帮助。
我怎么知道在这里选择什么?选择其中之一会有什么后果?设备支持的格式是否不同?
ocr - Google Firebase MLKit Vision API 调整块边界
我正在尝试使用 Google 新的 iOS 版 Firebase MLKit。我正在玩图像中的云文本识别,并且想知道如何调整文本块的边界。
这是我正在使用的示例:https ://firebase.google.com/docs/ml-kit/ios/recognize-text
我可以找到有关为 Google 的 Cloud Vision 执行此操作的文档,但不是专门针对 Cloud Vision 的 MLKit 实现。
图像中的文本会自动放入块中。一些返回的块应该组合在一起,而其他的应该分开。我该如何调整生成这些块的规则。请参阅提供的示例。