问题标签 [google-mlkit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 如何解决 Android 中 ML Kit 文本识别库中的错误?
我正在尝试使用 android ML Kit 文本识别库进行文本识别,但在运行时出现错误并且没有返回文本。错误:
我已将 build.gradle 中的库导入为:
我还在 android 清单文件中添加了以下代码:
那我该如何使用 ML Kit 文本识别呢?
android - 如何在 Android 中获取 ML Kit 人脸检测处理帧
我正在开发一个必须检测人脸的 android 项目最后我必须保存正在处理的当前帧。
为此,我正在使用 ML Kit Vision 快速入门示例应用程序。这段代码完成了我的大部分工作。从这段代码中,我使用的是 LivePreviewActivity.java。
现在我想获取检测到的人脸框架并将其转换为位图以保存为图像。
google-mlkit - 浏览器或服务器端的数字墨水识别?
是否可以在服务器端或浏览器中的 javascript 中使用数字墨水识别?我们正在尝试识别由数字笔和纸生成的笔画(墨水)。我们可以在服务器端使用 Digital Ink Recognition 进行识别吗?
java - 这个 lambda 表达式中的 imageProxy 参数是如何定义的?
概括
Google 的 MLKit Vision 示例代码中的这个 lambda 表达式中的 imageProxy参数是如何定义的?
细节
我了解 lamda 表达式的基本概念,例如w3schools 示例中给出的那些,以及Oracle 示例中给出的更详细的示例,但我很难理解 MLKit 中引用的表达式是如何解决的,因为它看起来不同从其他例子:
- 没有与 analysisUseCase.setAnalyzer 关联的变量声明,就像上面 w3schools 链接中的最后两个示例一样。所以我不知道如何通过调用某个变量在其他地方定义 imageProxy,因为没有变量可以引用。
- 根据 setAnalyzer 的 javadoc 注释, analysisUseCase.setAnalyzer 的两个参数应该是
setAnalyzer(@NonNull Executor executor, @NonNull Analyzer analyzer)
. 除非 Analyzer 对象是某种 Consumer,否则我认为与 w3schools 中的第一个示例没有任何关系。此外,据我了解,这意味着 lamda 表达式应该返回这样的 Analyzer 对象,但没有 return 语句。
此外,Android Studio 的工具提示显示它解析为androidx.camera.core.ImageProxy imageProxy
. linter 如何知道如何解决这个问题?
关于我为什么想知道这一点的根本问题是我正在修改此示例代码并希望访问imageProxy.getWidth()
我代码中其他地方的方法。在不了解 lamda 表达式的情况下,我不确定如何访问该对象和相关方法。
google-mlkit - 姿态检测操作模式和c++API
我非常感谢 Google 团队提供了 ML Kit API。我在使用姿势检测时遇到了一些问题。在使用图像进行姿态估计时,我发现 API 使用了类似线程的异步计算。不知道会不会提供其他形式的API,因为我们要计算使用中的每一帧图像,然后需要对每一帧的计算结果进行处理。另外,会不会提供C++ API?我认为android ndk和c++会更适合模型部署。
android - Android ML Kit 检测区域
我下载了适用于 Android 的 ML Kit 示例代码,我很难为实时摄像头检测设置一个有限的检测区域(我只对文本识别感兴趣,我摆脱了其他一切)。
我需要将文本识别限制在屏幕的一部分(例如,屏幕中心的一个小矩形或正方形)。有人用 ML 套件做过这样的解决方法吗?
android - 使用 ML Kit 进行带计数的深蹲姿势检测
如何使用 ML 套件获取实时运动计数和角度?在这里,我检查了https://ai.googleblog.com/2020/08/on-device-real-time-body-pose-tracking.html的俯卧撑和深蹲运动计数。
我通过以下方法获得角度:
我已经从我的角度添加了逻辑,但如果我有任何适当的方法,我仍然需要帮助。我每次都在检查角度。
我想根据用户进行锻炼来显示计数和反馈。
firebase - Firebase ML Kit 中文翻译 - 离线模式
当我处于离线模式时,我应该使用什么 API 来检测翻译语言?我可以使用 google vision 翻译汉字,但是当我处于离线模式时,它不适用于 Firebase ML kit。有什么想法或意见吗?
android - Google MLKit 条码扫描无法在 Codabar 中读取少于 5 位的数字
我使用 Google MLKit/barcode-scanning(16.0.3) 读取标准 iOS 和 Android 相机上的条形码。我想支持各种条码,但是只有用Codabar读取有很大的问题。
4 位和 5 位代码仅通过 PC 显示器上显示的条码几乎无法识别,而打印的条码则完全无法识别。(示例)A1234A、A12345B
此外,如果代码为 3 位或更少,PC 显示器将根本无法识别。(例)A123A、A12B
想知道是不是条码分辨率有问题,于是尝试将线条和空格的粗细改成2到3倍,并改变字符间距,但结果并没有改变。
我希望能够阅读超过 2 位数字的 Codabar。6位以上是没有问题的,所以感觉MLKit限制了,这样才不会被误读。有没有办法更改数字限制设置?
还是我应该考虑ZXing?