3

4 个月以来,我一直在使用 Mobile Vision Android [MVA]开展一个项目。只需要使用播放服务和本教程Codelab。然而,自本月初以来,谷歌推出了新版本的机器学习工具包 [MLK],其中包含:

具有新功能。

和他们 :

强烈鼓励我们尝试一下

我的问题是新的 MLK 是基础Firebase。也就是说,我们必须使用 google dev 帐户,以及这个Setup和许多将我们的项目与 Google 紧密联系起来的烦人的东西(在我看来,如果我错了,请告诉我)

我的第一个问题[@Ian Barber 回答]是:有没有办法在没有所有这些设置的情况下使用 MLK 和 firebase ?或者像我使用 MVA 的方式使用它,只需实现一个依赖项就可以了?

编辑: 我的应用程序正在使用[MVA]Codelab。这意味着我能够检测到视频流中的文本(来自相机)。帧捕获、处理等的所有优化都被多个构造良好的线程考虑在内。但是现在没有使用[MLK]进行视频处理的示例。如果没有 MVA 功能,只需使用 MLK,Camera Source 和 Preview 的实现看起来几乎是不可能的。

我的第二个问题(根据迁移)是:如何使用CameraSource、CameraSourcePreview。就像我们在 MVA 中用于处理用于文本检测的相机源一样

4

2 回答 2

1

关于你问题的第二部分:

如何使用CameraSource、CameraSourcePreview。就像我们在 MVA 中使用的用于文本检测的相机源一样?

您能看一下Android ML Kit 快速入门应用吗?它包含使用相机源和使用 ML Kit 预览的示例应用程序代码。

于 2018-05-30T16:26:17.153 回答
1

ML Kit 具有比 mobilevision 更广泛的功能集,因此有些功能依赖于 Firebase 项目。也就是说,如果您只想在设备上使用,则不应再与 Google 绑定:虽然有更多步骤,但您不必实际使用任何其他 Firebase 或 ML Kit 服务,如果您不想!

Firebase 的唯一额外应用更改(添加依赖项除外)是设置插件。这实际上只是将配置文件从 Firebase 处理为资源文件的便捷工具。您可以在文档中看到它在做什么- 如果您愿意,只需自己对资源值进行硬编码。

于 2018-05-29T21:19:57.007 回答