4 个月以来,我一直在使用 Mobile Vision Android [MVA]开展一个项目。只需要使用播放服务和本教程Codelab。然而,自本月初以来,谷歌推出了新版本的机器学习工具包 [MLK],其中包含:
具有新功能。
和他们 :
强烈鼓励我们尝试一下
我的问题是新的 MLK 是基础Firebase。也就是说,我们必须使用 google dev 帐户,以及这个Setup和许多将我们的项目与 Google 紧密联系起来的烦人的东西(在我看来,如果我错了,请告诉我)。
我的第一个问题[@Ian Barber 回答]是:有没有办法在没有所有这些设置的情况下使用 MLK 和 firebase ?或者像我使用 MVA 的方式使用它,只需实现一个依赖项就可以了?
编辑: 我的应用程序正在使用[MVA]的Codelab。这意味着我能够检测到视频流中的文本(来自相机)。帧捕获、处理等的所有优化都被多个构造良好的线程考虑在内。但是现在没有使用[MLK]进行视频处理的示例。如果没有 MVA 功能,只需使用 MLK,Camera Source 和 Preview 的实现看起来几乎是不可能的。
我的第二个问题(根据迁移)是:如何使用CameraSource、CameraSourcePreview。就像我们在 MVA 中用于处理用于文本检测的相机源一样