问题标签 [firebase-machine-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Tensorflow 模型输出权重有不同的值
我正在开发一个需要 ML 模型集成的 Android 应用程序。为此,我使用 TensorFlow lite 进行部署。我使用基于自定义模型的连体网络进行输出,输出形状为 [1 128]。当我推断 tf lite 模型时在 Google Colab 上的 python 中,输出 [1 128] 数字与我的 Android 设备上生成的数字不同。输入图像在推理以及输入和输出形状上都是相同的,但我仍然在我的 Android 上得到不同的输出向量电话和 Python TFlite 模型。我正在使用 Firebase 机器学习。
安卓代码
请帮助我。我很快就需要它。感谢任何帮助
android - 如何同时使用两个 Ml Kit 检测器
我想在我的应用程序中同时使用图像标记和文本识别。我有以下内容:
我遇到的问题是,首先,这样我并没有真正同时使用它们,其次,当我输入图像检测器时出现错误:
flutter - Flutter - firebase_ml_vision - 不在 IOS 上构建 - textRecognizer 不起作用
Flutter - 尝试 textRecognizer
在 IOS 上工作
firebase_ml_vision
- 不在 IOS 上构建
pubspec.yaml:
播客文件:
跑步flutter build ios
试过了pod update
ios - Firebase ML(Cocoapods) into a Xcode project with Swift Package Manager
I've been developing an iOS project using just Swift Package Manager, which has its pros and cons like every other dependency manager. Recently my team were asked to integrate a library which depends on Firebase ML(MLVision and TextModeler), and Firebase ML doesn't have another method of integration but Cocoapods, so my question is if I can make Cocoapods and SPM exist in the same project and if there is a custom config I have to follow.
swift - 从 Firebase 下载/保存远程 ML 模型时出错
我在一个反应原生项目中使用 MLKit 和 iOS。
基本上使用此代码:https ://firebase.google.com/docs/ml/ios/label-images-with-automl
它曾经工作正常,但现在我收到此错误:
Xcode 打印: [MLKit][I-MLK018012] AutoML 远程模型推理信息不包含标签
一种模型似乎比其他模型更有效。
这被执行:
整个下载模型功能:
android - 将 JsonObjectRequest 转换为对象
我正在尝试通过自己的 JSON 搜索后端来实现。
在 ML Kit 中,搜索引擎使用 Volley 来处理请求。
一旦检测到条形码,detectedBarcode
就会运行:
LiveBarcodeScanningActivity.kt:
搜索引擎.kit
}
我得到“不能使用提供的参数调用以下函数。” 当我试图从 JsonObjectRequest 转换为 Product 对象时。
这是我试图将 JSON 数据从我的请求映射到的 Product 对象。
android - 使用带有 MLKit 的 AndroidX 相机时 inputImage.getByteBuffer() 为 null
这是我的 Activity 类的代码:
在每个analyze
回调中,MLKit 都指示它
InputImage.fromMediaImage(ip.getImage(),ip.getImageInfo().getRotationDegrees()).getByteBuffer()
为空。我该如何解释这个?这是否总是意味着图像为空?
android - 我们可以使用 android ML Kit Image Labeling 来检测产品吗
我有客户的要求,我们需要在 cameraView 中检测我们的产品框。为此,我正在尝试使用 firebase ML Kit 对象检测。现在它可以检测门、沙发等一般物体。我希望能够检测到我的产品。有没有办法做到这一点?下面是我目前的实现
}
我也希望它完全脱机。为此,有设备 ML 套件实现。但是我该如何使用它呢?对不起,我的英语不好。
android - 上传图像以训练 ML Kit 是不可能的
我正在尝试在应用程序中使用 Firebase ML Kit 来标记图像。我想将训练数据上传到数据集,但我总是收到错误消息,即我的云存储桶必须位于“us-central1”区域。我住在欧洲,无法想象只有这个地区的人才能使用这个 ML Kit。
非常感谢我感谢每一个建议。