我想在我的 iOS 应用程序中使用 firebase 的 MLKIT(用于文本识别)。我有下载和测试示例应用程序。但是当我在我的自定义项目中使用 core ml 时,我从 iPhone 相机捕获图像并在此图像上使用 ML Kit 函数调用,MLKit 不会向我显示任何结果。您能告诉我为什么它使用默认图像但在使用捕获的图像时无法生成结果吗?
问问题
944 次
2 回答
0
It can be image orientation issue. Fix the orientation before creating VisionImage. This worked for me.
let fixedImage = pickedImage.fixImageOrientation()
Add this extension.
extension UIImage {
func fixImageOrientation() -> UIImage {
UIGraphicsBeginImageContext(self.size)
self.draw(at: .zero)
let fixedImage = UIGraphicsGetImageFromCurrentImageContext()
UIGraphicsEndImageContext()
return fixedImage ?? self
} }
Also another solution is that you can provide the orientation as metadata to the vision image as shown in this link
于 2019-09-19T14:23:35.460 回答
0
MLKit
我还面临在 iOS 中使用文本检测的问题。我已经按照文档集成了 sdks,但是文本被错误地检测到并且出现了不好的结果,我正在使用 iPhone 6s 拍照。然后我意识到确实需要一些处理,最后我发现谷歌示例中的代码实现了示例中下面突出显示的方法名称,您需要根据图像视图调整图像大小和缩放,添加代码后,它开始检测适当地。
(ps:我不确定我是否可以在这里发布代码,因为它在谷歌仓库中,所以给出链接)
private func updateImageView(with image: UIImage)
于 2018-07-17T10:57:37.003 回答