问题标签 [google-ios-vision]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - 完成错误 - 代码:-1009 当互联网没有连接时
我们正在使用 Google SDK,例如登录、地图和分析。用于登录的 Facebook SDK。Alamofire 和 ObjectMapper 用于网络和 JSON 解析。DB的领域。
当没有互联网连接时,我在控制台上收到以下错误。我已经验证这些不是我们的 App Errors 。
TIC TCP 连接失败 [45:0x1c8178240]:1:50 Err(50) 任务 <293866EE-82E6-4740-AEAF-83A1BB11E98A>.<1> HTTP 加载失败(错误代码:-1009)
谁能解释哪个框架正在记录此错误。
xcode - 在没有 cocapods 的 iOS 上使用 Firebase ML Kit 时,GoogleMobileVision 中的链接器错误
我正在尝试将 Firebase 5.0.1 的 MLVisionTextModel 添加到没有 cocoapods 的 Xcode 项目中。我已经添加了 Readme.md 文件中所述的所有依赖框架。获取以下链接器错误:
Showing All Messages "_OBJC_CLASS_$_LAContext", referenced from: objc-class-ref in GoogleMobileVision(MDMPasscodeCache_f189776e75765630b82721fafea64052.o) "_vImageConverter_CreateWithCGImageFormat", referenced from: +[GMVUtility(Internal) sampleBuffer32BGRATo32RGBA:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) " _vImageConvert_AnyToAny", referenced from: +[GMVUtility(Internal) sampleBuffer32BGRATo32RGBA:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) "_vImageConverter_Release", referenced from: +[GMVUtility(Internal) sampleBuffer32BGRATo32RGBA:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) " _vImageBuffer_InitWithCGImage”,引用自:+[GMVUtility(Internal) rgbaPixelDataFromCGImage:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) "_vImageRotate_ARGB8888", referenced from: +[GMVUtility(Internal) rotatePixelData:width:height:bytesPerRow:withAngle:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o ) "_vImageHorizontalReflect_ARGB8888", referenced from: +[GMVUtility(Internal) flipRGBA8888Horizontally:width:height:bytesPerRow:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) "_vImagePermuteChannels_ARGB8888", referenced from: +[GMVUtility(Internal) permutate:width:height :bytesPerRow:order:] 在 GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) "_vImageFlatten_RGBA8888ToRGB888",引用自:+[GMVUtility(Internal) flattenRGBA8888ToRGB888:width:height:bytesPerRow:] in GoogleMobileVision(GMVUtility+Internal_1a3089c1f18dbb4046735909972b8cb2.o) ld:未找到架构 x86_64 的符号
任何帮助表示赞赏。
ios - Google Vision API 可能存在内存泄漏
我正在尝试制作一个应用程序来处理一组帧,这些帧jpg
使用 Google-vision API 存储到应用程序中。
管道很简单。
1)我用一些选项创建检测器:
2)我用这种方法读取了一个框架:
imFile 中包含的路径是正确的,我可以看到图像表示
3)最后,我处理框架:
使用这段代码我可以处理一些帧,但是当分析很多帧时,应用程序的内存使用量不断增加,应用程序被自动终止。
我试图跟踪内存泄漏,但据我跟踪,它来自最后一部分内部,在[detector featuresInImage...]
是我做错了什么,还是里面有内存泄漏?我试图从谷歌找到任何问题,但无法找到它。
编辑:
这是我对检测器的每个结果所做的事情:
该方法到此结束。所以基本上我所做的就是创建一个文件并在其中写入。
ios - 在 iOS 中使用图像初始化时 GMVTextLineFeature 返回 null
我已经初始化textlinedetector
如下
由于我只想要线条而不是整个块,因此我直接访问GMVTextLineFeature
并且输入图像是UIImage
直接来自相机预览的类型。
但是上面的数组是零。
我担心的是我的项目是在 gradle 中的,而 GoogleVision 是在 cocoapods 中构建的。所以我手动将框架文件复制到我的项目中并将其链接到frameworks and libraries
. 我还链接了框架的资源文件,其中包含copy resource bundles
.
然而feature
对象是nil
。我还多次清理构建了该项目。由于我是 iOS 新手,所以我无法弄清楚 cocoapods 的问题是 gradle 还是它的实现方式。但这就是它在演示应用程序TextDetectorDemo中的实现方式。我正在使用 xcode 9.4。
任何见解或任何解决方法将不胜感激。
提前致谢。
cocoapods - 使用 Cocoapods 的 GoogleMobileVision GoogleSignIn 重复符号?
我正在使用 CocoaPods 添加两个框架。
但是当我运行时 - 我得到重复的错误。似乎两个框架都使用相同的文件。
我的 Pod 版本是1.5.3
如何使用 CocoaPods 安装两者而不会发生冲突——我删除了所有冲突日志——如果需要,我可以添加它们。
ios - 架构 x86_64 的未定义符号:“_OBJC_METACLASS_$_GMVDetector”引用自:TextDetector
我在没有 cocoapods 的情况下将 Google Firebase MLKit 包含在我的项目中。当我尝试构建时,Undefined symbol
出现错误:Xcode error image
到目前为止,我已经尝试过:
- 退出 Xcode 然后清理构建
- 手动以及拖放框架
- 链接所有必需的资源文件夹
- 删除 Xcode 临时文件
- 设置
symbols hidden by default
为 虽然框架链接Build Settings
到了正确的目标。No
TextDetector
所有这些似乎都不起作用。我遵循Integrate without CocoaPods进行框架设置。
ios - 在没有 CocoaPods 的情况下将 Firebase 添加到我的 iOS 项目时出错
我正在尝试将 Firebase 添加到我的项目中,尤其是他们的条形码阅读器框架(Vision)。我已按照以下说明进行操作:
https://www.mokacoding.com/blog/setting-up-firebase-without-cocoapods/
我已经添加了包含我想要的文件夹 - MLVision以及那里的所有框架。我已经导入了头文件,在我的主文件中也导入了 @import Firebase 和 @import GoogleMobileVision。
问题是尝试运行我的项目时出现以下错误:
任何想法如何解决这个问题?提前致谢。
arcore - 使用 EXC_BAD_ACCESS 在 iOS 14 上导出失败的 AugmentedFacesExample
尝试从 GARAugmentedFaceSession 导出一系列 OBJ
在下面的项目中,我只是添加了以下代码片段来导出 OBJ; https://github.com/google-ar/arcore-ios-sdk/tree/master/Examples/AugmentedFacesExample
从 FacesViewControllers.swift 进入 Ln 236;
奇怪的是它在 iOS13 中运行良好,但在 iOS14 中崩溃。我正在使用最新版本的 ARCore,1.20.0
如果我只使用 ARSCNFaceGeometry,它工作正常。但我想使用 GARAugmentedFaceSession 以获得更好的结果。
知道为什么它会在 iOS14 上崩溃吗?