问题标签 [apple-vision]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - 如何将对象检测模型与 coreML 和 Objective-c 集成
我将 MTCNN caffe 模型转换为 coreML 用于对象检测。并遵循 object-c 项目中的 Vision 指南,如下所示:
定义的输出是两个MLMultiArray,一个是confidence,一个是boundingBox。
如何转换 MLMultiArray 以获得置信度值和边界框值?
有一些快速用于对象检测的示例https://github.com/apple/turicreate/tree/master/userguide/object_detection ,但我找不到与objective-c类似的示例。
ios - 比较设备上的面孔
我的用户需要能够使用图片进行身份验证。这样当他们在手机上创建帐户时,就会选择并保存一张图片。当他们登录时UIImagePickerController()
,.sourceType = .camera
应该拍照并将其与保存的图片进行比较。
我发现了一个可能重复的Link,但是自从引入 ARKit 和 Vision 以来,它已经很老了,不再真正相关了。
我必须在本地完成,所以很遗憾, Amazon Rekognition不是选项,Microsoft Cognitive Services也是如此谷歌的云视觉 API。
Vision Frameworks 有一个VNFaceObservation
类,可以检测人脸,但我不知道如何将其与保存的人脸进行比较。
ios - 沿人脸边缘裁剪人脸
在任何人将此问题评为负面之前,让我澄清一下,在发布此查询之前,我已在过去两周内尝试了所有可能的资源。而且我以前从未做过这些事情,目前无论如何我都没有人指导我,我只有几个月的 iOS 经验。
现在,查询是,我正在尝试使用vision API沿面部边缘裁剪面部。我从这个 URL https://github.com/artemnovichkov/iOS-11-by-Examples几乎没有找到帮助
使用它我也可以做上面链接中已经完成的事情。即沿着脸部边缘标记。
我的目标是仅沿边缘裁剪面部。我的最终目标是制作草图(类似于:
或在裁剪后的脸上应用一些滤镜。如需更多参考,请在 Play 商店或应用商店中搜索 bobble 应用。任何形式的帮助表示赞赏。
ios - VNImageBasedRequest regionOfInterest 不在标准化范围内
我正在尝试访问图像的特定部分以对图像的用户定义区域执行 VNCoreMLRequest。我在某些感兴趣的区域遇到错误,而其他区域则很好。每个区域都是标准化的。
以下两个领域有效:
但以下两个领域不起作用:
错误消息:“感兴趣区域 [0.148543, 0.874365, 0.319829, 0.31599] 不在 [0 0 1 1] 的标准化范围内”
有人能指出我没有看到什么吗?也许有一些我不了解的东西regionOfInterest
ios - UIImage 从不释放内存(内存泄漏?)
只要我保留对UIImage
作为参数传递给这些函数中的任何一个的引用,每个与图像相关的操作导致的内存增加仍然存在。如果我重复调用这些函数(每次使用不同的实例UIImage
),内存使用量会增加,直到应用程序崩溃。
示例1:
示例2:
为什么会这样?它是一个错误吗?有没有办法强制释放内存?
swift - VNDetectFaceRectanglesRequest 没有调用 completionHandler
我正在尝试检测面部。它无法检测到,因为未调用 handleFaces。我想知道为什么不调用它,如果我想检测人脸,我该如何解决。
请帮我解决这个问题。
ios - 是否可以在应用程序运行时在设备上训练 CoreML 模型?
是否可以发布带有CoreML
模型的 iOS 应用程序,然后让应用程序根据用户行为继续改进(训练)设备上的模型?因此,该模型将在设备上不断增长和改进,而无需服务器支持......
ios - Drawing rectangles using the CGPoint coordinate system - SWIFT
I am able to draw a rectangle using the code below (works). However, I am using the Vison framework to detect rectangles but it is giving me back CGPoint values that is less than 1.0. When I enter these coordinates to draw a rectangle I get nothing back. Please can some advise?
Works - i get a rectangle
Does not work (no rectangle):
ios - 如何使用 ARKit 或 Apple Vision 测量 3d 对象的尺寸?
使用 iPhone 摄像头(可能是 ARKit、Apple Vision、CoreML/mlmodels 等的某种组合),您将如何测量对象的尺寸(宽度、高度、深度)?物体是放在桌子上的小东西
使用 mlmodel,您可以训练 ML 执行特定对象的对象检测。这只允许您在 2d 屏幕上围绕检测到的对象绘制一个框。
我希望能够使用手机摄像头查看并可能在对象周围移动以确定对象的尺寸/实际大小。
我已经阅读了有关边缘检测或形状检测的信息,但我认为我不需要图像来对整体嵌套边缘检测进行图像处理。
ARKit 擅长使用手机的硬件来足够准确地测量小尺度距离。
一种可能的方法是在要比较的对象旁边放置一个已知大小的参考对象(如四分之一),但这会带来复杂性和麻烦。
理想情况下,我想将 iPhone 相机对准桌子上的小物体,也许环顾四周(围绕物体旋转一点),然后对物体大小进行一组大致的测量,并为物体的 ARAnchor实际位置。