问题标签 [avcaptureoutput]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何将 CVImageBuffer 转换为 UIImage?
我有tmpPixelBuffer
像素缓冲区数据的临时变量,它不是nil
,当检测到元数据对象时,我想从该缓冲区创建图像,因此我可以从该图像中裁剪元数据图像。
图像总是nil
,我做错了什么?
我也尝试这样做:
但在这种情况下 UIImage 是不可读的。
ios - CVPixelBufferUnlockBaseAddress - 块 UI
我正在努力调试一个奇怪的问题。在整个 UI 停止响应触摸captureOutput:didOutputSampleBuffer:fromConnection:
之后。CVPixelBufferUnlockBaseAddress(imageBuffer,0);
相机预览有效,但我所有的按钮都停止响应,我什至添加了一个 UITapGesture 也无法正常工作。我尝试将其放入调度中,但仍然没有成功。
ios - 录制带音频的视频
我将创建应用程序,我将在其中录制带音频的视频然后播放。
为此,我在我的代码中使用 AVCaptureManager。
在这里,如果视频大约为 10 秒,则音频和视频都在播放,并且工作正常。
但是如果我录制的视频超过 10 秒,则只有视频无声播放(没有声音播放)。
这是我的代码。
之后,当我完成录制时,它来了......
}
ios - iOS:__connection_block_invoke_2 中的错误:连接中断
控制台中的 Xcode/iOS 8/AVFoundation 相关错误:
我只是将 AVCaptureVideoDataOutput 添加到 Apple 的示例应用程序 'AVCamManualUsingtheManualCaptureAPI'
我补充的是:
以上片段插入到示例项目中:
我收到“__connection_block_invoke_2 中的错误:连接中断”,而且...
..delegate 永远不会被调用。
我要做的就是修改他们的代码来做实时核心图像过滤器。
ios - iOS:AVCaptureOutput 在导航后停止工作
我将相机视图用作条形码扫描仪,它扫描条形码并使用 webview 将 segue 启动到另一个视图控制器。这工作正常,我可以从 web 视图导航回扫描仪并毫无问题地扫描另一个条形码。但是,如果我使用相机离开视图控制器并返回到它,相机视图会加载但不再检测条形码。
swift - 类型“OSType”不符合 Swift 2.0 中的协议“AnyObject”
我刚刚使用 Swift 2.0 更新到 Xcode 7 beta。当我将项目更新到 Swift 2.0 时,我收到了这个错误:“Type 'OSType' does not conform to protocol 'AnyObject' in Swift 2.0”。我的项目在 Swift 1.2 中完美运行。这是代码出错:
我尝试将 kCVPixelFormatType_32BGRA 转换为 AnyObject,但没有成功。任何人都可以帮助我吗?对不起,我的英语不好!谢谢!
ios - 在 IBAction 中调用 captureOutput
我想创建一个应用程序,单击IBAction
按钮后应显示来自实时摄像头的当前帧UIImageView
。使用这种方法:https
://developer.apple.com/library/ios/qa/qa1702/_index.html
我想在功能中创建IBAction
功能。这一个确切地说:
不幸的是,经过十几次尝试,我做不到。
总结:如何创建一个函数(void),其中包含
UIImage
表单中的图像并将其保存到情节提要中的对象?
我会很感激任何帮助。问候。
ios - AVCaptureStillImageOutput 区域选择
这是我在用 Swift 编写的 iOS 应用程序中保存从相机拍摄的图像时面临的挑战。我并没有准确地保存我想要的东西,我节省了不必要的钱,这并不好。
这是此问题的两个相关代码块。
首先是会话开始的地方,可以看到我只在看一个椭圆形区域:
第二个保存图像并且会话停止的位置:
这是可行的,但是当我查看相册以查看已保存的内容时,我发现拍摄的整张照片好像没有限制椭圆,这不是我想要的。理想情况下,我应该只保存椭圆内的那些像素。如果这是不可能的,我至少应该将椭圆内的像素原样保存,并将椭圆外的像素保存为一种独特的透明颜色。有没有办法控制 AVCaptureStillImageOutput 的工作方式,或者我需要做些什么来实现我想要的?
ios - AVCaptureStillImageOutput.pngStillImageNSDataRepresentation?
我第一次使用 AVCaptureStillImageOutput,我在某个时候保存了 JPEG 图像。我想保存 PNG 图像而不是 JPEG 图像。我需要为此做些什么?
我在应用程序中有这 3 行代码:
有没有一种简单的方法来修改这些行以获得我想要的?浏览网络后,似乎 anser 是 NO(除非我不够幸运),但我仍然相信一定有一些好的解决方案。
ios - AVCaptureStillImageOutput & UIImagePNGRepresentation
我在做一些我认为不应该那么困难的事情时遇到了困难,所以我想我一定是从错误的角度看待问题。为了了解 AVCaptureStillImageOutput 和相机的工作原理,我制作了一个小应用程序。
这个应用程序能够拍照并将其保存为 PNG 文件(我不想要 JPEG)。下次启动应用程序时,它会检查文件是否存在,如果存在,则将存储在文件中的图像用作应用程序的背景视图。这个想法很简单。
问题是它不起作用。如果有人可以告诉我我做错了什么,那将非常有帮助。
我希望图片以与拍摄时在显示屏上相同的方式显示为背景,但它被旋转或比例错误......等等。
这是相关代码(如果需要,我可以提供更多信息)。
viewDidLoad
方法:
拍照处理方法:
启动 AVCaptureSession 的方法:
例如,这里是使用该应用程序拍摄的照片的图像:
现在这是我在重新启动时作为应用程序的背景得到的:
如果它工作正常,两张图片将是相似的。