问题标签 [avcam]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何在ios应用程序中暂停视频录制(objective-c)
使用 AVCam 我可以开始和停止视频录制。此方法开始录制:
并停止录制:
我的问题是如何暂停录制?查看 AVFoundation 我可以找到一个暂停方法:
但我找不到让它发挥作用的方法。我搜索了很多,但似乎没有解决我的问题,所以请帮忙。先感谢您。
swift3 - 如何使用 Swift 3 实现 AVCam?
此示例代码仅涵盖 ios11 的实现。
有人可以提供一些示例和/或提示让我进一步理解和编码吗?
ios - 如何在 IOS 相机中启用防抖和 HDR?
我做了什么:-
我尝试启用稳定和HDR,但它不起作用。我认为我走在正确的道路上。当我试图检查当前设备是否支持稳定和 HDR 在这两种情况下,我在所有设备中都只有错误的情况。
如果在下面的代码片段中犯了任何错误,请指导我。
提前致谢!!
我的代码片段:-
ios - iOS VideoPreview Landscape是颠倒的
出于某种原因,当我将手机设置为横向模式时,相机预览是颠倒的(水平翻转)。我正在使用 Xamarin 移植的示例项目;AVCam条码。
我最终通过在横向使用 GeometryFlipped 提出了一个半完整的修复。但是,现在绘制的条形码在横向模式下没有绘制在正确的位置。
- 这是设备/操作系统问题还是示例不完整?
纠正此问题的推荐方法是什么?
/li>
编辑
ios - 如何在 iOS 上使用 ProRes 编解码器录制视频?
我想将视频从设备的后置摄像头直接捕获到 ProRes 编解码器,现在.proRes422
可以.proRes4444
作为AVVideoCodecType
iOS 11 中的选项使用。
但我收到一个错误,记录是:
给定当前配置不支持
在 iPhone X 和第二代 iPad Pro 上,尝试使用以下代码捕获视频时:
如果这种方法是错误的,捕获的视频可以通过使用来编码AVCaptureVideoDataOutput
吗AVAssetWriter
?
ios - iOS相机视图间歇性地以黑色打开
我有一个视图控制器,它有一个调用第二个视图控制器的按钮,它添加一个视频子层并调用相机。
代码一直运行良好,直到我尝试向第二个视图控制器添加其他按钮,例如另一个按钮,然后,它有时会工作,有时会不工作。
“不工作”是指它会打开一个什么都没有的黑屏。不回应任何事情。
我已经删除了按钮/代码等,但它没有修复任何东西。
似乎它有时会起作用。即在它工作后我可以添加一个按钮或更改代码,它会工作,然后它会再次显示黑屏。
没有构建错误和跟踪,它基本上就坐在那里等我做某事(比如按下记录按钮),但没有显示任何内容。
我读过我应该“把subviewtofront”,但这似乎没有任何作用。
有什么建议么?
提前致谢。
更新:我想我发现了一些相关的东西。我试图使用 CGRect 以编程方式在屏幕上定位一个按钮,其中一部分涉及获取文本视图的宽度和高度。
我发现代码因“期望找到可选值但发现为零”消息而崩溃,即我无法执行以下操作:textView.frame.width、textView.frame.height、textView.translatesAutoresizingMaskIntoConstraints = false 等。
起初我以为这是我的代码,但在使用相同代码在另一个 VC 上尝试后,它突然又开始工作了,即我得到了 textView.frame.width 和 textView.frame.height 的值。
我的相机开始显示预览!
所以我认为当预览为黑色时,我的按钮和文本视图没有值。
ios - 为什么 AVCam 示例代码不使用 layerWithSession?
我试图从 Apple 解开 Objective-C AVCam 示例代码,但我没有看到它将捕获会话添加到预览层的确切位置。我们的代码AVCaptureVideoPreviewLayer
使用接口创建了一个指针layerWithSession
,但是如果我们在主线程上使用它会导致问题,因为它可能需要超过 10 秒才能完成。我在网上找到的其他少量示例代码使用相同的界面。
但我在 AVCam 示例的 ObjC 代码中的任何地方都看不到这一点。它将会话分配给AVCamPreviewView
,但据我所知,它仅存储对象。或者这实际上是否将会话分配给UIView
?
ios - 如何在 iOS sdk < 11 的 Objective C 中使用 AVCaptureDeviceDiscoverySession 获取前置摄像头、后置摄像头和音频
我尝试使用苹果开发者网站示例中给出的代码,也尝试运行相同的示例代码,但它在 ios 版本低于 11 的 Ipad 上在同一位置崩溃。代码在以下行中断
我尝试使用任何一种设备类型,但它一直在同一条线上崩溃,不知道发生了什么。我附上了 stacktrace 的屏幕截图 。
发布了类似的问题,但没有为低于 SDK 11 的 Objective c 代码和 ios 版本提供答案
ios - 应用程序进入后台时出现红条问题(使用 AVCaptureSession)和 AVCamPreviewLayer 混蛋
我使用 Apple 的示例代码AVCAM开发了一个自定义相机功能,并且在我的应用程序中启用了背景模式,这导致了红条问题。
我创建 AVCaptureSession,然后在会话中添加输入(.Video,.Audio)和输出。
下面是在会话中添加音频输入的代码
现在当用户按下主页按钮时,红色条在 iPhone 屏幕上闪烁几毫秒然后消失(表示正在使用麦克风),我想避免这个红色条。
在做了一些研发之后,我才知道这是因为在会话中添加了音频输入(上面提到了添加音频输入的代码)
到目前为止我所做的是?为了解决这个问题,我只在用户开始录制视频时添加音频输入,并在用户停止视频时删除音频输入。这实际上解决了红条问题,但这恰好导致预览中的混蛋,这真的很烦人。现在,我想解决这个 UI 混蛋,但不知道该怎么做。
任何帮助将不胜感激。