问题标签 [avcapture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - AVCapture 拍照后暂停屏幕
我使用了 avcapture 的演示示例,我想在拍照后在 viewcontroller 的 imagview 中显示图像我有使用代码
从照片库中获取最后一张图片,但我正在获取倒数第二张图片
并在选择我写过的图像后重定向 viewController
这么用,怎么解决?拍照后暂停屏幕
ios - 如何解决“_vImagePermuteChannels_ARGB8888”,引用自:ERROR?
当我将 RGBA 转换为 ARGB 时,我使用了以下代码:
我收到以下错误:为此,我添加了Convertion.h
和Accelerate.framework
.
架构 armv6 的未定义符号:
“_vImagePermuteChannels_ARGB8888”,引用自:CCOverlayView.o ld 中的 -[CCOverlayView processImage]:未找到架构 armv6 collect2 的符号:ld 返回 1 个退出状态
任何人都可以帮助我吗?
ios - 如何为 AV Foundation 相机捕捉设置自定义帧大小?
我正在使用 AVCam 示例应用程序,它使用 AV Foundation 进行相机捕捉。
当我使用以下预设时:
我从相机中得到一个 480 x 360 的视频帧。
但是,我想要 320 x 192 的帧大小。如何设置自定义预设以获得这种大小的帧?如果有帮助,我的目标 iOS 版本是 4.2.1。
objective-c - 不能在带有 Objective-C++ 代码的 c++ 类中使用 dispatch_sync
我需要在继承的 C++ 类中使用 Objective-C++ 代码,该类与 iPhone 摄像头的视频录制一起工作(CMSampleBufferRef
通过另一个 native-objective-c 类Wrapper
)CMSampleBufferDelegate
。
AVCaptureVideoOutput
我有它自己的作品,dispatch_queue_t callbackQueue
所以,当我想从我的Wrapper
班级获得最后一帧时,我需要锁定它callbackQueue
以使其等到复制完成。
据我所知,它已完成dispatch_sync
,同步captureOutput.callbackQueue
. 但我无法让这段代码工作:
编辑:
当我改为
它修复了第一个错误,但第二个仍然在这里..
被困住了..任何帮助表示赞赏!
iphone - 如何触发像相机应用程序一样的明亮闪光灯?
我试图做一个闪光的方式是这样的:
1) 打电话
2)0.1秒后我打电话
问题是,当它发生时,闪光灯比相机应用程序中的闪光灯要暗得多。我不能让那个 LED 发光。有没有其他方法可以让这个闪光灯尽可能亮?
iphone - AVCaptureSession,多个 AVCaptureAudioDataOutputs
环境
- 苹果手机
- arm7/sdk6.0
- 代码 4.5
用例
- 基于 AVCam 示例
- 使用 AVCaptureMovieFileOutput 将 A/V 捕获到文件中
- 添加额外的 AVCaptureAudioDataOutput 以在录制时截取正在写入文件的音频
如何
- 将视频输入添加到捕获会话
- 将音频输入添加到捕获会话
- 将文件输出添加到捕获会话
- 将音频输出添加到捕获会话
- 配置
- 开始录制
问题
似乎音频输出是互斥的,因此,要么我将数据写入磁盘,要么我调用 AVCaptureAudioDataOutput 捕获委托,当添加 AVCaptureMovieFileOutput 时(顺序无关紧要),不调用 AVCaptureAudioDataOutput 委托。
- 如何解决?如何让“AVCaptureAudioDataOutput”触发它的委托/选择器,同时使用“AVCaptureMovieFileOutput”将数据写入磁盘?
- 除了使用较低级别的 API(例如,例如。AVAssetWriter 等人?
任何帮助将不胜感激!
ios - 获取 AvCaptureVideoDataOutput 的实际 NSString 可用VideoCVPixelFormatTypes
我正在尝试在 AVFoundation 输出中找到可接受的格式:
然后我在之后插入一个断点:
我明白了:
如何获取这些格式类型的字符串值?
谢谢
ios - 在 CALayer 中定位内容
如何在 CALayer 中定位内容,使其缩放以适应宽度(保留纵横比)并定位在图层的顶部?
更具体地说,我正在尝试使用 AVCaptureVideoPreviewLayer 来实现此定位。如果我将预览层的 videoGravity 设置为 AVLayerVideoGravityResizeAspectFill ,那么它会填充宽度但将内容垂直居中在框架中(切断顶部和底部)。
ios - 以与预览层匹配的大小导出 AVCaptureSession 视频
我正在使用AVCaptureSession
会话预设录制视频AVCaptureSessionPreset640x480
。我AVCaptureVideoPreviewLayer
在录制时使用非标准尺寸(300 x 300)的重力设置为纵横比填充。它的设置是这样的:
录制视频后,我想将其写入 quicktime 格式的文件。在播放过程中,我再次以 300 x 300 非标准大小的图层播放视频。因为这些视频最终将通过网络连接传输,所以保留完整的 640x480 视频似乎很浪费。
导出视频以匹配我的 300 x 300 预览层的最佳方式是什么?我是一个 AVFoundation 菜鸟,所以如果我以错误的方式处理这个问题,请告诉我。我只希望录制期间在预览层中显示的录制视频与磁盘上导出的视频相匹配。
ios - AVCaptureVideoPreviewLayer 方向 - 需要横向
我的应用程序仅是横向的。我正在展示这样的 AVCaptureVideoPreviewLayer:
self.previewView 的帧为 (0,0,568,320),这是正确的。self.previewLayer 记录一帧 (0,0,568,320),理论上是正确的。但是,相机显示在横向屏幕中间显示为纵向矩形,并且相机预览图像的方向错误 90 度。我究竟做错了什么?我需要相机预览层以全屏、横向模式出现,并且图像的方向应该正确。