问题标签 [avcomposition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 如何使用 iPhone SDK 暂停视频录制?
我看到有一个名为 iFile 的应用程序在录制视频时具有暂停功能。他们如何做到这一点?我尝试使用 AVMutableComposition 类,当用户暂停时,我剪切了一个新视频,然后在最后合并视频,但是合并视频的处理时间是不可取的。
有人可以给我其他关于如何做到这一点的好主意吗?我注意到 iFile 方式非常无缝。
谢谢
ios4 - 在库中查找资产 - 添加到 AVMutableComposition - 导出 = 崩溃
我一直在努力将 iPhone 照片库中的资产添加到 AVMutableComposition 然后导出它们。这是我得到的:
查找资产:(这里我抓取了 AVURLAsset)
}
在这里,我将一个资产添加到我的合成中(我使用数组中的第一个对象仅用于测试。
最后我导出了 comp 在这里它崩溃了
}
有谁知道它可能是什么?它崩溃了
AVAssetExportSession *exportSession = [[AVAssetExportSession alloc] initWithAsset:composition presetName:AVAssetExportPresetPassthrough];
我尝试了不同的预设和输出文件类型。
谢谢
* 解决了 *
iphone - 如何为 AVVideoComposition 设置透明背景?
更新- 我添加了 50 声望赏金来回答这个问题!
我有一个应用程序,它需要将一些视频和照片放在一起来制作电影。我为此使用 AVMutableComposition。为了能够指导它如何合成视频,我必须使用 AVMutableVideoComposition。这个东西有一个叫做的属性backgroundColor
,苹果文档说:
仅支持纯 BGRA 颜色;图案和其他支持的颜色将被忽略。如果渲染的像素缓冲区没有 alpha,则忽略背景颜色的 alpha 值。
我从中了解到的是,有一种方法可以将 alpha 通道添加到 backgroundColor 但我只是不明白如何。是什么If the rendered pixel buffer does not have alpha, the alpha value of the background color is ignored.
意思?我怎么能添加这样的东西?
如果我只是这样做myVideoCompositionInstruction.backgroundColor = [[UIColor colorWithWhite:1 alpha:0] CGColor];
是行不通的-背景保持白色并且不透明。
任何帮助将不胜感激,谢谢!
iphone - 具有一个视频轨道和多个音频轨道的 AVPlayer
我正在尝试使我的应用程序中的播放器能够拥有一个视频轨道和多个音轨(针对不同的语言)。
我已经这样做了,但播放器不会启动:
我尝试像这样启动我的播放器:
但没有附加任何内容。感谢您的帮助(对不起我的英语:))
iphone - 将 HTTP 流插入 AVMutableComposition
我正在尝试将 AVPlayerItem 的 AVURLAsset 插入到这样的AVPlayerItemStatusReadyToPlay
状态AVMutableComposition
:
不幸的是,我得到的只是尝试调用的这个糟糕的错误消息AVMutableComposition insertTimeRange:ofAsset:atTime:error:
2011-11-29 22:24:59.446 XXX[13626:10703] -[XXX addItemToComposition:] -- 错误:错误域=AVFoundationErrorDomain 代码=-11800“操作无法完成”UserInfo=0x7699f30 {NSLocalizedFailureReason=未知发生错误(-12780),NSUnderlyingError=0xd124dd0“操作无法完成。(OSStatus错误-12780。)”,NSLocalizedDescription=操作无法完成}
我错过了什么?
为什么无法将项目插入到合成中?
在检查AVURLAsset
时,AVPlayerItem
我还注意到轨道数组已分配但为空。这可能是原因吗?如果是这样,我如何AVURLAsset
才能正确保存有效曲目?
objective-c - 使用 alpha 将 2 个视频叠加在一起
AVFoundation 允许您将 2 个资产(2 个视频)“组合”为 2 个“轨道”,就像在 Final Cut Pro 中一样。
理论说我可以将 2 个视频叠加在一起,带有 alpha,并同时查看。
要么我做错了,要么某处有错误,因为以下测试代码虽然有点混乱,但清楚地表明我应该看到 2 个视频,而我只看到一个,如下所示:http: //lockerz.com /s/172403384 -- “蓝色”方块是 IMG_1388.m4v
无论出于何种原因,从未显示 IMG_1383.MOV。
你看错了吗?
此代码的“目标”是“记录”相机输入(视频 1)和 opengl 输出(视频 2)。我还尝试使用 Buffers 等“直接”“组合”它们,但我也没有成功 :( 事实证明 AVFoundation 没有我想象的那么简单。
iphone - 重新加载 AVMutableComposition
我有一个与 AVPlayer 关联的 AVMutableComposition。似乎如果我将曲目添加到此合成中,除非我再次在播放器上设置合成,否则 AVPlayer 不会播放添加的曲目。现在,我只需将当前项目替换为已设置的相同组合即可。之后,它会拾取新曲目。
我一直无法弄清楚这是否是正确的做法,这样做似乎有点奇怪。
有任何想法吗?
谢谢
ios5 - 如何合并视频和音频文件?
我的问题是:如何合并持续时间几乎相同的视频和音频文件?
我搜索并得到了这个问题的一些答案。但是,当我尝试他们提供的代码时,它不会产生“非零字节”电影。
你能看一下它,看看它哪里出错了吗?
ios - AVComposition 在 Airplay 上中断
我有一个视频作品,我想通过 Airplay 播放(没有镜像)。该应用程序在使用普通 Airplay 镜像时按预期工作,但我希望获得使用 Airplay 视频所获得的速度、可靠性和分辨率提升。
问题是当我设置
...播放器一片空白。
笔记:
- 由于我没有为每个显示器创建单独的窗口,因此它们都试图使用相同的 AVPlayer。
- 我的 AVVideoComposition 包含不同的文件并在它们之间添加不透明度渐变。
- 这个未回答的问题表明问题更可能是由于我正在播放 AVComposition 而不是使用共享播放器:AVComposition does not play via Airplay Video
两个问题:
- 我必须摆脱 iPad 上的播放器吗?
- 可以通过 AirPlay 播放 AVVideoComposition 吗?