问题标签 [avvideocomposition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 以与预览层匹配的大小导出 AVCaptureSession 视频
我正在使用AVCaptureSession
会话预设录制视频AVCaptureSessionPreset640x480
。我AVCaptureVideoPreviewLayer
在录制时使用非标准尺寸(300 x 300)的重力设置为纵横比填充。它的设置是这样的:
录制视频后,我想将其写入 quicktime 格式的文件。在播放过程中,我再次以 300 x 300 非标准大小的图层播放视频。因为这些视频最终将通过网络连接传输,所以保留完整的 640x480 视频似乎很浪费。
导出视频以匹配我的 300 x 300 预览层的最佳方式是什么?我是一个 AVFoundation 菜鸟,所以如果我以错误的方式处理这个问题,请告诉我。我只希望录制期间在预览层中显示的录制视频与磁盘上导出的视频相匹配。
avfoundation - AVFoundation 在以前录制的视频中以特定时间段导出带有动画的视频?
我正在使用 AVAssetExportSession 在特定时间用我的动画导出视频。2天前运行良好。现在我改变了一些东西,它停止工作我不知道它有什么问题。对不起,代码太长了。
有人可以帮我吗?
代码附在下面。提前致谢。
ios - 在合并音频时,虽然我希望它叠加,但两个音频都是线性的
因此,我尝试在“for”循环中使用以下代码来覆盖音频,但它们是线性进入的,最后附加的音频首先进入。
我看到他们在 2011 年 WWDC 会议 415 中解释了所有这些 - 在 AVFoundation 中使用媒体及其解决方案将出现在 AVEditIPadDemo 示例中,但我也无法访问该源。如果您能让我访问该代码,那就太好了。谢谢
ios - 使用 AVAssetExportSession 保存视频时如何提高视频速度
我有一个可以加载到 AVAsset 的视频文件。我想改变这个视频的播放速度并加倍它的速度,这样如果视频是 10 秒长,它会加速在 5 秒内完成。
这是我正在尝试的代码,有人可以告诉我哪里出错了吗?
帧持续时间是我实现目标所需的属性。
ios7 - iOS:AVPlayerItem 到 AVAsset
我有 2 个 AVAsset,我确实使用 VideoComposition 和 AVPlayerItem 的 AudioMix 进行了更改。之后,我使用了 AVPlayerItem 中的资产,但没有应用 VideoComposition 和 AudioMix。我希望 VideoComposition 和 AudioMix 都应用结果资产。这是代码。
有人知道吗?
此致。
ios - 裁剪录制的视频帧
我正在尝试裁剪视频帧。我已经使用AVFoundation
框架录制了视频。我需要将拍摄的图像和录制的视频裁剪成方形。我已经完成了它的UIImage
工作,现在我正在尝试裁剪视频。
我试图裁剪视频,但结果是在没有裁剪的情况下更改了整个视频帧,并且看起来被拉伸了。
有人可以帮我解决这个视频裁剪问题吗?提前致谢。
ios - AVVideoComposition 在 iOS 8 中不起作用
我正在开发我正在编写视频并导出到目录的应用程序。它在 iOS 7 中运行良好,但在 iOS 8 中失败。
下面是我的代码:
它给出“媒体数据无法解码。它可能已损坏。” 在 iOS 8 上运行时出错。
avfoundation - AVFoundation:即时作曲?
可以AVFoundation
用来即时创作作品吗?
场景:我有五个 10 秒的 H.264 剪辑,我想在它们之间播放一个不错的 1 秒淡入淡出/过渡。有没有办法用前两个创建一个乐曲,开始演奏乐曲,然后在乐曲演奏时添加第三个乐曲?此外,由于不再需要它们而从合成中删除陈旧/查看的剪辑是可取的。
我在 API(例如“”)中找不到任何AVMutableVideoComposition
允许即时“可变”转换的内容。
我的要求是创建一个播放列表……它可能包含许多(例如 200 个)短视频元素,所有元素都按顺序播放,每个元素之间都有过渡。我也怀疑这AVQueuePlayer
可能会受到影响。
另一种解决方案是创建一对AVPlayer
/AVPlayerLayer
对象,它们可以重叠并且实际上会交替播放AVAssets
。
我的需要是在播放视频/音频帧时拦截它们CMSampleBuffer
,CVPixelBufferRef
并应用实时视频效果。
ios - 不使用 AVMutableVideoComposition 进行渲染
我有 3 个视频,我正在使用 an 进行排序AVMutableComposition
,然后使用 an 播放视频AVPlayer
并使用AVPlayerItemVdeoOutput
. 视频序列如下:
代码如下所示:
徽标视频是无声的,仅显示我的徽标。我手动创建这些视频,所以这里的一切都很完美。然而,“主视频”可能会以错误的方向结束。为了解决这个问题,AVMutableVideoComposition
看起来像是一个完美的前进方式。所以我设置了一个简单的视频合成,它执行一个简单的 setTransform,如下所示:
pAsset = pComposition; pPlayerItem = [AVPlayerItem playerItemWithAsset: pAsset]; pPlayer = [AVPlayer playerWithPlayerItem: pPlayerItem];
但是,当我开始播放视频序列时,我没有返回任何输出。AVPlayerItemVideoOutput hasNewPixelBufferForItemTime
总是返回NO
。如果我注释掉上面代码中的最后一行(即设置 videoComposition),那么一切都会像以前一样工作(视频方向错误)。有人知道我做错了什么吗?任何想法都非常感谢!