问题标签 [avfoundation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 第一首歌曲播放完毕后如何在音乐应用程序中自动播放下一首歌曲
我已经使用 avtouchController 制作了一个音乐应用程序,我想使用自动播放一个接一个地播放我的下一首歌曲,你能给我自动播放歌曲的步骤吗?
iphone - 使用 AVFoundation 框架 iPhone 录制视频?
我正在借助WWDC 2010 AVCamDemo 示例中的示例代码开发应用程序。在应用程序中,我需要从 iPhone 的前置摄像头录制视频,但由于我所在的地方没有新的 iPhone 4,我无法正确测试代码。
如果有人能提醒我是否朝着正确的方向前进,我将非常感激。我可以在我的 iPhone 3G(升级到 iOS 4.1)上测试的有限代码在我设置 时崩溃AVCaptureSession
,如下面的代码所示:
iphone - iPhone avcomposition 问题
我试图创建一个视频,在 iphone 上使用 avcomposition 一个接一个地显示两个视频。此代码有效,但是我只能在新创建的视频的整个持续时间内看到其中一个视频
我已经发布了整个代码,因为它可能对其他人有所帮助。
不应该
将第二个视频添加到第一个视频的末尾
干杯
iphone - 无法将类别添加到 AVAudioPlayer
我正在尝试向 AVAudioPlayer 添加一个类别,但我不断收到错误消息“找不到 'AVAudioPlayer' 的接口声明”。
AVAudioPlayer+Fade.h
AVAudioPlayer+Fade.m
我在MainMenuViewController
课堂上使用 AVAudioPlayer,所以我补充说:
到MainMenuViewController.h
我补充说:
到MainMenuViewController.m
.
将 AVFoundation 添加到项目中。我可以在没有 Fade 类别的情况下完美地使用 AVAudioPlayer。当我添加淡入淡出类别时,我得到了那个错误。有任何想法吗?
iphone - 哪些技术最适合将 iPhone 摄像机数据实时流式传输到计算机?
我想将视频从 iPhone 相机流式传输到 Mac 上运行的应用程序。想想有点像视频聊天,但只有一种方式,从设备到接收器应用程序(而且它不是视频聊天)。
到目前为止我的基本理解:
- 您可以使用 AVFoundation 获取“实时”摄像机数据而不保存到文件,但它是未压缩的数据,因此我必须自己处理压缩。
- 没有内置的 AVCaptureOutput 支持发送到网络位置,我必须自己解决这个问题。
我对上述内容是正确的还是我已经偏离了轨道?
Apple Tech Q&A 1702提供了一些有关将单个帧保存为图像的信息 - 这是解决此问题的最佳方法吗?只是节省 30fps,然后像 ffmpeg 之类的东西来压缩它们?
有很多关于 iPhone 直播的讨论,但关于发送直播视频的人的信息却少得多。我希望有一些广泛的笔触可以让我指出正确的方向。
iphone - ASSETWriterInput 用于从 Iphone 问题上的 UIImages 制作视频
我尝试以下 2 种将像素缓冲区附加UIImage
到ASSETWriterInput
. 一切看起来都不错,只是视频文件中没有数据。怎么了?
1 适配器类
2 制作
iphone - 如何从 AVPlayer iOS4.0 的 NSURL 获取文件大小和当前文件大小
我正在尝试为上述曲目制作 UIProgressView。如何从该 URL 获取文件大小和当前文件大小?请帮忙,谢谢!
iphone - AVAssetExportSession - AVMutableCompositionTrack - 导出的输出文件为空
我尝试将 .mp3 文件添加到 AVMutableCompositionTrack,然后我想导出新文件。问题是:导出后生成的文件存在,但为空,无法播放。有人在我的代码中看到错误吗?
先感谢您 !
iphone - AVMutableCompositionTrack - insertTimeRange - insertEmptyTimeRange 问题
我有一个奇怪的问题:我想从两个声音文件和静音中生成一个新的声音文件。
sound1:2 秒长 + 静音:2 秒静音 + sound2:2 秒长
当我尝试下面的代码时,我得到了一个包含所有部分的 6 秒长的声音文件,但顺序不同!顺序为:sound1、sound2、静音
我不能把这种沉默放在这个作品的中间(也不能放在开头)。这是典型的行为还是我有什么问题?
这是将段放在一起的代码:
也许有人有想法?先感谢您!
顺便说一句:下面没有 insertEmptyTimeRange 行的代码也不起作用,它只会产生 4 秒的声音,而 sound2 会滑到 sound1 的末尾:
似乎不允许段之间有“无”!?
iphone - 如何在 iPhone 中将 CVPixelBufferPool 与 AVAssetWriterInputPixelBufferAdaptor 结合使用?
我已经使用以下代码成功地从图像创建了视频
这里我用过CVPixelBufferRef
。取而代之的是,我想将 与CVPixelBufferPoolRef
结合使用AVAssetWriterInputPixelBufferAdaptor
。
任何人都可以提供一个我可以调试和使用的示例吗?