问题标签 [avfoundation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 如何向 AVAudioPlayback 添加效果
我想使用AVAudioPlayer
框架为声音添加效果。回声、音高变化、速度等效果。我该怎么做。
iphone - 我应该在哪里杀死我的 AVFoundation AudioPlayer
我的应用程序包含一个表格视图。当一个单元格被触摸时,导航控制器移动到一个标签栏控制器,并且标签栏控制器的“根”视图有一个播放 mp3 的按钮。
我的问题是这个。当用户单击后退按钮返回表格视图并且当前正在播放音频时,如何停止音频播放?
首先,我尝试在音频对象所在的视图(我的标签栏控制器的“根”)的 delloc 和 viewdidunload 函数中调用 [audio stop]。我在这些函数中设置了断点,它们甚至没有被调用。
iphone - AVAudioRecorder 不会在设备上录制
这是我的方法:
其中大部分是不言自明的;playBool 是一个 BOOL,在播放模式下为 YES。一切都在模拟器中运行,但是,当我在设备上运行它时,[记录器记录]返回 NO。有没有人知道为什么会这样?
objective-c - 在 AVAudioRecorder 中获取通道的 AveragePower 和 PeakPower
我对这段代码感到恼火。我试图在录制音频时获取averagePowerForChannel 和 peakPowerForChannel,但每次我将其设为 0.0
下面是我录制音频的代码:
代码中的错误是什么???
iphone - 带有 alpha 蒙版的 AVPlayerLayer
有没有人在带有 alpha 通道的 AVPlayerLayer 上播放视频?
如果是这样,怎么可能?我尝试了许多不同的解决方案,包括使用纯 Alpha 通道视频、将混合模式应用于目标层以及自己为每一帧制作动画。唯一可行的解决方案是后者,它会使手机陷入困境。
iphone - 如何使用 AVAudioPlayer 在 iPhone/iPad 中播放播放列表
请我知道如何在 AVAudioPlayer 中播放声音,但我想知道如何给它一个磁盘文件列表,以便一个接一个地播放(播放列表)
有人有什么想法吗?
iphone - 从 CMSampleBufferRef 创建的 UIImage 未显示在 UIImageView 中?
我正在尝试实时显示来自相机的 UIImage,但似乎我的 UIImageView 没有正确显示图像。这是AVCaptureVideoDataOutputSampleBufferDelegate
必须实现的方法
为了解决简单的问题:
- 使用 UIImagePickerController 不是一个选项(最终我们将实际对图像进行处理)
- 我知道正在调用处理程序(进行了 NSLog 调用,我看到了输出)
- 我知道我正确设置了 IBOutlet 声明。如果我使用上面的注释代码从 web 加载任意图像而不是简单地发送
setImage:theImage
到 imageView,则图像被正确加载(并且对 NSLog 的第二次调用报告了一个非 nil 对象)。 - 至少在基本范围内,我得到的图像
imageFromSampleBuffer:
很好,因为 NSLog 报告的大小为 360x480,这是我预期的大小。
我正在使用的代码是AVFoundation
Apple 最近发布的代码片段,可在此处获得。
特别是,我使用的代码设置了AVCaptureSession
对象和朋友(我对此知之甚少),并从核心视频缓冲区创建 UIImage 对象(这就是imageFromSampleBuffer
方法)。
最后,如果我尝试使用返回的 by发送drawInRect:
到普通的 UIView 子类,我可以让应用程序崩溃,而如果我使用上述 URL 中的一个,它不会崩溃。这是崩溃内部调试器的堆栈跟踪(我得到一个 EXC_BAD_ACCESS 信号):UIImage
imageFromSamplerBuffer
UIImage
编辑:这里有一些关于那段代码返回的 UIImage 的更多信息。
使用此处描述的方法,我可以获取像素并打印它们,它们乍一看还不错(例如,alpha 通道中的每个值都是 255)。但是,缓冲区大小略有不同。我从该 URL 从 Flickr 获得的图像是 375x500,它[pixelData length]
给了我750000 = 375*500*4
,这是预期值。但是,从返回的图像的像素数据imageFromSampleBuffer:
有 size 691208 = 360*480*4 + 8
,因此像素数据中有 8 个额外的字节。CVPixelBufferGetDataSize
本身返回这个off-by-8 值。我想了一会儿,这可能是由于在内存中对齐的位置分配缓冲区,但 691200 是 256 的倍数,所以这也不能解释。这种大小差异是我能分辨出的两个 UIImage 之间的唯一区别,它可能会导致麻烦。尽管如此,没有理由为缓冲区分配额外的内存会导致 EXC_BAD_ACCESS 违规。
非常感谢您的帮助,如果您需要更多信息,请告诉我。
iphone - iPhone:AVCaptureSession 捕获输出崩溃 (AVCaptureVideoDataOutput)
我正在捕获视频并将其转换为 CGImage 以对其进行处理。它将工作约 10 秒,获得内存警告然后崩溃(通常它表示数据格式化程序暂时不可用)。有人可以帮我解决问题吗?
转换图像的代码....
这个功能只是背景,看看我是如何设置视频输出的......
iphone - 使用 AVAudioRecorder 和 AVAudioPLayer 录制然后播放音频
我有一个捕捉声音的 AVAudioRecorder。我想要的是能够在录制时播放(AVAudioPlayer)录制的(AVAudioRecorder)声音。
我已将 AVAudioSession 属性设置为 playandRecord... 但我不知道如何对以下场景进行编程?就像您戴着头戴式耳机走路时,有人向您发出哔哔声,但您因为戴着耳机而无法听,但如果您的 iPhone 捕捉到哔哔声并立即播放怎么办。
如果我同时在同一个文件上录制和播放。这会是个问题吗?任何有关这方面的帮助都是可以预料的。
iphone - 模拟相机应用程序“点击对焦”
我正在努力模拟内置相机应用程序的基本功能。到目前为止,我一直停留在“点击对焦”功能上。
我有一个 UIView,当单指点击 UIView 时,我正在收集 UITouch 事件。调用以下方法,但相机焦点和曝光不变。
“相机”是我的 AVCaptureDevice,它不是零。有人可以告诉我哪里出错了吗?
欢迎提供线索和嘘声。
M。