问题标签 [qtkit]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
154 浏览

interface-builder - QTMovieView 不在托盘中

我正在尝试遵循QTKit 教程。我添加并包含 QTKit 框架和 .h 文件。我创建 QTMovie 属性。然后在 IB 中,我应该从库中拖出 QTMovieView 但它不存在。如果我转到“类”选项卡,我可以找到它。但是,当我把它拖出来时,它没有像电影源或任何东西那样设置的属性......

有任何想法吗?

0 投票
2 回答
1183 浏览

objective-c - 使用 QTkit 录制音频

看起来使用核心音频录制音频过于复杂。虽然 QTkit 是基本的和脚踏实地的但是。我看到的所有示例都将视频和音频集成在一起。有人有或知道使用 QTkit 录制音频的示例吗?

0 投票
1 回答
1216 浏览

objective-c - 请在可可示例中录制声音!

我一直在这个网站和网络上搜索一个使用 QTKit 或音频队列并且实际工作的示例可可应用程序。

不幸的是,我找不到任何符合上述描述的东西。

我想做的就是获得一个简单的录音应用程序,这样我就可以了解它是如何工作的!

拜托,我已经为此投入了大量时间,所以不要将我指向 Apple Dev。对于我简单的大脑来说,它太密集了。

是的,这里有一两个骗子,但他们都没有真正产生令人满意的结果。

生无可恋!我觉得这应该更容易。我开始担心深入了解 Cocoa,因为开发人员文档确实不好。

帮助!

0 投票
3 回答
1292 浏览

objective-c - 使用 QTKit 合并和转换 MP3 文件

我正在尝试使用 QTKit 将两个 .mp3 组合成一个 .wav 文件。它似乎正在工作,但第二个文件的最后几秒钟被截断了。有任何想法吗?

(忽略等待 QTMovieLoadStateComplete 的 while 循环。我将来会切换到使用通知。但现在,它应该没关系......)

0 投票
1 回答
224 浏览

cocoa - QTMovie 是否处理 URL 重定向?

我只是想知道 QTMovie 类是否确实处理 URL 重定向,因为我正在使用它流式传输音频文件,并且流 URL 可以包含重定向。有时电影不会开始播放但不会抛出错误(我总是在主线程上操作,我知道这个类不是线程安全的)。

任何想法为什么 QTMovie 可能无法开始播放?

问候, 埃里克

更新:


QTMovie-userInfo在错误时返回以下 dict。403 是指 HTTP 403 吗?

0 投票
1 回答
556 浏览

objective-c - 如何查看使用 QTKit 转换电影的进度?

如何查看使用以下 QTKit 代码转换电影的进度?

即我想查看电影转换的进度,以便可以在进度条中显示它。

0 投票
1 回答
1427 浏览

macos - 在 Mac OS X 上使用 QTKit 播放视频数据流

我已经用 QTKit 玩了几天,我成功地能够使用 a 等将视频数据从相机记录到文件QTCaptureSessionQTCaptureDeviceInput

但是,我想要做的是将数据发送到另一个位置,通过网络或同一应用程序中的不同对象(没关系),然后像流一样播放视频数据。

我有一个QTCaptureMovieFileOutput并且我nil作为文件 URL 传递,因此它实际上不会将数据记录到文件中(我只对QTSampleBuffer通过委托回调可用的数据中包含的数据感兴趣)。

QTCompressionOptions在输出上设置了一个对象,指定 H264 视频和高质量 AAC 音频压缩。

每次收到回调时,我都会将样本缓冲区中的数据附加到NSMutableData我作为实例变量的对象中。

我遇到的问题是 QTKit 框架中没有“播放器”对象似乎能够播放视频数据的“流”。我在这个假设中正确吗?

我尝试使用我的数据实例变量创建一个QTMovie对象(在 a 中播放QTMovieView),但我收到数据不是电影的错误。

我是否从错误的角度处理这个问题?

以前我使用 a它为每个视频帧QTCapturePreviewOutput传递s 。CVImageBufferRef我正在将这些框架转换NSImages为在视图上显示。
虽然这给人一种流媒体的印象,但它很慢而且处理器很饿。

其他人是如何克服流媒体视频问题的?

0 投票
1 回答
2138 浏览

cocoa - 从 H.264 样本数据中提取图像(Objective-C / Mac OS X)

给定 H.264 的样本缓冲区,有没有办法提取它表示为图像的帧?

我正在使用 QTKit 从相机捕获视频并使用 aQTCaptureMovieFileOutput作为输出对象。

我想要类似于CVImageBufferRef作为参数传递给QTCaptureVideoPreviewOutput委托方法的东西。由于某种原因,文件输出不包含CVImageBufferRef.

我得到的是一个 QTSampleBuffer,因为我在压缩选项中设置了它,它包含一个 H.264 样本。

我已经看到,在 iPhone 上,CoreMedia 和 AVFoundation 可用于CVImageBufferRef从给定创建一个CMSampleBufferRef(我想这与我能得到的一样接近QTSampleBuffer)——但这是 Mac,而不是 iPhone。

CoreMedia 或 AVFoundation 都不在 Mac 上,我看不到任何方法可以完成相同的任务。

我需要的是来自输出对象回调给我的 H.264 样本的当前帧的图像(无论是 CVImageBufferRef、CIImage 还是 NSImage 都无关紧要)。


扩展信息(来自下面的评论)

我发布了一个相关问题,重点关注原始问题 - 尝试使用 QTKit 简单地播放视频样本流:在 Mac OS X 上使用 QTKit 播放视频数据流

这似乎是不可能的,这就是为什么我开始尝试通过缩放、压缩和转换图像数据并通过网络将其发送到对等方来CVImageBufferRef尝试获取帧作为图像并创建视频外观。NSImage

我可以使用QTCapturePreviewVideoOutput(或解压缩的)以CVImageBufferRef.

但是,这些图像引用在对我有用之前需要压缩、缩放和转换为s,因此尝试使用(允许在之前设置压缩和图像大小)NSImage从框架中获取已经缩放和压缩的帧QTCaptureMovieFileOutput开始捕获),使我不必进行昂贵的压缩、缩放和转换操作,这些操作会杀死 CPU。

0 投票
3 回答
5460 浏览

cocoa - Converting CVImageBufferRef to PNG

I want to write all frames to disk using QTKit.framework for camera input. But all the images I get are half transparent and without some colors, maybe colorspace problem? ;( They seem good in the preview View but when I write them "something" happens. I wonder what it that.

Capturer attributes are just frame size and pixel format like so: [NSNumber numberWithUnsignedInt:kCVPixelFormatType_32ARGB], (id)kCVPixelBufferPixelFormatTypeKey

Update:

I have tried with JPEG also and I get the same kind of image, like there are some channels lacking in the image and all written frames have a white background. (since JPEG does not allow transparence ??)

The original and the written (JPEG) one:

alt text alt text (I don't show the PNG since is transparent and is difficult to see in a browser)

Thanks in advance.

0 投票
1 回答
448 浏览

objective-c - How to add a socket as QTCaptureOutputs for a QTCaptureSession

I'm reading Apple's documentation on using QTKit to capture streaming audio and video from input sources. I read that the central class QTCaptureSession handles the input and sends it to every possible output (QTCaptureOutput). The documentation lists six subclasses of QTCaptureOutput (e.g., QTCaptureMovieFileOutput).

I would like to create a subclass of QTCaptureOutput to write to an NSSocket so I could send the video stream over to another machine.

Any ideas would be appreciated.