0

这个 Android 框架是否提供了为一个 Android 应用程序开发编码和解码功能的能力?

我知道有一个名为 MediaCodec 的 4.1 高级 API 提供了编码和解码视频的功能,但我不知道它是否真的使用其中一个媒体框架作为 Stagefright 来访问编解码器。

与使用 MediaCodec API 相比,直接使用其中一个框架进行编码或解码有哪些好处?

也许我很困惑,但我必须制作一个关于使用 Android 视频编码的项目,如果有人可以帮助我,我必须为此选择更好的选择......

4

2 回答 2

1

您应该使用 MediaCodec api 而不是任何较低级别的 api。然后 MediaCodec api 将在内部使用适当的框架。这是因为 android 供应商会将他们自己的编解码器和硬件/dsp 加速编解码器集成到框架中,并将它们设置为 MediaCodec api 的默认值。他们将确保他们的编解码器与 MediaCodec api 一起工作。如果您使用 MediaCodec api,它将适用于所有设备,而与下面使用的框架无关。这就是那个 api 的用途。

除非你特别想用 OpenCore/Stagefright 做一些测试,否则不要去那里。

于 2012-11-28T04:48:56.150 回答
1

您正在尝试做的事情是由供应商/集成商完成的。最好的解决方案是(如果您可以访问平台的自定义源代码 - > 如果没有,请使用任何免费板)以这种方式将您的硬件 enc 与 libstagefright(作为 OMX 组件)集成,您将完成 YUV 的编码封装成任何所需的(来自受支持的)格式,然后您可以使用一些高级 rtp api 来封装和管理流式传输(只需从谷歌叔叔关于 android 和 rtp 的回答中得出结论)。

于 2013-01-26T08:20:28.973 回答