问题标签 [openmax]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - OMX_IndexParamVideoAvc 对 OMX 视频解码器的意义
OMX_IndexParamVideoAvc
我对OMX
视频解码器的重要性有疑问。具体来说,我的查询是:是否应该OMX Video Decoder
支持索引OMX_IndexParamVideoAvc
作为功能get
的一部分set
?
背景:
根据我的理解,从一个角度来看,这个索引更有用video encoder
,因为它被用来OMXIL Client
查询现有支持的底层组件,并根据客户的需要进一步配置编码器。
从规范的角度来看,我观察到规范确实表明了对视频解码器的 index OMX_IndexParamVideoAvc
on的支持,如规范的第 359 页所示。在本节中,只有和被填充。VPB+0
profile
level
可能我觉得这个索引可以用来OMX_GetParameter
检索最大值。组件支持的配置文件和级别。但是,也可以从中检索相同的内容OMX_IndexParamVideoProfileLevelQuerySupported
。
因此,我的主要疑问是:
应该
OMX video decoder
支持指数OMX_IndexParamVideoAvc
吗?如果支持此索引,那么当
OMXIL
客户端查询相同时,默认值应该是什么,比如LOADED
状态?只有在组件处于
EXECUTING
状态并且第一个缓冲区OMX_BUFFERFLAG_CODECONFIG
已被解码后,才能在逻辑上填充此索引的点。在达到此状态之前,解码器是否应仅填充最大值。profile
和level
字段并将其他字段设置为零?是否存在从 查询此索引的实际场景
OMX video decoder
?快速搜索显示对该索引的android
主要支持来自encoders
. 即使在AOSP
源代码中,实现对这个索引的支持Exynos
也是 forprofile
和level
. 因此,我并不特别相信该指数的预期用途OMX video decoders
。
常见实现:
当我试图搜索常见的实现时,我发现了一些有趣的数据。TI 和 Broadcomm 编码器支持此索引(在某些情况下部分支持),如OMX_VENC
和所示omx.broadcomm.video_encode
。然而,对解码器的类似搜索表明在解码器OMX_VDEC
中omx.broadcommn.video_decode
没有明显支持该索引。这种理解的唯一例外是在三星的 aries 实现中,如此处的解码器代码所示。
任何指针/评论/建议都会非常有帮助。在此先感谢。
android - 使用 ffmpeg libx264 for android 编码 RGB565 原始数据
我有以下关于android实现的问题
各种视频编解码器有何不同,尤其是“基于流和基于帧”
在许多论坛和问题上,每个人都在谈论 SPS、PPS 等,所以我在哪里可以找到有关编解码器的足够详细信息(请提及 RFC 文档以外的内容!!)以理解它并相关地使用 ffmpeg?
从这里是否可以使用内置的硬件解码器 od android 设备?如果是这样,如何?我是否需要使用 OpenMax-IL(或 AL 或 DL,我的意思是哪个是为了什么?)
ffmpeg 是否支持通过 libx264 对 RGB(或 RGBA)或 RGB565(或 RGB555)输入数据进行 H264 编码?
如果我的要求只是 h264 编码和解码,我可以在没有 ffmpeg 的情况下使用 libx264 吗?如果有任何示例/指南?
android - 以下函数中的索引是什么?
为什么在MP3Extractor
?
android - QOMX_COLOR_FormatYUV420PackedSemiPlanar64x32Tile2m8ka 转换器
我需要YUV
在 Android 上处理来自 H/W 解码输出的数据。
实际上,我使用的是 Nexus4,解码输出格式是QOMX_COLOR_FormatYUV420PackedSemiPlanar64x32Tile2m8ka
type。
但我需要YUV420 Planar
格式数据,需要转换。
你能分享转换功能或任何方式吗?
android - Android:为视频解码器创建 OMX 组件
我有一个将解码器(HEVC
)集成FFMPEG
到 Android 的新任务Stagefright
。为此,我首先需要创建一个OMX
组件,我接下来要做的是注册我的编解码器media_codecs.xml
,然后将OMX
组件注册到OMXCore
.
是否有任何指南或步骤来OMX
为视频解码器创建组件?其次,这个解码器只播放基本流(.bin
或.h265
文件),所以这里没有容器格式。
OMX
任何人都可以提供一些在为视频编解码器创建组件时要遵循的步骤或指南。任何类型的指针都会对我很有帮助。
提前致谢。
android-ndk - Android NDK 是否支持视频编码的本机方法(OMXAL)?
在 android-NDK-r9c 中,Google 提供了一个示例“native-media”。在这个示例中,我们可以在 C 级别使用 OMXAL 来完成 MeidaPlayer 的工作。
我想知道我们是否可以通过这种方式进行媒体编码?我试着写了相应的函数,但是失败了,根据报错,本地库中没有定义这个函数。
有人对这个有了解吗?谢谢!
android - 我们可以使用 OMX 在 android 上进行视频编码吗?
NDK 示例中有一个“native-media”项目,它在 C 级别调用 OMX 函数来进行视频解码和播放,但现在 NDK 似乎不支持 OMX 的编码,是真的吗?
此外,我还找到了这个链接。似乎人们在谈论使用 OMX 进行视频编码。但我在 android 中找不到有关 OMX 编码的更多信息。有人知道吗?
android - MediaCodec如何在Android中找到框架内的编解码器?
我试图了解 MediaCodec 如何用于硬件解码。
我对android内部的了解非常有限。
这是我的发现:
有一个 xml 文件表示 android 系统中的编解码器详细信息。
这意味着,如果我们使用媒体编解码器从 Java 应用程序创建编解码器
它应该在 xml 文件的帮助下找出相应的编码器。
我在做什么?
我试图弄清楚我们的代码的哪一部分正在读取 xml,并根据给定的“类型”找到编解码器。
1)应用层:
2) MediaCodec.java -> [框架/base/media/java/android/media/MediaCodec.java ]
3)
4) JNI 实现 -> [ frameworks/base/media/jni/android_media_MediaCodec.cpp ]
来自 frameworks/base/media/jni/android_media_MediaCodec.cpp
我对这种流动感到震惊。如果有人指出如何推进它会很有帮助。
谢谢。
android - 在 Jelly bean 4.1.1 划艇 DM3730 中启用硬件编码器
请执行我有关该问题的更长描述。
我有一个带有 DM3730 处理器的定制板,并从
目标: 启用硬件解码器。
2.1) 为此,我需要 OMAX-IL 接口。因此查看了从 TI 下载的源代码。但是我在hardware/ti/下找不到 代表 OMX 实现的 omap3/ 目录。
2.2)因此从AOSP果冻豆代码下载:
2.3)根据 https://source.android.com/devices/media.html
2.4) 更改了media_codec.xml以保留以下条目:
2.5)根据[注:我用最新的] IE:DVSDK构建DSP
首先想,想确认一下是否是正确的做法?或者我需要注意哪些其他基础?
我击中了哪里?
失败在
3.2 使用媒体播放器播放高清视频。下面是logcat。
我试过#dspexec -v
查看 libdspbridge 的代码后,它打开设备文件 /dev/dsplink,并枚举设备 [我不确定它在做什么],但由于向设备发送 ioctl,枚举失败。
http://androidxref.com/4.1.1/xref/hardware/ti/omap3/dspbridge/libbridge/dsptrap.c
DSPTRAP_Trap 将 dwResult 返回为 -1 。
请指出我的问题在哪里?
更新:
发现:
1) dsp-bridge, dsp-link 两个驱动程序都不同,以及为 dsp-link 构建的 DSP,我正在尝试使用 dsp-bridge。
stagefright - Stagefright:Stagefright 和 OMX Core 中的 OMX 子系统在哪个进程上下文中运行
我在使用 Stagefright 命令行实用程序时遇到了一些问题,我无法理解其中的OMX
子系统 ( OMX
, OMXMaster
)Stagefright
和OMX
核心是在当前应用程序的进程还是不同的进程中运行。代码的哪一部分Stagefright
解释了OMXCodec
和OMX
子系统之间的通信。google 上没有太多信息。我恳请读者对这些概念进行解释。