问题标签 [opencore]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android:OpenCore 是否支持音频效果?
我想问一下 OpenCore 是否支持音频效果。当我们尝试设置一些音频效果并尝试播放音频文件时(仅在opencore上支持),似乎没有启用效果。但是,当我们尝试播放仅在 stagefright 中支持的音频文件时,效果似乎正在发挥作用。所以我们认为opencore不支持音频效果。如果我错了,请纠正我。
任何反馈将不胜感激。
提前致谢,artsylar
iphone - 使用 Xcode4.2 为 ios5 编译 opencore-amr:没有包含路径来搜索limits.h
我正在尝试为opencore-amr项目编译一个静态库以在 ios 中使用。我的设置是 Xcode4.2 / iOS5 sdk(因为我还在运行 Snow Leopard)。我已调整此处附加的构建脚本以使用 -isysroot 而不是 --sysroot,并将 SDK var 更新为 /Developer/Platforms/iPhoneOS.platform/Developer/SDKs/iPhoneOS5.0.sdk
此时在配置检查中失败:
根据我的 config.log,此检查过程中的第一个失败是查找 limits.h:
再往下,它也无法使用以下命令找到 assert.h:
谁能指出我错过了什么或做错了什么?谢谢!
android - 我可以使用 OpenCORE 或 StageFright 在 Android 中编码或解码视频吗?
这个 Android 框架是否提供了为一个 Android 应用程序开发编码和解码功能的能力?
我知道有一个名为 MediaCodec 的 4.1 高级 API 提供了编码和解码视频的功能,但我不知道它是否真的使用其中一个媒体框架作为 Stagefright 来访问编解码器。
与使用 MediaCodec API 相比,直接使用其中一个框架进行编码或解码有哪些好处?
也许我很困惑,但我必须制作一个关于使用 Android 视频编码的项目,如果有人可以帮助我,我必须为此选择更好的选择......
vhdl - 在 VHDL 中处理中断
我们正在为我们的项目使用 OR1200,我们想为 FPGA 板的第 8 个按钮分配一个中断。下面是产生中断的代码:
我们只希望这个中断只被处理一次(按住按钮不应该再次调用中断),这就是为什么我们包含一个标志来检查这个(butt_int_tmp
)。
问题是中断调用不稳定。每次我们按下按钮时它都不会调用。当我们删除标志时,它会起作用,但在这种情况下,它的处理次数与我们按住按钮的次数一样多。
我们做错了什么?
python - 使用 urllib2 检查响应
我正在尝试通过使用 opencorporates api 增加页面计数器来访问页面。但问题是有时会有无用的数据。例如,在下面的权限代码 = ae_az 的 url 中,我得到的网页只显示了这个:
这在技术上是空的。如何检查此类数据并跳过此以进入下一个司法管辖区?
这是我的代码
android - Android MusicPlayer 使用 Stagefright 或 opencore
我读到如果media.stagefright.enable-player
已设置true
,则设备使用Stagefright
. 在我的设备中,build.prop
我看到了
当我在下面疲倦时
我托管了一个媒体播放器连接到的服务器套接字
我得到的日志是
现在我的疑问是,它是如何向我展示User-Agent: stagefright/1.1
的?media.stagefright.enable-player = false
build.prop
如果这不是确定使用哪个的方法,我如何检测是否opencore or stagefright ?
android - MediaCodec如何在Android中找到框架内的编解码器?
我试图了解 MediaCodec 如何用于硬件解码。
我对android内部的了解非常有限。
这是我的发现:
有一个 xml 文件表示 android 系统中的编解码器详细信息。
这意味着,如果我们使用媒体编解码器从 Java 应用程序创建编解码器
它应该在 xml 文件的帮助下找出相应的编码器。
我在做什么?
我试图弄清楚我们的代码的哪一部分正在读取 xml,并根据给定的“类型”找到编解码器。
1)应用层:
2) MediaCodec.java -> [框架/base/media/java/android/media/MediaCodec.java ]
3)
4) JNI 实现 -> [ frameworks/base/media/jni/android_media_MediaCodec.cpp ]
来自 frameworks/base/media/jni/android_media_MediaCodec.cpp
我对这种流动感到震惊。如果有人指出如何推进它会很有帮助。
谢谢。
android - 在 Jelly bean 4.1.1 划艇 DM3730 中启用硬件编码器
请执行我有关该问题的更长描述。
我有一个带有 DM3730 处理器的定制板,并从
目标: 启用硬件解码器。
2.1) 为此,我需要 OMAX-IL 接口。因此查看了从 TI 下载的源代码。但是我在hardware/ti/下找不到 代表 OMX 实现的 omap3/ 目录。
2.2)因此从AOSP果冻豆代码下载:
2.3)根据 https://source.android.com/devices/media.html
2.4) 更改了media_codec.xml以保留以下条目:
2.5)根据[注:我用最新的] IE:DVSDK构建DSP
首先想,想确认一下是否是正确的做法?或者我需要注意哪些其他基础?
我击中了哪里?
失败在
3.2 使用媒体播放器播放高清视频。下面是logcat。
我试过#dspexec -v
查看 libdspbridge 的代码后,它打开设备文件 /dev/dsplink,并枚举设备 [我不确定它在做什么],但由于向设备发送 ioctl,枚举失败。
http://androidxref.com/4.1.1/xref/hardware/ti/omap3/dspbridge/libbridge/dsptrap.c
DSPTRAP_Trap 将 dwResult 返回为 -1 。
请指出我的问题在哪里?
更新:
发现:
1) dsp-bridge, dsp-link 两个驱动程序都不同,以及为 dsp-link 构建的 DSP,我正在尝试使用 dsp-bridge。
android - OpenCore 和 Stagefright 的区别
我的理解:
1) OpenCore
/Stagefright
两者都是Android中的多媒体框架。
2)OpenCore
被替换为Stagefright
.
我不明白的是?
我在哪里可以找到诸如哪个版本支持哪个媒体框架之类的信息?
例如:我不确定 Jelly Bean 是否同时支持OpenCore
和Stagefright
?
请帮忙!!!
c++ - 如何将“opencore”库包装到 Windows Phone 组件?
在 iOS Android 等其他平台上,我找到了很多关于此的示例,但对于 windows 手机,因为 opencore 是由 C++ 编写的,我如何将其转换为 WRT 组件?谢谢