问题标签 [audioformat]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 检索 .wav 文件的标题、艺术家/作者和持续时间
我正在尝试.wav
使用以下代码获取我在 Java 项目中使用的文件的属性。但是,当我运行此代码时,方法format.getProperty("title")
、、format.getProperty("author")
和format.getProperty("duration")
都返回 null。我应该以不同的方式获取这些详细信息吗?
ios - 我想使用 AVFoundation 将我的输入节点下采样到 8000 采样率
我有以下代码可以尝试使用采样率 8000 我如何降低采样率?我找到了解决方案,但它对我不起作用!
这就是解决方案....
但是在我的 self.array 中总是 null = 0
我做错了什么?
qt - 如何在 QT 中获取音频文件的比特率?
看起来我错过了一些东西,但我不知道如何在 Qt 中获取 mp3 文件的比特率。我检查QAudioFormat
了频道,但仍然没有比特率值。如果我弄错了,请纠正我,谢谢。
ios - 多个文件上传的问题 - ios中的音乐和图像一起
在我的应用程序中,我必须将图像文件和音频文件上传到服务器。当我将两个文件一起上传时,它们已成功上传,但音频文件未作为音频接收,而是在服务器上以文本/纯文件类型接收。下面是发送文件的代码
上传文件后,我得到以下响应:- 音频文件以文本/纯文本形式接收,请参阅 audio_data > file_type 响应
}
javascript - 要创建 24 位 WAV 文件,我需要做些什么特别的事情吗?
我可以成功创建 16 位 wav 文件,但是在创建 24 位文件时,我听到的只是白噪声。我正在设置 24 位有符号整数数据块。我是否必须在 wav 文件头的字节 20 处设置一些特殊的音频格式?我目前正在使用格式 1。
编辑#1
该wBitsPerSample
字段设置为 24。wAvgBytesPerSec
(字节速率)字段设置为
并wBlockAlign
设置为
假设您已经这样做了,数据本身需要是 24 位对接(需要移位和屏蔽,除非数据已经来自 24 位字节源)。或者换一种说法:每个样本将占用 3 个字节。与 16 位一样,字节顺序很重要。
不过,我不知道这部分是否正确。
我的数据以 Float32 的形式出现,从 -1 到 1 ( AudioBuffer.getChannelData()
)。然后我将其转换为 Int24:
和
这个过程是否尊重规范(似乎我在做位移和屏蔽setInt24
)?
编辑#2
修改
至
成功了。我假设字节顺序不正确?我很困惑为什么将最后一个字节放在前两个字节之前是正确的顺序。
我还建议重新打开这个问题,因为它足够狭窄,不再被视为“广泛”。
java - Java 转换音频格式
我想要做的是我通过 TargetDataLine 类从麦克风捕获音频,用套接字发送它并通过 SourceDataLine 在另一端播放。问题是我正在捕获的麦克风仅支持:
我正在播放的扬声器仅支持:
当我直接得到48khz并推到32khz音频格式时,声音是有音调的,有什么方法可以将48khz单声道声音转换为32khz立体声?
android - Android MediaRecorder:AmrWb 和 ThreeGpp OutputFormat 的区别
如果我使用 Android MediaRecorder 记录我的文件,我可以像这样设置它的属性:
它生成一个3gpp -File。如果我将录制的文件发送到 Google Cloud Speech API,音频会被识别并转换为文本:
但是,如果我将 OutputFormat 更改为
它还会生成一个 .3gpp 文件,但 Google Cloud API 会引发错误。这很奇怪,因为我认为 OutputFormat 无关紧要,只是定义了在两种情况下都是 AMR 编码的编码数据的容器。所以我的问题是:
AMR 和 ThreeGpp OutputFormat 之间到底有什么区别?
android - 所有平台都本机支持哪种音频格式,用于录制和播放?
我们正在创建一系列应用程序,为各种应用程序录制用户的声音。用户可以记录他们的想法,或者描述一个场景,或者给其他人提供教育提示和笔记。
我们需要选择满足这些条件的文件格式:
- 更好地在 Android、iOS 和 Web 中本地播放
- 更好地降低编解码成本
- 更好地降低开发成本(我们不是健全的专家)
- 存储不是什么大问题,所以压缩并不重要,但网络流量很重要,因此最好尽可能紧凑
想到的最明显的选择是 MP3,但令我们惊讶的是,Android Studio 开箱即用不支持 MP3 编码。
我们搜索并试图找到最佳实践,再一次,令我们惊讶的是,尽管到处都大量使用声音和声音,但并没有写太多。
例如,在这篇文章中,MP3 是最常用的文件格式,然后是 ACC。但我们对 AAC 完全陌生。
那么,所有媒体都原生支持哪种音频格式,用于录制和播放?
javafx - JavaFX m4a (AAC) 内存消耗过多。备择方案?
我在游戏中使用 javaFX 来播放音乐和声音。最初我使用mp3
文件作为音频,但后来我了解到,由于这种格式附带的许可证,继续使用这种格式可能是不明智的。因此,我切换到m4a
(AAC)。但是,在使用m4a
vs测试程序后mp3
,我确定使用m4a
会增加程序的内存消耗,最多会增加一个 gig,并且在加载新音乐时会增加(由于程序的范围,SSCCE 是不可能的)。文件格式是每次测试唯一改变的东西。
我的问题:
m4a
已知在 javaFX 程序中存在问题?
我应该在 javaFX 中使用哪些音频格式?
java - java支持哪些有损音频格式?
我正在尝试实现客户端服务器 RTP 流媒体播放器。目前我正在使用 .wav 格式,它在我的场景中工作正常。但是 .wav 格式的问题是它消耗大量内存,我想要一些压缩更多的音频格式,消耗更少的内存空间。在这方面有损音频格式是有意义的。如果我能得到关于我应该使用哪种格式的帮助,我将不胜感激。与.wav 相比,压缩率是多少。它是否受Java支持(正如我尝试使用mp3但在将其转换为Raw PCM格式时遇到了很多困难,即使我成功转换,当Raw PCM以RTP数据包发送到客户端时。收到的音频完全是噪音。)