问题标签 [audacity]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
audio - 如何从音频剪辑中移除漂移的 DC 偏移?
我已经获得了一些音频剪辑的许可,但其中一些带有我所学到的“DC 偏移”,通常应该在制作过程中删除。
Audacity 的“归一化”过滤器能够修复静态 DC 偏移,但在将其应用到我的音频剪辑后,我注意到它们的 DC 偏移会发生变化(在 0.5 秒内,它可以在归一化幅度范围内从 0.05 变为 0.03)。例如:
左边,静音是 0.02,右边是 0.00 - 这是在 Audacity 标准化之后。
由于我不是音频工程师,也没有任何专业工具,有没有办法解决这个问题?
macos - WAV Audio recording for Sphinx-4 fail
I recorded a wav file using Audacity for testing transcriber demo from Sphinx-4, I followed the instruction in this post: Sphinx4 speech recognition trasncribe demo not working accurately for short wav file
especially in this answer:
I even reduced the noise afterward. But I get the null error when I try to print the hypothesis which mean there was a problem with my recording:
Line 41 where I print the hypothesis. what can I do to get it work? Thanks
Edit: The code is:
matlab - 如何使用 Scilab 获得类似 Audacity 的情节
我有一个音频文件,我大胆地分析它,频谱看起来像:
我想用 scilab 得到同样的结果,所以我运行了这段代码:
结果是:
我也试过这个:
结果不同,但仍然与大胆不一样,知道该怎么做吗?提前感谢您的帮助!
python - 出现特定频率时拆分音频文件
我正在制作电台,我们花了很多时间将节目存档并上传到我们的网站,因此我们正在为此寻找“自动”解决方案。我想出的是在每个节目的开始和结束点引入一个特定的频率(可能大约 21khz,我知道 FM 发射器的工作频率是 50 到 15khz,但录制的文件将直接来自混音器,而不是来自无线电传输)。
之后,我会复制文件,用带通滤波器将其过滤掉,这样我就有了相同的文件长度,但现在只有 21khz 的声音点。这可以使用 python 脚本或 Nyquist 来完成,尽管我不确定这是否可以通过 nyquist 的命令提示符自动完成。
接下来,这是我的问题,我需要导出标签(大胆)文件或 .XMCD、.CDDB 或 .CUE 文件以及这些频率发生的确切时间。最后,我将使用 mp3splt 将第一个“原始”文件与我创建的标签或提示或 CDDB 或 XMCD 文件分开。
直到现在,我还是大胆地做到了这一点,多亏了我找到的建议。我还阅读了关于 python 中的频率检测和关于在 python 中过滤记录的信息,并且还在 audacity 论坛中发现了这种有趣的方式,用于使用 python 导入时间戳
您认为继续解决该问题的最佳方法是什么?我能用python做到吗?也许有类似于静音检测的东西?
Audacity 导出的标签文本文件格式如下:
或者
提前感谢您的帮助
linux - 大胆安装错误
在 linux 中安装 audacity 时出现以下错误:
任何人都可以帮助我解决这个问题吗?
audio - 从音频文件中删除相同的音频部分
作为一名收藏家,我拥有从播客服务下载的数千个音频文件。所有提要都以 15 秒的相同介绍开始。这对我来说很烦人,所以我尝试将它们全部裁剪。
但它们都不是规则的。语音演示完全相同,但其中一些...
- ...从 00:00 或 00:05 或我们不知道的任何秒开始
- ...没有关于启动的介绍
我无法确定应该裁剪哪几秒。
问题:我们如何根据特定的音频剪辑裁剪所有音频文件?
用其他说法“检测相同的部分并删除它”?
audacity - How to remove Music from a song and keep Vocals
I Have a movie sample with audio transcription (For Blind People- There is a narrator explaining what is going on in the movie). I want to extract that.
What i so far tried was:
1- I have the sample without the transcription as well so i just imported both samples in Audacity. Inverted one and mixed. But it simply doesnt work ( Normalization is also applied)
2- I tooke the sample with audio description. splitted to mono, Took one channel and inverted. and mixed again. Now i have the movie without audio transcript. My intuition was that if i invert this result file again and mix it with the Actual one the other sounds should cross out and i would have the Narrator sound. But it did not happen! what shall i do now ? any suggestions ?
I have checked the following links so far :
http://www.howtogeek.com/61250/how-to-isolate-and-save-vocals-from-music-tracks-using-audacity/
http://www.labnol.org/software/tutorials/remove-vocals-song-mp3-music-instruments/1301/
audio - 批量 MP3 噪声去除
概述:
我有大约 1000 个MP3
文件需要对其执行去噪处理。
我过去曾将 Audacity 用于个人噪声消除操作,但 Audacity 不会为这项工作而削减它。Audacity 无法执行批量操作,我没有时间在 1000 多个MP3
文件上手动执行此操作。
关于噪音的一点:
噪声类似于白噪声,但在每个MP3
文件中略有不同,因此需要为每个文件构建不同的噪声配置文件MP3
。
噪音来自背景中的风扇(如果您想知道的话)。
问题:
MP3
从文件中自动去除鼻子的最佳方法是什么?
c++ - VST 插件:如何实现“前瞻”缓冲区?
我的目标是编写一个适用于Audition和Audacity的VST插件,因此我打算使用 VST v2.x。我是 VST 开发的新手,但我已经研究了这里的示例。到目前为止,大多数东西看起来都很简单。主要的“魔法”似乎发生在process()或processReplace()函数中。不过,不太确定这两个功能的优点/缺点是什么。
现在的“问题”是我的过滤器需要几秒钟的“前瞻”缓冲区(可能更长,取决于设置)。这意味着,在流程开始时,我需要填充我的内部缓冲区。而且,在该过程结束时,我需要从内部缓冲区中刷新待处理的样本。
我之前一直在为SoX(Sound eXchange)编写过滤器,它们的 API 乍一看与 VST 非常相似。在 VST中称为process() ,在 SoX API中称为flow() 。但是有一个主要区别:SoX API 中的flow()函数将输入缓冲区中可用的样本数量以及适合输出缓冲区的样本数量作为参数获取。flow()函数然后返回它从输入缓冲区获取的样本数以及它已写入输出的样本数缓冲。这意味着我不必在每次调用中处理所有可用的输入样本。并且单个调用可以返回比它消耗的样本更少的样本。因此,在流程开始时,我可以消耗所有输入样本,但根本不返回任何 输出样本!这样我就可以在开始时填充我的“前瞻”缓冲区。最后,SoX API 有一个drain()函数,主应用程序将在进程结束时调用该函数,以便从过滤器的内部缓冲区中刷新待处理的样本。
根据我对 VST 的了解,process()函数只有一个参数来指示输入和输出样本的数量。而且它没有办法限制输出样本的数量。显然,process()假设一个简单的“N 个样本输入,N 个样本输出”行为。那正确吗 ???
如果是这样,在 VST 中填充我的内部前瞻缓冲区的推荐方法是什么?在 VST 中最后刷新内部缓冲区的推荐方法是什么?
顺便说一句:我知道我当然可以通过在进程开始时的前几个process()调用中只返回“静音”来填充我的内部缓冲区。但这会延迟/移动整个音频文件,这是不想要的!它也没有解决如何在进程结束时刷新内部缓冲区的问题。
感谢您的任何建议!;-)
matlab - 如何将非常大的波形/音频文件(400meg/22+分钟)的左右声道导出为图像
如何将非常大的波形/音频文件(400meg/22+分钟)的左右声道导出为图像(最好的格式可能是矢量图像格式)参见下面的波形文件图像。我试图将左右通道叠加在一起以获得图形。
我知道我可以截屏,但无法放大 22 分钟以上的声音文件以适应一个屏幕。有没有办法将每个放大的频道导出为矢量图?