问题标签 [magenta]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - magenta.js 努力为 melSpectrogram 加载外部模块“core/audio_utils”
我需要在 javascript 中创建一个 melSpectrogram 来评估我网站上的音频客户端(应该与 python 中的 librosa 相同)。但我真的很努力这样做,特别是我无法加载此处列出的audio_utils:
https://magenta.github.io/magenta-js/music/modules/_core_audio_utils_.html
有人可以帮我在我的网站的脚本标签中包含哪些库(例如通过 jsdelivr-CDN)以及如何访问 audio_utils 对象以访问方法“melSpectrogram”?
我能够访问 JavaScript 中的核心对象,但该对象不公开/未包含音频工具。
有一个简约的例子会很棒。
太感谢了!
node.js - 在 Node.js 中使用 Tensorflow 的 Magenta 根据输入的歌曲生成歌曲
我想知道是否可以将一堆歌曲输入 Magenta 并使用 AI 获得模仿这些歌曲的输出(我觉得 Magenta 应该能够做到这一点)。
例如,我可以输入一堆披头士乐队的歌曲,然后得到一首听起来像他们会播放的歌曲。
这可能吗?它会生成歌词和歌名吗?
tensorflow - 为什么 Magenta 预处理的输出少于输入?
我正在使用 Magenta 的Polyphony RNN来生成 MIDI 音乐。我有数据集,但是当涉及到 Magenta 的预处理时,它产生的输出比我预期的要少(它应该与输入相同)。我可以观察到有一些指标可以摆脱输入,但我真的不明白使用哪些或为什么使用它们。
我也不明白如何才能获得我没有作为输出获得的确切输入量(某些管道会产生多种变化)。
附在这篇文章之后,我将留下一张截图,说明管道处理完所有内容后的日志如何:
Polyphony RNN 管道日志:
过滤这些歌曲的相关代码片段可以在第447 - 453行之间执行的度量中找到,称为DAGPipeline_PolyExtractor_training_polyphonic_tracks_discarded_more_than_1_program
先感谢您。
javascript - 如何在 ReactJS APP 中调用预训练的 Magenta Tensorflow JS 任意样式迁移模型?
我是 ReactJS 的新手。我正在尝试在 ReactJS 应用程序中使用 Magenta TensorflowJS 库中预先训练的任意样式传输模型。https://www.npmjs.com/package/@magenta/image 尽管在 javascript 中有一个代码示例,但我发现很难将它纳入 React。这是 magenta npm 的示例代码,
我正在上传两个用户图像并将其 URL 存储在两个变量中。对于模型输入,要给出的基本图像和样式图像 URL 还是作为输入的图像?如链接中的示例所示,我不确定如何在 React 中调用 canvas 元素。如何在 ReactJS 中调用这个预训练模型?
python - 洋红色“音调传输”colab:音频切片之间的时间间隔是多少?
Magenta “Tone Transfer” colab获取一种乐器的音频并重新合成它,使其听起来像另一种乐器。凉爽的。
在此过程中,它会分析您上传的音频的特征:
audio_features = ddsp.training.metrics.compute_audio_features(audio)
print
这条线会产生各种数组,例如频率(以赫兹为单位):,220.2, 221.0, 300.5...
每个数组都代表给定时间片的分析。
我的主要问题是,数组中切片/样本之间的时间间隔是audio_features
多少?`(如果它甚至是恒定的......)其次,该间隔是否可以修改?第三(?),可以为每个数组元素获取时间戳吗?
我没有看到任何关于此的 API 文档。
我来自 Javascript;完全是 Python 的初学者,所以如果你从 colab 笔记本或 repo 本身中弄清楚了这一点,这也将有助于理解你是如何发现它的!
如果您好奇,我希望能够使用分析工具进行我自己的自定义音频操作、重新合成和分析,因此我试图ddsp.training.metrics.compute_audio_features(audio)
更准确地理解。谢谢!
python - 如何使用性能 RNN 对 midi 音符进行反向量化?
我在 Google-magenta 阅读了有关“Performance Rnn”的信息,并试图对我自己的 midi 文件进行反向量化。
阅读“自述文件”,我知道它会生成具有表现力时序的音乐我有一些带有量化音符的 midi 文件(所有音符的速度为 100),并试图通过表现力时序和各种速度来改变。
是否可以将输入作为我拥有的 MIDI 文件?或任何其他方式我可以做到这一点?
python - 如何在 google colab 中编写代码以重新运行所有脚本一定数量的迭代?
我正在尝试修改这个 google colab,以便您可以进行批处理,将所有重新合成的音频保存到 zip 中,并将其保存到您的 google 驱动器。
我正在考虑这样做,有人可以说他们正在上传多少个文件,然后在脚本结束时,它会进行一些编码以重新运行所有内容,但下一个音频文件已经加载。任何帮助都会很棒。
python - 使用经过训练的 RNN 模型在 Magenta-js 中生成 midi。matMul 中的错误:形状为 1,74 和 582,256 的张量的内部形状 (74) 和 (582) 必须匹配
我想训练我自己的 Drums_RNN 模型并使用它在带有 magenta-js 的网络浏览器中生成 MIDI。我使用预训练的 drums_rnn 模型进行 midi 生成和合成,但在使用我自己的训练模型时遇到了一些问题。
1)首先,我训练模型如下:
然后在 magenta-js 中使用该模型,如下所示:
这会导致以下错误,如https://github.com/magenta/magenta-js/issues/106中所述
2)正如上面链接的问题中所建议的,我通过包含“--hparams=attn_length=0”解决了这个问题
所以新的 train cmd 是:
我使用相同的 magenta-js 代码生成新的 MIDI,现在得到以下错误:
我还在这个问题的底部添加了整个错误跟踪。我感觉我的启动序列的输入维度与训练网络的维度不兼容。但是,我不知道如何解决它。
额外的信息:
我可以使用带有以下 cmd 的 CLI 使用此模型生成新的 midi 序列:
drums_rnn_generate --config="drum_kit" --run_dir="model_path" --hparams="batch_size=64,rnn_layer_sizes=[64,64],attn_length=0" --output_dir="path_2"
model.continueSequence()
但是,与from magenta-js不同,此 cmd 不需要启动序列。
- 当我使用预训练的 DrumsRNN 模型在 magenta-js 中生成 midi 时,我没有任何错误。
完整的错误跟踪:
python - 无法根据“performance_rnn_compact”模型配置从 *.mag 包中生成 midi 音符
我能够通过 colab 训练基于 perofrmance_rnn_compact 架构的 midi 数据集。我还可以通过以下方式生成一系列笔记:
不幸的是,我无法通过以下方式从我训练有素的检查点创建一个 mag 包:
看起来生成的捆绑文件可能已损坏或无法正常工作。它不能用于通过以下方式从中创建新的 midi 音符序列:
我认为这可能与我的 performance_with_dynamics_compact 模型的“紧凑”形状有关?
也许有人有想法?
我收到以下错误:
在此先感谢,克里斯蒂安
python - 传递的 save_path 不是有效的检查点 Tensorflow、Python、Magenta
我正在尝试使用 Google Colab遵循此处的代码,但出现错误:
我已将 TensorFlow 模型下载到谷歌驱动器(可以在此处找到),它适用于使用以下代码的编码阶段:
但是,一旦我添加了解码步骤:
我得到了错误the model checkpoint can't be found
,但除非我快疯了,否则我不得不在编码步骤中使用该模型,它工作得很好。