我想做的应用
我想制作像Shazam这样的音频识别移动应用程序
- 世博会
- 世博会影音(https://docs.expo.io/versions/latest/sdk/audio)
- TensorFlow 服务
- 套接字.IO
我想每秒或每个样本通过 Socket.IO 将记录数据发送到基于机器学习的识别服务器(可能每秒发送数据采样率次数太多),然后移动应用程序接收并显示预测结果。
问题
录制时如何获取数据recordingInstance
?我阅读了世博会音频文件,但我不知道该怎么做。
至今
我跑了两个例子:
现在我想混合两个例子。感谢您的阅读。如果我可以console.log
记录数据,那将有很大帮助。
相关问题
https://forums.expo.io/t/measure-loudness-of-the-audio-in-realtime/18259
这可能是不可能的(播放动画?实时获取数据?)https://forums.expo.io/t/how-to-get-the-volume-while-recording-an-audio/44100
没有答案https://forums.expo.io/t/stream-microphone-recording/4314
根据这个问题,
https://www.npmjs.com/package/react-native-recording
似乎是一个解决方案,但它需要喷射。