5

为了通过 Google 服务器识别语音,我将 SpeechRecognizer 类与 RecognitionListener 结合使用,如Stephan这个问题回答中所建议的那样。此外,我尝试使用来自 RecognitionListener 的 onBufferReceived() 回调来捕获正在识别的音频信号,例如:

byte[] sig = new byte[500000] ;
int sigPos = 0 ;
...
public void onBufferReceived(byte[] buffer) {
  System.arraycopy(buffer, 0, sig, sigPos, buffer.length) ;
  sigPos += buffer.length ;
}
...

这似乎工作正常,除非 SpeechRecognizer 无法连接到 Google 服务器,当音频块没有复制到上述sig数组中,并且抛出 HTTP 连接超时异常。SpeechRecognizer 最终连接到 Google 服务器,识别结果表明接收到完整的音频信号;只有sig数组缺少一些音频块。

有人遇到同样的问题吗?任何解决方案的提示?谢谢!

4

3 回答 3

1

我倾向于说这可能是识别服务的行为不一致,甚至可能是您使用的 Android 版本中的错误。但是,文档指出,不能保证调用此方法以使其符合规范。到目前为止我注意到的是以下内容(在 Android 2.3.4 上):我在录制时获取字节,但是如果有例如 aSocketTimeout它会在一段时间后尝试将数据重新发送到服务器,但不会onBufferReceived再次调用相同的数据。用于测试的代码与您在帖子中链接的代码相同。

为什么您认为在该方法中收到的音频中缺少一些块?如果只是丢失了几个块,甚至可能是这种情况,尽管这些块丢失了,但识别仍然有效。

于 2011-05-10T06:56:53.697 回答
1

在现代版本中 onBufferReceieved 不起作用,您可以改为从语音识别意图检查记录/保存音频

于 2016-02-03T15:26:38.973 回答
1

实现这一目标的最佳方法是反过来。使用 , 捕获您的音频数据AudioRecord(我建议使用VOICE_COMMUNICATION而不是MIC作为输入,这样您可以获得真正干净的音频),然后将其传递给SpeechRecognizer. :)

于 2018-05-29T11:15:31.150 回答