7

我正在使用 RecognizerIntent.ACTION_RECOGNIZE_SPEECH 开发一个 android 应用程序,我的问题是我不知道如何创建缓冲区来捕获用户输入的声音。我读了很多关于堆栈溢出的内容,但我只是不明白如何将缓冲区和识别服务回调包含到我的代码中。以及我将如何回放保存到缓冲区中的内容。

这是我的代码:

       public class Voice extends Activity implements OnClickListener {
   byte[] sig = new byte[500000] ;
   int sigPos = 0 ;
       ListView lv;
   static final int check =0;
   protected static final String TAG = null;

@Override
protected void onCreate(Bundle savedInstanceState) {



    // TODO Auto-generated method stub
    super.onCreate(savedInstanceState);


    setContentView(R.layout.voice);

    Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
        intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
            RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
    intent.putExtra(RecognizerIntent.EXTRA_CALLING_PACKAGE,
            "com.domain.app");

    SpeechRecognizer recognizer = SpeechRecognizer
            .createSpeechRecognizer(this.getApplicationContext());

    RecognitionListener listener = new RecognitionListener() {

        @Override
        public void onResults(Bundle results) {
            ArrayList<String> voiceResults = results
                    .getStringArrayList(SpeechRecognizer.RESULTS_RECOGNITION);
            if (voiceResults == null) {
                Log.e(TAG, "No voice results");
            } else {
                Log.d(TAG, "Printing matches: ");
                for (String match : voiceResults) {
                    Log.d(TAG, match);
                }
            }
        }

        @Override
        public void onReadyForSpeech(Bundle params) {
            Log.d(TAG, "Ready for speech");
        }

        @Override
        public void onError(int error) {
            Log.d(TAG,
                    "Error listening for speech: " + error);
        }

        @Override
        public void onBeginningOfSpeech() {
            Log.d(TAG, "Speech starting");
        }

        @Override
        public void onBufferReceived(byte[] buffer) {
            // TODO Auto-generated method stub
            TextView display=(TextView)findViewById (R.id.Text1);
                    display.setText("True");


              System.arraycopy(buffer, 0, sig, sigPos, buffer.length) ;
              sigPos += buffer.length ;

        }

        @Override
        public void onEndOfSpeech() {
            // TODO Auto-generated method stub

        }

        @Override
        public void onEvent(int eventType, Bundle params) {
            // TODO Auto-generated method stub

        }

        @Override
        public void onPartialResults(Bundle partialResults) {
            // TODO Auto-generated method stub

        }

        @Override
        public void onRmsChanged(float rmsdB) {
            // TODO Auto-generated method stub

        }
    };
    recognizer.setRecognitionListener(listener);
    recognizer.startListening(intent);




    startActivityForResult(intent,check);

}

@Override
public void onClick(View arg0) {
    // TODO Auto-generated method stub

}



}
4

1 回答 1

3

Android 语音识别 API(从 API 级别 17 开始)不提供可靠的音频捕获方式。

您可以使用“接收到的缓冲区”回调,但请注意

RecognitionListeneronBufferReceived

收到了更多的声音。此功能的目的是允许向用户提供有关捕获的音频的反馈。不保证会调用此方法。

buffer:一个缓冲区,包含一个代表单通道音频流的大端 16 位整数序列。采样率取决于实现。

RecognitionService.CallbackbufferReceived

服务应在收到声音后调用此方法。此功能的目的是允许向用户提供有关捕获的音频的反馈。

buffer:一个缓冲区,包含一个代表单通道音频流的大端 16 位整数序列。采样率取决于实现。

因此,此回调是针对捕获的音频的反馈,而不一定是捕获的音频本身,即可能是用于可视化目的的简化版本。此外,“无法保证会调用此方法”,即 Google 语音搜索可能会在 v1 中提供它,但随后决定在 v2 中将其删除。

另请注意,在识别过程中可以多次调用此方法。但是,如果缓冲区表示完整的录制音频或仅表示自上次调用以来的片段,则没有记录。(我假设是后者,但您需要使用语音识别器对其进行测试。)

因此,在您的实现中,您应该将缓冲区复制到一个全局变量中,以便在识别完成后将其保存到一个 wav 文件中。

于 2013-05-02T14:31:27.173 回答