如何使用RecognizerIntent构建BufferReceived()来捕获语音?

时间:2013-05-02 13:37:53

标签: android speech-recognition voice-recognition

我正在使用Android应用程序  RecognizerIntent.ACTION_RECOGNIZE_SPEECH ,,,我的问题是,我不知道如何  创建将捕获用户输入的语音的缓冲区。一世  在堆栈溢出上读了很多,但我只是不明白如何  我将缓冲区和识别服务调用包含在我的代码中。以及我将如何回顾那些保存在缓冲区中的内容。

这是我的代码:

       public class Voice extends Activity implements OnClickListener {
   byte[] sig = new byte[500000] ;
   int sigPos = 0 ;
       ListView lv;
   static final int check =0;
   protected static final String TAG = null;

@Override
protected void onCreate(Bundle savedInstanceState) {



    // TODO Auto-generated method stub
    super.onCreate(savedInstanceState);


    setContentView(R.layout.voice);

    Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
        intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
            RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
    intent.putExtra(RecognizerIntent.EXTRA_CALLING_PACKAGE,
            "com.domain.app");

    SpeechRecognizer recognizer = SpeechRecognizer
            .createSpeechRecognizer(this.getApplicationContext());

    RecognitionListener listener = new RecognitionListener() {

        @Override
        public void onResults(Bundle results) {
            ArrayList<String> voiceResults = results
                    .getStringArrayList(SpeechRecognizer.RESULTS_RECOGNITION);
            if (voiceResults == null) {
                Log.e(TAG, "No voice results");
            } else {
                Log.d(TAG, "Printing matches: ");
                for (String match : voiceResults) {
                    Log.d(TAG, match);
                }
            }
        }

        @Override
        public void onReadyForSpeech(Bundle params) {
            Log.d(TAG, "Ready for speech");
        }

        @Override
        public void onError(int error) {
            Log.d(TAG,
                    "Error listening for speech: " + error);
        }

        @Override
        public void onBeginningOfSpeech() {
            Log.d(TAG, "Speech starting");
        }

        @Override
        public void onBufferReceived(byte[] buffer) {
            // TODO Auto-generated method stub
            TextView display=(TextView)findViewById (R.id.Text1);
                    display.setText("True");


              System.arraycopy(buffer, 0, sig, sigPos, buffer.length) ;
              sigPos += buffer.length ;

        }

        @Override
        public void onEndOfSpeech() {
            // TODO Auto-generated method stub

        }

        @Override
        public void onEvent(int eventType, Bundle params) {
            // TODO Auto-generated method stub

        }

        @Override
        public void onPartialResults(Bundle partialResults) {
            // TODO Auto-generated method stub

        }

        @Override
        public void onRmsChanged(float rmsdB) {
            // TODO Auto-generated method stub

        }
    };
    recognizer.setRecognitionListener(listener);
    recognizer.startListening(intent);




    startActivityForResult(intent,check);

}

@Override
public void onClick(View arg0) {
    // TODO Auto-generated method stub

}



}

1 个答案:

答案 0 :(得分:3)

Android语音识别API(从API级别17开始)不提供捕获音频的可靠方法。

您可以使用“缓冲已接收”回调但请注意

RecognitionListeneronBufferReceived

  

收到了更多声音。此功能的目的是允许   向用户提供关于捕获的音频的反馈。没有   保证将调用此方法。

     

buffer :包含16位大端序列的缓冲区   表示单通道音频流的整数。采样率   是依赖于实现的。

RecognitionService.CallbackbufferReceived

  

服务应在收到声音时调用此方法。该   此功能的目的是允许向用户提供反馈   关于捕获的音频。

     

buffer :包含16位大端序列的缓冲区   表示单通道音频流的整数。采样率   是依赖于实现的。

因此,此回调用于关于捕获的音频的反馈,而不一定是捕获的音频本身,即可能是用于可视化目的的简化版本。此外,“无法保证将调用此方法”,即Google语音搜索可能会在v1中提供此方法,但随后决定在v2中将其删除。

另请注意,在识别过程中可以多次调用此方法。但是,如果缓冲区表示完整录制的音频或仅表示自上次呼叫以来的片段,则无法记录。 (我假设后者,但您需要使用语音识别器进行测试。)

因此,在您的实现中,您应该将缓冲区复制到要保存的全局变量中,例如识别完成后进入wav文件。