我正在使用Android应用程序 RecognizerIntent.ACTION_RECOGNIZE_SPEECH ,,,我的问题是,我不知道如何 创建将捕获用户输入的语音的缓冲区。一世 在堆栈溢出上读了很多,但我只是不明白如何 我将缓冲区和识别服务调用包含在我的代码中。以及我将如何回顾那些保存在缓冲区中的内容。
这是我的代码:
public class Voice extends Activity implements OnClickListener {
byte[] sig = new byte[500000] ;
int sigPos = 0 ;
ListView lv;
static final int check =0;
protected static final String TAG = null;
@Override
protected void onCreate(Bundle savedInstanceState) {
// TODO Auto-generated method stub
super.onCreate(savedInstanceState);
setContentView(R.layout.voice);
Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
intent.putExtra(RecognizerIntent.EXTRA_CALLING_PACKAGE,
"com.domain.app");
SpeechRecognizer recognizer = SpeechRecognizer
.createSpeechRecognizer(this.getApplicationContext());
RecognitionListener listener = new RecognitionListener() {
@Override
public void onResults(Bundle results) {
ArrayList<String> voiceResults = results
.getStringArrayList(SpeechRecognizer.RESULTS_RECOGNITION);
if (voiceResults == null) {
Log.e(TAG, "No voice results");
} else {
Log.d(TAG, "Printing matches: ");
for (String match : voiceResults) {
Log.d(TAG, match);
}
}
}
@Override
public void onReadyForSpeech(Bundle params) {
Log.d(TAG, "Ready for speech");
}
@Override
public void onError(int error) {
Log.d(TAG,
"Error listening for speech: " + error);
}
@Override
public void onBeginningOfSpeech() {
Log.d(TAG, "Speech starting");
}
@Override
public void onBufferReceived(byte[] buffer) {
// TODO Auto-generated method stub
TextView display=(TextView)findViewById (R.id.Text1);
display.setText("True");
System.arraycopy(buffer, 0, sig, sigPos, buffer.length) ;
sigPos += buffer.length ;
}
@Override
public void onEndOfSpeech() {
// TODO Auto-generated method stub
}
@Override
public void onEvent(int eventType, Bundle params) {
// TODO Auto-generated method stub
}
@Override
public void onPartialResults(Bundle partialResults) {
// TODO Auto-generated method stub
}
@Override
public void onRmsChanged(float rmsdB) {
// TODO Auto-generated method stub
}
};
recognizer.setRecognitionListener(listener);
recognizer.startListening(intent);
startActivityForResult(intent,check);
}
@Override
public void onClick(View arg0) {
// TODO Auto-generated method stub
}
}
答案 0 :(得分:3)
Android语音识别API(从API级别17开始)不提供捕获音频的可靠方法。
您可以使用“缓冲已接收”回调但请注意
RecognitionListener说onBufferReceived
:
收到了更多声音。此功能的目的是允许 向用户提供关于捕获的音频的反馈。没有 保证将调用此方法。
buffer :包含16位大端序列的缓冲区 表示单通道音频流的整数。采样率 是依赖于实现的。
和RecognitionService.Callback说bufferReceived
:
服务应在收到声音时调用此方法。该 此功能的目的是允许向用户提供反馈 关于捕获的音频。
buffer :包含16位大端序列的缓冲区 表示单通道音频流的整数。采样率 是依赖于实现的。
因此,此回调用于关于捕获的音频的反馈,而不一定是捕获的音频本身,即可能是用于可视化目的的简化版本。此外,“无法保证将调用此方法”,即Google语音搜索可能会在v1中提供此方法,但随后决定在v2中将其删除。
另请注意,在识别过程中可以多次调用此方法。但是,如果缓冲区表示完整录制的音频或仅表示自上次呼叫以来的片段,则无法记录。 (我假设后者,但您需要使用语音识别器进行测试。)
因此,在您的实现中,您应该将缓冲区复制到要保存的全局变量中,例如识别完成后进入wav文件。