我正在尝试开发一个法语学习应用程序,为此,我使用Python语音识别API来检测一个人说了什么,然后向他提供有关他说了什么以及他需要提高多少的反馈。但是API的响应非常慢。可能是什么原因。
在堆栈溢出的答案之一中,我发现正在检查应用程序的输入源。我尝试使用内置麦克风和头戴式麦克风,但均无效果。与此平行的是,我还使用CMUSphinx语音API,该API可以快速检测声音并做出响应,但准确性很差,因此我认为应用程序正在从麦克风接收声音。
with sr.Microphone() as source:
r.adjust_for_ambient_noise(source)
print("Testing Online ASR module. Backend Google Web Speech API..\n")
while(1):
print("Speak Now..\n")
audio = r.listen(source)
try:
text = r.recognize_google(audio, language='fr-FR')
response = json.dumps(text, ensure_ascii=False).encode('utf8')
print("You Said: " + str(response))
except Exception as e:
print(" ")
答案 0 :(得分:0)
可能是什么原因。
仅当NSA批准您获得结果时,它才会将数据发送到计划的另一侧,即首先由NSA存储和分析数据
我还使用CMUSphinx语音API,该API可快速检测声音和响应,但准确性很差
正确的方法是尝试像Kaldi这样的基于NN的东西