我有一个使用libespeak(版本1.47.11)的应用程序以类似人类的声音宣布各种状态消息。
在将新线程引入应用程序之前,这很有效。现在,通常情况下,预期的单词后面都会出现乱码。有时,这些是之前宣布的更长时间消息的最终音节。其他时候,他们是数字或只是流浪信件。
我的代码类似于:
#include <espeak/speak_lib.h>
// ...
std::string message = "The rain in Spain falls mainly in the plain.";
espeak_Initialize(
AUDIO_OUTPUT_PLAYBACK, // plays audio data asynchronously
500, // length of buffers for synth function, in ms
nullptr, // dir containing espeak-data, or null for default
0); // options are mostly for phoneme callbacks, so 0
espeak_ERROR err = espeak_Synth(
message.c_str(), // text
message.size(), // size
0, // position to start from
POS_CHARACTER, // whether above 0 pos is chars/word/sentences
message.size(), // end position, 0 indicating no end
espeakCHARS_AUTO | // flags: AUTO 8 bit or UTF8 automatically
espeakENDPAUSE, // ENDPAUSE sentence pause at end of text
nullptr, // message identifier given to callback (unused)
nullptr); // user data, passed to the callback function (unused)
if (err != EE_OK)
cerr << "Error synthesising speech" << endl;
// Wait until everything has been spoken
espeak_Synchronize();
我尝试分配一个大的,归零的缓冲区并在将其传递给libespeak之前将其复制到其中,但它没有帮助。
这些调用的范围仍然存在,因为对espeak_Synchronize
的调用会阻塞,直到语音完成,因此没有删除message
字符串。就好像libespeak忽略了我要求的长度。
请注意,如果我缩短size
参数(第二个参数),则会截断语音字符串。
另请注意,我只是从多线程应用程序中的单个线程调用libespeak。
答案 0 :(得分:0)
我找到了解决这个问题的方法,但这并没有解释为什么语音之前会失败,但确实会使语音听起来像预期的那样。实际上代码现在看起来也好一点。
而不是使用AUDIO_OUTPUT_PLAYBACK
进行异步播放,然后等待语音通过espeak_Synchronize
完成,使用AUDIO_OUTPUT_SYNCH_PLAYBACK
进行同步播放并删除最终通话(它不会伤害,但不再需要。)