标签: deep-learning speech-recognition speech-synthesis
我正在尝试实现UIS-RNN进行说话人区分,但是它没有创建dvector和细分的方法。
如何创建dvector以馈入RNN 我尝试了https://github.com/HarryVolek/PyTorch_Speaker_Verification/ 但它已经使用了model.model文件。我认为,为了在个人音频数据集上创建dvector,可能需要再次创建model.model文件。
任何帮助都会很棒