我正在尝试 tfjs (https://github.com/tensorflow/tfjs-models/tree/master/speech-commands)的语音命令示例 首先自己训练一个模型,然后在演示中对其进行测试。
但是,我注意到/training
部分(https://github.com/tensorflow/tfjs-models/blob/master/speech-commands/training/cli.ts#L32)中模型的输入形状与演示中给出的模型(使用远程{{3的"batch_input_shape": [null, 43, 232, 1]
}})
我发现训练代码使用 MFCC 作为模型的功能,而演示则直接在浏览器的AnalyserNode.getFloatFrequencyData()
函数顶部使用 FFT 。我怀疑这就是两个模型的形状要求不同的原因。
我知道第一个使用wave文件,第二个使用 BrowserFFT ,但是当一个人尝试训练模型并使用演示对其进行测试时,它将无法直接运行。 所以我想知道如何才能为直接针对浏览器的给定演示训练模型?