对于我的最后一年项目,我试图实时识别狗/树皮/鸟的声音(通过录制声音片段)。我使用MFCC作为音频功能。最初我使用jAudio库从声音片段中提取了12个MFCC向量。 现在我正在尝试训练机器学习算法(目前我尚未确定算法,但它很可能是SVM)。声音片段大小约为3秒。我需要澄清一些有关此过程的信息。他们是,
我是否必须使用基于帧的MFCC训练此算法(每帧12个) 或者基于整个剪辑的MFCC(每个声音剪辑12个)?
为了训练算法,我必须将所有12个MFCC视为12个不同的属性,还是必须将这12个MFCC视为一个属性?
这些MFCC是剪辑的整体MFCCS,
-9.598802712290967 -21.644963856237265 -7.405551798816725 -11.638107212413201 -19.441831623156144 -2.780967392843105 -0.5792847321137902 -13.14237288849559 -4.920408873192934 -2.7111507999281925 -7.336670942457227 2.4687330348335212
任何帮助都将非常感谢克服这些问题。我无法在Google上找到很好的帮助。 :)
答案 0 :(得分:4)
您应该计算每帧的MFCC。由于你的信号随时间变化,将它们整个剪辑都没有意义。更糟糕的是,你最终会得到具有类似代表性的狗和鸟。我将尝试几种帧长度。通常,它们将是毫秒级。
所有这些都应该是单独的功能。让机器学习算法决定哪个是最佳预测器。
请注意,MFCC对噪音非常敏感,因此请先检查样品的声音。用于提取的更丰富的音频特征选择由例如提供。 Yaafe library,其中许多将在您的情况下更好地服务。具体哪个?这是我在鸟类召唤分类中最有用的内容:
也许您可能会感兴趣的是签出this project,尤其是我与Yaafe接口的部分。
回到我使用SVM的日子,正如您计划的那样。今天我肯定会采用梯度增强。