我已经实现了一个基于多层感知器的神经网络来解决与音频回归(真实回归)相关的问题。通过互联网阅读文档,科学文章和其他一些实现,我得出的结论是多层感知器不足以解决我的问题,因为如果输出是二进制的,它可以正常工作,但我需要实际输出,如果输出在范围(0,1)内,则独立。
问题是网络没有正确训练,因为当我连续呈现相同的例子时,它会在激活函数的梯度方向上正确调整权重,但是当训练随机挑选训练样例时,效果不好。
我曾想过在训练集的每个EPOCH之后使用遗传算法来调整权重,以指导网络的重量调整。
有人能指导我一点吗?我还考虑过使用另一种网络结构作为Adaline,或者即使它变得难看,尝试实现一个支持向量机(我不喜欢xD)
非常感谢您提前
答案 0 :(得分:0)
无论训练类型如何,使用您提到的表现良好的功能(与音频的复杂性相比)都无法让您到达目的地。
让我们从头开始 - 你试图捕捉音频的哪些特征/特征?
你的样品等多长时间了?