我目前正在使用一个小的训练值数据集,不超过20,并且我正在获得大量的MSE。输入数据向量本身由16个参数组成,其中许多是二进制变量。在所有训练值中,16个参数中的大多数保持不变(但并非全部)。所有示例中的剩余输入变量彼此之间差异很大。也就是说,两个样本可能看起来是相同的,除了它们不同的两个参数,一个参数是二元变量,另一个是连续变量,其中差异可能大于单个标准差(对于那个变量的值集。)
我的单输出变量(截至目前)可以是一个连续变量,或者取决于在我的情况下减少错误的真正难度,我可以将其作为分类问题,使用12种不同的分类形式。 / p>
我一直在研究不同于我目前实现的前馈MLP的神经网络,因为我已经阅读了随机NN,梯形NN和许多形式的经常性NN。因为我没有时间尝试每一个可用的NN,所以我不知道应该调查哪一个。
虽然我的描述可能含糊不清,但是有人可以建议我应该调查哪个网络以最大限度地降低我的成本函数(截至目前为止,MSE)?
如果我的当前设置必须变得无法理解,因为预测正确输出这么少的高度变异的训练值,哪个网络最适合,我的数据集应该扩展到数千个样本的数量级(代价是有一个明显更冗余,看似同质的输入值集)?
任何帮助都非常感谢。
答案 0 :(得分:0)
20个样本非常小,特别是如果您有16个输入变量。很难确定哪一个输入对您的输出值负责。如果您保持网络简单(更少的图层),您可以使用与传统回归所需的样本一样多的样本。