我开发了一些算法来对MNIST数据集中的数字进行分类。问题是这些算法有2个参数,我使用svm进行分类,它们也有2个参数(C和gamma)。找到所有最佳的方法需要相当长的时间。我还注意到,当我使用2000的C时,我得到98.15%的准确度,相比之下,当C为1时,准确率为90%左右,伽马也非常高。让这些参数如此之高以获得良好结果是否正常?
但我的主要问题是:考虑到MNIST数据非常大,我可以使用每个类少得多的数字(例如每个类1000个)而不是总数60000来了解哪里可以找到好的参数?减少训练数据对参数的影响究竟如何?