我有一个大小为n的输入的神经网络,我想将它扩展到一个输入大小为n + m且m> 1的网络。怎么样?
更多细节: 我正在训练一个分类器,它将实例的概率分布作为输入并输出二进制值。例如,假设我的数据集中的每个实例都有10个不同的标签(例如MNIST),我有所有实例的概率分布。让我们说我想将这些实例归类为好/坏。让我们说我已经在一个数据集(MNIST)上训练了一个模型,现在我想将它扩展到另一个数据集,如cifar-100,其中每个实例可以有100个不同的标签。我想设计一个模型(神经网络),可以在一个数据集上训练并在另一个数据集上训练。 例如,人们在ImageNet上训练AlexNet,并通过删除最后一层,并添加另一个不同大小的图层,在另一个数据集上对其进行微调。 当约束在输入而不是网络输出时,我怎么能做类似的事情?是否可以设计一个可变长度输入的网络?或者是否可以更改1,2层并在另一个数据集上微调网络? [问题清楚了吗? :)]
答案 0 :(得分:0)
您可以使用Opencv或PIL在CIFAR-100(32x32)中调整图像大小,使其大小为MNIST(28x28),并使用Deep Belief Networks对图像进行无监督微调。