我有200张图像的训练数据集,尺寸为28 x 28.我将它存储在train_dataset中,形状为200 x(28 * 28)。标签是形状200的一维。
即训练:(200,28,28)(200,)
我需要将这些训练数据拟合到逻辑回归的scikit模型中。的拟合(train_dataset,train_label)。
但拟合的拟合参数(X,y,sample_weight = None)具有数组(X).dim< 2和
还有数组(Y).dim< 2.
那么缩小train_dataset 有什么替代方案,但它需要大量的空间,即大小为200 x(28 * 28)的2d数组,并且还将它映射到1维维度的train_label?
如何训练尺寸> = 3 的这种train_dataset?
是否可以将其推广到n维。
训练时出错:
ValueError: Found array with dim 3. Estimator expected <= 2.
答案 0 :(得分:1)
如果处理图像,应用PCA
或主成分分析来减少数据集的维度总是一个好主意。
.fit()
接受一个2D数组,所以你有将它拉下来以便函数接受它但你可以应用PCA来获得60个特征来捕获大部分方差,例如得到一个形状的数据集(28 * 60)。
有关PCA的更多信息here。