我想使用深度学习进行多类别分类(softmax,keras)。因此,我构建了模型,并得到了错误,该错误是关于预期输出形状和实际输出形状不同的。在我的情况下,类型为1,2,3,因此预期形状为3(3类),但实际形状为4。当将1,2,3更改为0,1,2或设置预期形状时,此错误已解决。到4。后者意味着将3类分类更改为4类分类。为什么这段代码正在运行?在这种情况下,什么是预测概率?我如何评估这些结果?
这是示例代码。
from sklearn import datasets
iris = datasets.load_iris()
# X -> features, y -> label
X = iris.data
y = iris.target
mini_dict = {0: 'a', 1: 'b', 2: 'c'}
y = pd.Series(y, name=None).replace(mini_dict)
mini_dict = {'a': 3, 'b': 1, 'c': 2}
y = pd.Series(y, name=None).replace(mini_dict)
def multiclass_model():
model = Sequential()
model.add(Dense(10,input_dim=4))
model.add(Dropout(0.1))
model.add(Dense(3,activation='softmax')) #this is expected shape
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy','categorical_accuracy'])
return (model)
model=KerasClassifier(build_fn=multiclass_model, epochs=20, batch_size=3, verbose=0)
model.fit(X,y.values)
并得到此错误。
Error when checking model target: expected dense_94 to have shape (None, 3) but got array with shape (150, 4)
然后下一个重新定义multiclass_model
def multiclass_model():
model = Sequential()
model.add(Dense(10,input_dim=4))
model.add(Dropout(0.1))
model.add(Dense(4,activation='softmax')) #change 3 to 4
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy','categorical_accuracy'])
return (model)
model=KerasClassifier(build_fn=multiclass_model, epochs=20, batch_size=3, verbose=0)
model.fit(X,y.values)
没有错误,我可以获得预测值。
model.predict_proba(X[0:5])
array([[2.52738446e-05, 2.23150160e-02, 3.87168024e-04, 9.77272570e-01],
[5.91093449e-05, 4.23159041e-02, 1.24582055e-03, 9.56379175e-01],
[5.94217017e-05, 3.10160406e-02, 7.65587494e-04, 9.68158960e-01],
[1.07116306e-04, 4.50214930e-02, 1.48290978e-03, 9.53388453e-01],
[2.73615278e-05, 2.02178583e-02, 3.34151875e-04, 9.79420602e-01]],
dtype=float32)
y.values[:5]
array([3, 3, 3, 3, 3])
我不知道这些值的可靠性。
检查班级编号
np.unique(y.values)
array([1, 2, 3])
答案 0 :(得分:0)
当您要进行多类分类时,需要对标签向量进行one-hot encoding
处理。由于您的y.values
输出,我假设您的y
看起来像这样[1,2,3,2...]
。但是Tensorflows KerasClassifier
会处理此问题,这可以在源代码中看到。(source)因此,您的标签将变成类似[[0],[1],[2],[1],...]
的标签。在下一步中,这些标签将被one-hot
编码,也可以在源代码中看到。(source)现在,您的标签看起来像这样[[1,0,0],[0,1,0],[0,0,1],[0,1,0]]
。
因此,根据我的理解,如果您在输出层中仅使用3个类而不是4个类,那么一切都应正常工作。
因此,请再次检查标签数据y
,例如np.unique(y.values)
。我的猜测是您不小心创建了一个包含[0,1,2,3]
的标签向量。