在分类问题中,我想进一步将输出类存储到更少的存储桶中。 我有4个输出类(即0、1、2、3)。但是在培训期间,我还想跟踪2个课程的准确性:
为此,我创建了一个新指标并使用模型进行了编译:
def new_classes_acc(y_true, y_pred):
actual = tf.floor( y_true / 2 )
predicted = tf.floor( y_pred / 2 )
return K.categorical_crossentropy(actual, predicted)
像这样编译它:
model.compile(loss='categorical_crossentropy', optimizer=optimizer, metrics=['accuracy', new_classes_acc])
我得到nan
作为精度值。正确的方法是什么?
答案 0 :(得分:2)
由于有4个类别,并且您已将categorical_crossentropy
设置为损失,因此标签被一键编码,并且形状为(n_samples, 4)
。因此,首先需要使用argmax
函数找到真实的和预测的类,然后使用floor
函数(此外,您要创建度量标准而不是损失函数;因此,不应使用{{1 }}):
K.categorical_crossentropy
现在,让我们对其进行测试。首先,我们创建一个简单的模型并将其编译:
from keras import backend as K
import tensorflow as tf
def custom_metric(y_true, y_pred):
tr = tf.floor(K.argmax(y_true, axis=-1) / 2)
pr = tf.floor(K.argmax(y_pred, axis=-1) / 2)
return K.cast(K.equal(tr, pr), K.floatx())
然后我们创建虚拟数据:
model = Sequential()
model.add(Dense(4, activation='softmax', input_shape=(2,)))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy', custom_metric])
并使用我们的模型预测给定数据的标签:
import numpy as np
data = np.array([1, 2]).reshape(1, 2)
因此,第二类概率最高,将是预测的标签。现在,考虑我们定义的自定义指标,给定print(model.predict(data))
# prints: [0.04662106, 0.8046941 , 0.07660434, 0.0720804 ]
或[1, 0, 0, 0]
作为真实标签,自定义指标应给我们1(即100%)。让我们确认一下:
[0, 1, 0, 0]
返回列表的第一个元素对应于损失,第二个元素对应于true_labels = np.array([1, 0, 0, 0]).reshape(1,4)
print(model.evaluate(data, true_labels)) # gives: [3.0657029151916504, 0.0, 1.0]
,第三个元素对应于我们的自定义指标。如您所见,准确性为零(因为真实类为第一类,而预测类为第二类),而自定义指标则为1。
另一种情况:
accuracy
此处的准确性为1(因为真实类别和预测类别均为类别2),而自定义指标也为1。您可以进一步确认true_labels = np.array([0, 1, 0, 0]).reshape(1,4)
print(model.evaluate(data, true_labels)) # gives: [0.21729297935962677, 1.0, 1.0]
和[0, 0, 1, 0]
的其余两种情况作为真实标签;两者均应返回零作为自定义指标的值。
奖金:如果标签稀疏(即0、1、2和3)怎么办?然后,您可以使用[0, 0, 0, 1]
方法对它们进行一次热编码,然后使用上面定义的自定义指标。