限制神经网络回归中的输出总和(Keras)

时间:2020-01-31 12:11:25

标签: python tensorflow keras activation-function

我要预测7个目标,这是一个值的比率,因此对于每个样本,所有预测值的总和应为1。 除了在输出端使用softmax(这显然是错误的)之外,我只是想不出其他方法来将所有预测的输出之和限制为= 1。.
感谢您的任何建议。

input_x = Input(shape=(input_size,))
output = Dense(512, activation=PReLU())(input_x)
output = Dropout(0.5)(output)
output = Dense(512, activation=PReLU())(output)
output = Dropout(0.5)(output)
output = Dense(16, activation=PReLU())(output)
output = Dropout(0.3)(output)
outputs = Dense(output_size, activation='softmax')(output)
#outputs = [Dense(1, activation=PReLU())(output) for i in range(output_size)] #multioutput nn

nn = Model(inputs=input_x, outputs=outputs)
es = EarlyStopping(monitor='val_loss',min_delta=0,patience=10,verbose=1, mode='auto')
opt=Adam(lr=0.001, decay=1-0.995)
nn.compile(loss='mean_absolute_error', optimizer=opt)
history = nn.fit(X, Y, validation_data = (X_t, Y_t), epochs=100, verbose=1, callbacks=[es])

目标示例:

enter image description here

因此,这是一个要素的所有比率,每行的总和= = 1。
例如功能-“总计” = 100分,A = 25分,B = 25分,其他所有-10分。因此,我的7个目标比率将为0.25 / 0.25 / 0.1 / 0.1 / 0.1 / 0.1 / 0.1 / 0.1。

我需要训练和预测这样的比率,所以将来,知道“总计”后,我们可以从预测的比率中恢复点数。

1 个答案:

答案 0 :(得分:1)

我想我理解您的动机,以及为什么“ softmax不会削减它”。

这是因为softmax不能线性缩放,所以:

{
    'Alan': {
        'Bob': {},
        'Charles': {
            'Xavier': {}
        },
        'Xavier': {},
    },
    'Joan': {
        'Xavier': {}
    }
}

看起来与原始数组不一样。

不过,不要过于轻易地放弃softmax-它可以处理特殊情况,例如负值,零,预激活信号的零和...但是如果您希望将最终回归标准化为一,并期望结果要设为非负数,您可以将其除以总和:

>>> from scipy.special import softmax
>>> softmax([1, 2, 3, 4])
array([0.0320586 , 0.08714432, 0.23688282, 0.64391426])
>>> softmax([1, 2, 3, 4]) * 10
array([0.32058603, 0.87144319, 2.36882818, 6.4391426 ])

input_x = Input(shape=(input_size,)) output = Dense(512, activation=PReLU())(input_x) output = Dropout(0.5)(output) output = Dense(512, activation=PReLU())(output) output = Dropout(0.5)(output) output = Dense(16, activation=PReLU())(output) output = Dropout(0.3)(output) outputs = Dense(output_size, activation='relu')(output) outputs = Lambda(lambda x: x / K.sum(x))(outputs) nn = Model(inputs=input_x, outputs=outputs) 层当然需要与Dense不同的激活方式(相对或线性都可以)。