模型压缩为什么它工作得很好?请解释

时间:2016-07-21 19:43:42

标签: machine-learning compression supervised-learning

模型压缩:让我用简单的语言解释一下。

让X_train(特征),Y_train(目标)成为训练数据。

X_train, Y_train ------> M1 (Example: decision tree)

X_train --------> M1 ----> Y_pred (predicted Y for X_train)

现在

Case 1:
    X_train, Y_pred -----------> M2 (Example: any model that is NOT decision tree)

    X_train ---------------> M2  ----------> Y_pred1 

Case 2:
    X_train, Y_train -----------> M2 (Example: any model that is NOT decision tree)

    X_train ---------------> M2  ----------> Y_pred2

现在我计算M2的AUC分数。

Case 1:
 AUC (Y_pred, Y_pred1)
Case 2:
  AUC (Y_train, Y_pred2)

案例1 AUC高于案例2 AUC。案例1称为模型压缩。我喜欢得到它背后的直觉。当然,AUC是用概率计算的。

1 个答案:

答案 0 :(得分:0)

结果背后的直觉是给定Y_pred的{​​{1}}的条件熵为零。因此M2比第二种情况更容易学习X_train