Python内核回归:如何知道特征选择的特征重要性?

时间:2017-07-04 21:44:31

标签: python scikit-learn

我正在使用几个回归程序在python中训练和测试我的数据。

虽然sklearn库中的大多数回归函数都具有feature_importances_函数用于特征选择,但kernel ridge回归函数中没有feature_importances_函数。

使用kernel ridge回归程序时,人们如何看待每个功能的重要性? 我已阅读文档,但没有相关信息。

以防万一 我的代码:

from sklearn.kernel_ridge import KernelRidge

kr1 = KernelRidge(kernel='rbf', alpha=1.0, gamma=0.01)
kr1.fit(X_train, y_train)
y_kr1 = kr1.predict(X_test)
print("Mean squared error: %.2f" % np.mean((y_kr1 - y_test) ** 2))

# Explained variance score: 1 is perfect prediction
print('Variance score: %.5f' % kr1.score(X_test, y_test))

当我尝试

kr1.feature_importances_

错误:

'KernelRidge' object has no attribute 'feature_importances_'

非常感谢您的帮助。

1 个答案:

答案 0 :(得分:1)

特征重要性是来自sklearn.ensemble.RandomForestClassifier等集成学习方法的概念;它不是岭回归模型的属性。最接近的对应物将是t统计量,不幸的是,您需要手动计算。