我想知道当在带有预处理的管道中使用分类器时,如何从scikit-learn 中使用特征名称从随机森林中提取特征重要性。
这里的问题仅涉及提取特征重要性:How to extract feature importances from an Sklearn pipeline
从我所做的简短研究来看,在scikit-learn中这似乎是不可能的,但是我希望我是错的。
我还找到了一个名为ELI5(https://eli5.readthedocs.io/en/latest/overview.html)的软件包,该软件包可以解决scikit-learn的问题,但是并不能解决我的问题,因为为我输出的功能名称是x1 ,x2等),而不是实际的功能名称。
作为一种解决方法,我在管道之外进行了所有预处理,但是很想知道如何在管道中进行预处理。
如果我可以提供任何有用的代码,请在评论中告诉我。
答案 0 :(得分:0)
Xgboost有一个示例说明了功能的重要性:
num_transformer = Pipeline(steps=[
('imputer', SimpleImputer(strategy='median')),
('scaler', preprocessing.RobustScaler())])
cat_transformer = Pipeline(steps=[
('imputer', SimpleImputer(strategy='most_frequent')),
('onehot', preprocessing.OneHotEncoder(categories='auto',
sparse=False,
handle_unknown='ignore'))])
from sklearn.compose import ColumnTransformer
numerical_columns = X.columns[X.dtypes != 'category'].tolist()
categorical_columns = X.columns[X.dtypes == 'category'].tolist()
pipeline_procesado = ColumnTransformer(transformers=[
('numerical_preprocessing', num_transformer, numerical_columns),
('categorical_preprocessing', cat_transformer, categorical_columns)],
remainder='passthrough',
verbose=True)
# Create the classifier
classifier = XGBClassifier()
# Create the overall model as a single pipeline
pipeline = Pipeline([("transform_inputs", pipeline_procesado), ("classifier",
classifier)])
pipeline.fit(X_train, y_train)
onehot_columns = pipeline.named_steps['transform_inputs'].named_transformers_['categorical_preprocessing'].named_steps['onehot'].get_feature_names(input_features=categorical_columns)
#you can get the values transformed with your pipeline
X_values = pipeline_procesado.fit_transform(X_train)
df_from_array_pipeline = pd.DataFrame(X_values, columns = numerical_columns + list(onehot_columns) )
feature_importance = pd.Series(data= pipeline.named_steps['classifier'].feature_importances_, index = np.array(numerical_columns + list(onehot_columns)))