基于SelectFromModel和LassoCV的特征选择¶
使用SelectFromModel元-转换器和Lasso从糖尿病数据集中选择最佳的一对特征。
由于L1范数促进了特征的稀疏性,所以我们可能只对数据集中最有兴趣的特征子集感兴趣。此示例演示如何从糖尿病数据集中选择两个最有趣的特征。
糖尿病数据集包含从442名糖尿病患者中收集的10个变量(特征)。此示例演示如何使用SelectFromModel和LassoCv从基线中找到预测一年后疾病进展的最佳两个特征。
作者: Manoj Kumar, Maria Telenczuk
许可证:BSD 3条款
print(__doc__)
import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import load_diabetes
from sklearn.feature_selection import SelectFromModel
from sklearn.linear_model import LassoCV
加载数据
首先,让我们从sklearn内部加载糖尿病数据集。然后,我们将看看从糖尿病患者收集了哪些特征:
diabetes = load_diabetes()
X = diabetes.data
y = diabetes.target
feature_names = diabetes.feature_names
print(feature_names)
['age', 'sex', 'bmi', 'bp', 's1', 's2', 's3', 's4', 's5', 's6']
找到特性的重要性
为了决定特征的重要性,我们将使用LassoCV估计器。具有最高绝对值的 coef_
特征被认为是最重要的。
clf = LassoCV().fit(X, y)
importance = np.abs(clf.coef_)
print(importance)
[ 6.49684455 235.99640534 521.73854261 321.06689245 569.4426838
302.45627915 0. 143.6995665 669.92633112 66.83430445]
从得分最高的模型特征中选择
现在我们想要选择两个最重要的特征。SelectFromModel()允许设置阈值。 只有coef_
高于阈值的特征才能保持不变。在这里,我们希望将阈值略高于LassoCV()根据我们的数据计算的第三个最高coef_
.
idx_third = importance.argsort()[-3]
threshold = importance[idx_third] + 0.01
idx_features = (-importance).argsort()[:2]
name_features = np.array(feature_names)[idx_features]
print('Selected features: {}'.format(name_features))
sfm = SelectFromModel(clf, threshold=threshold)
sfm.fit(X, y)
X_transform = sfm.transform(X)
n_features = sfm.transform(X).shape[1]
Selected features: ['s5' 's1']
绘制两个最重要的特征
最后,我们将从数据中绘制出所选的两个特征。
plt.title(
"Features from diabets using SelectFromModel with "
"threshold %0.3f." % sfm.threshold)
feature1 = X_transform[:, 0]
feature2 = X_transform[:, 1]
plt.plot(feature1, feature2, 'r.')
plt.xlabel("First feature: {}".format(name_features[0]))
plt.ylabel("Second feature: {}".format(name_features[1]))
plt.ylim([np.min(feature2), np.max(feature2)])
plt.show()
脚本的总运行时间:(0分0.224秒)
Download Python source code:plot_select_from_model_diabetes.py
Download Jupyter notebook:plot_select_from_model_diabetes.ipynb