scikit-learn 0.24.dev0 Other versions
CDA数据科学研究院 提供翻译支持
这些示例说明了scikit-learn发行版的主要功能。
scikit-learn 0.23中的发布要点 ¶
scikit-learn 0.22中的发布要点 ¶
有关sklearn.cluster.bicluster模块的示例。
谱协聚类算法的一个示例 ¶
光谱集群算法的一个示例 ¶
用谱协聚类算法对文档进行集群化 ¶
说明对分类器的预测概率进行校准的示例。
分类器校准的比较 ¶
概率校准曲线 ¶
分类器的概率校准 ¶
三分类的概率校准 ¶
有关分类算法的一般示例。
正态和收缩线性判别分析在分类中的应用 ¶
手写数字识别 ¶
绘制分类的概率 ¶
分类器的比较 ¶
协方差椭球的线性和二次判别分析 ¶
有关sklearn.cluster模块的示例。
绘制层次聚类的树状图 ¶
特征集聚 ¶
均值移位聚类算法的一个例子 ¶
k-均值假设的证明 ¶
人脸的部分词典的在线学习 ¶
矢量量化实例 ¶
亲密传播聚类算法的例子 ¶
带结构和无结构的凝聚聚类 ¶
在区域内分割希腊硬币的图片 ¶
二维数字嵌入上的各种凝聚聚类 ¶
K-means聚类 ¶
光谱聚类在图像分割中的应用 ¶
基于硬币图像的结构化区域分层聚类演示 ¶
DBSCAN聚类算法的演示 ¶
基于K均值的颜色量化 ¶
分层聚类:结构化区域与非结构化区域 ¶
不同度量的聚集聚类 ¶
归纳聚类 ¶
光学聚类算法的演示 ¶
BIRCH和MiniBatchKMeans的比较 ¶
k均值初始化影响的实证评价 ¶
聚类表现评估中的机会调整 ¶
K-Means和MiniBatchKMeans聚类算法的比较 ¶
特征聚集与单变量选择 ¶
手写数字数据上K均值聚类的一个演示 ¶
toy数据集上不同层次链接方法的比较 ¶
基于KMeans聚类分析使用silhouette选择聚类的数目 ¶
toy数据集上不同聚类算法的比较 ¶
有关sklearn.covariance模块的示例。
Ledoit-Wolf vs OAS估计器 ¶
稀疏逆协方差估计 ¶
收缩协方差估计:LedoitWolf VS OAS和极大似然 ¶
鲁棒协方差估计与Mahalanobis距离相关性 ¶
稳健与经验协方差估计 ¶
有关sklearn.cross_decomposition模块的示例。
交叉分解法比较 ¶
有关sklearn.datasets模块的示例
数字数据集 ¶
Iris数据集 ¶
绘制随机生成的分类数据集 ¶
绘制随机生成的多标签数据集 ¶
有关sklearn.tree模块的示例。
决策树回归 ¶
多输出决策树回归 ¶
在iris数据集上绘制决策树的决策面 ¶
具有成本复杂度的后剪枝决策树 ¶
理解决策树的结构 ¶
有关sklearn.decomposition模块的示例。
Beta-divergence损失函数 ¶
在iris数据集上的PCA例子 ¶
增量PCA ¶
Iris数据集LDA和PCA二维投影的比较 ¶
使用FastICA的盲源分离 ¶
主成分分析(PCA) ¶
二维点云上的FastICA ¶
核PCA ¶
基于概率主成分分析和因子分析(FA)的模型选择 ¶
使用预计算字典的稀疏编码 ¶
基于字典学习的图像去噪 ¶
人脸数据集分解 ¶
有关sklearn.ensemble模块的示例。
基于平行树的森林的像素重要性 ¶
AdaBoost决策树回归 ¶
绘制单独与投票回归预测 ¶
树森林的特征重要性 ¶
单调约束 ¶
IsolationForest示例 ¶
绘制投票分类器的决策边界 ¶
随机森林与多输出元估计器的比较 ¶
梯度提升回归的预测区间 ¶
梯度提升正则 ¶
绘制通过投票分类器计算的类概率 ¶
梯度提升回归 ¶
随机森林的OOB ¶
两类的Adaboost ¶
基于完全随机树的哈希特征变换 ¶
多类Adaboost决策树 ¶
离散与真实AdaBoost ¶
梯度提升的提前停止 ¶
树集成的特征转换 ¶
梯度提升袋外估计 ¶
单个估计器 vs bagging:偏差-方差分解 ¶
在Iris数据集上绘制树集成的决策曲面 ¶
使用stacking的组合预测器 ¶
具有一些中等大小的数据集或交互式用户界面的现实问题的应用程序。
真实数据集上的孤立点检测 ¶
压缩感知:基于L1(Lasso)先验层析重建 ¶
非负矩阵分解与潜在Dirichlet分配的主题提取 ¶
基于特征面和支持向量机的人脸识别实例 ¶
模型复杂度影响 ¶
股市结构可视化 ¶
维基百科主特征向量 ¶
物种分布模型 ¶
Libsvm GUI ¶
预测延迟 ¶
文本文档的核外分类 ¶
有关sklearn.feature_selection模块的示例。
递归特征消除 ¶
F检验与互换信息法的比较 ¶
工作流 Anova SVM ¶
带交叉验证的递归特征消除 ¶
基于SelectFromModel和LassoCV的特征选择 ¶
分类得分的排列测试的意义 ¶
单变量特征选择 ¶
有关sklearn.mixture模块的示例。
高斯混合模型的密度估计 ¶
高斯混合模型椭球 ¶
高斯混合模型选择 ¶
GMM协方差 ¶
高斯混合模型正弦曲线 ¶
变体贝叶斯高斯混合的聚集优先类型分析 ¶
有关sklearn.gaussian_process模块的示例。
XOR数据集上高斯过程分类(GPC)的说明 ¶
在iris数据集上的高斯过程分类 ¶
核岭回归与高斯过程回归的比较 ¶
不同核的高斯过程的先验和后验示例 ¶
高斯过程分类的等概率线(GPC) ¶
高斯过程分类的概率预测 ¶
带噪声水平估计的高斯过程回归(GPR) ¶
高斯过程回归:基本介绍性示例 ¶
Mauna Loa CO2数据的高斯过程回归(GPR) ¶
离散数据结构上的高斯过程 ¶
有关sklearn.linear_model模块的示例。
使用LARS的Lasso路径 ¶
绘制正则化函数的岭系数图 ¶
SGD:最大间隔分离超平面 ¶
SGD:凸损失函数 ¶
普通最小二乘与岭回归差异 ¶
绘制L2正则化函数的岭系数图 ¶
SGD: 惩罚 ¶
多项式插值 ¶
Logistic函数 ¶
L1-Logistic回归的正则化路径 ¶
Logistic回归三分类器 ¶
SGD:加权样本 ¶
线性回归实例 ¶
基于RANSAC的鲁棒线性模型估计 ¶
稀疏示例:仅适合特征1和2 ¶
强异常数据集上的Huber回归与岭回归 ¶
在密集和稀疏数据上的Lasso ¶
比较各种在线求解器 ¶
基于多任务Lasso的联合特征选择 ¶
用多项式Logistic+L1进行MNIST分类 ¶
在iris数据集上绘制多类SGD ¶
正交匹配追踪 ¶
稀疏信号上的LASSO与弹性网 ¶
基于贝叶斯岭回归的曲线拟合 ¶
Theil-Sen回归 ¶
绘制多类和One-vs-Rest Logistic回归图 ¶
鲁棒线性估计拟合 ¶
Logistic回归中的L1惩罚与稀疏性 ¶
Lasso和弹性网 ¶
自动相关性确定回归(ARD) ¶
贝叶斯岭回归 ¶
LASSO模型选择:交叉验证/AIC/BIC ¶
在20newgroups上的多类系数逻辑回归 ¶
随机梯度下降的早期停止 ¶
泊松回归与非正常损失 ¶
保险索赔的推断回归 ¶
与sklearn.inspection模块有关的示例。
具有多重共线性或相关特征的置换重要性 ¶
部分依赖图 ¶
置换重要性与随机森林特征重要性(MDI) ¶
线性模型系数解释中的常见缺陷 ¶
有关sklearn.manifold模块的示例。
带LLE的Swiss Roll降低 ¶
流形学习方法的比较 ¶
多维标度 ¶
t-sne:不同perplexity值对形状的影响 ¶
割球面上的流形学习方法 ¶
手写数字上的流形学习:局部线性嵌入,Isomap… ¶
scikit-learn的其他案例和入门示例。
压缩估算器表示 ¶
带有可视化API的ROC曲线 ¶
等渗回归 ¶
显示对象的可视化 ¶
局部依赖的高级绘图 ¶
使用多输出估算器完成人脸绘制 ¶
多标签分类 ¶
对“玩具数据集”进行异常检测,并比较异常检测算法 ¶
Johnson-Lindenstrauss绑定嵌入随机投影 ¶
核岭回归与SVR的比较 ¶
RBF内核的显式特征图近似 ¶
有关sklearn.impute模块的示例。
使用IterativeImputer的变体估算缺失值 ¶
在建立估算器之前估算缺失值 ¶
与sklearn.model_selection模块有关的示例。
绘制交叉验证的预测 ¶
混淆矩阵 ¶
绘制验证曲线 ¶
欠拟合与过拟合 ¶
使用带有交叉验证的网格搜索进行参数估计 ¶
比较随机搜索和网格搜索以进行超参数估计 ¶
训练误差与测试误差 ¶
带交叉验证的ROC曲线 ¶
嵌套与非嵌套交叉验证 ¶
在cross_val_score和GridSearchCV上进行多指标评估的演示 ¶
用于文本特征提取和评估的示例管道 ¶
平衡模型的复杂性和交叉验证的分数 ¶
在scikit-learn中可视化交叉验证行为 ¶
ROC曲线 ¶
精确度-召回曲线 ¶
绘制学习曲线 ¶
有关sklearn.multioutput模块的示例。
分类器链 ¶
有关sklearn.neighbors模块的示例。
最近邻回归 ¶
使用局部离群因子(LOF)进行离群检测 ¶
最近邻分类 ¶
最近邻质心分类 ¶
核密度估计 ¶
缓存最近邻 ¶
邻域成分分析图 ¶
具有局部离群因子(LOF)的新颖性检测 ¶
比较有邻域成分分析与无邻域成分分析的最近邻域 ¶
用邻域成分分析进行降维 ¶
物种分布的核密度估计 ¶
简单的1维内核密度估计 ¶
TSNE中近似的最近邻 ¶
有关sklearn.neural_network模块的示例。
在MNIST数据集上可视化MLP权重 ¶
用于数字分类的‘受限玻尔兹曼机’功能 ¶
比较MLPClassifier的随机学习策略 ¶
多层感知器中的正则化 ¶
由其他估算器组成转换器和管道的示例。请参阅《用户指南》。
串联多个特征提取方法 ¶
管道:链接PCA和逻辑回归 ¶
使用Pipeline和GridSearchCV选择降维算法 ¶
混合型列式转换器 ¶
具有异构数据源的列变形器 ¶
在回归模型中转换目标的效果 ¶
有关sklearn.preprocessing模块的示例。
使用FunctionTransformer选择列 ¶
使用KBinsDiscretizer离散化连续特征 ¶
演示KBinsDiscretizer的不同策略 ¶
特征缩放的重要性 ¶
将数据映射到正态分布 ¶
特征离散化 ¶
将不同缩放器对数据的影响与离群值进行比较 ¶
有关sklearn.semi_supervised模块的示例。
Iris数据集上的标签传播与SVM的决策边界 ¶
使用标签传播学习复杂的结构 ¶
手写数据集上的标签传播:性能展示 ¶
手写数字数据集上的标签传播:主动学习 ¶
有关sklearn.svm模块的示例。
非线性支持向量机 ¶
支持向量机:最大边际分割超平面 ¶
带有自定义核函数的支持向量机 ¶
绘制线性支持向量机(基于liblinear)的支持向量 ¶
处理平局的支持向量机 ¶
支持向量机:有权重的样本 ¶
支持向量机:不均衡数据集的分割超平面 ¶
支持向量机:核函数 ¶
SVM-Anova:具有单变量特征选择的SVM ¶
支持向量机的边际 ¶
使用线性与非线性核的支持向量机回归 ¶
具有非线性内核(RBF)的一类支持向量机(One-class SVM) ¶
在鸢尾花数据集中绘制不同的SVM分类器 ¶
缩放SVC的正则化参数 ¶
RBF核支持向量机的参数 ¶
教程练习
手写数据集分类练习 ¶
手写数据集上的交叉验证 ¶
支持向量机的练习 ¶
糖尿病数据集上的交叉验证练习 ¶
有关sklearn.feature_extraction.text模块的示例。
FeatureHasher与DictVectorizer的比较 ¶
使用k-means聚类文本文档 ¶
使用稀疏特征对文本文档进行分类 ¶