Search
Please activate JavaScript to enable the search functionality.
From here you can search these documents. Enter your search words into the box below and click "search". Note that the search function will automatically search for all of the words. Pages containing fewer words won't appear in the result list.
Search Results
Search finished, found 840 page(s) matching the search query.
-
手写数字上的流形学习:局部线性嵌入,Isomap…
现在来看数字数据集上各种嵌入的说明。 RandomTreesEmbedding,来自 [`sklearn.ensemble`](https://scikit-learn.org.cn/lists/3
-
RBF内核的显式特征图近似
一个示例,说明了RBF内核的特征图的近似值。 它显示了如何使用RBFSampler和Nystroem来近似RBF内核的特征图,以便在数字数据集上使用SVM进行分类。比较了使用原始空间中的线性SV
-
在建立估算器之前估算缺失值
可以使用基本sklearn.impute.SimpleImputer将缺失值替换为平均值,中位数或最频繁的值(众数)。 在此示例中,我们将研究不同的插补技术: - 归因于常数0 -
-
绘制学习曲线
在第一列的第一行中,显示了手写数字数据集上朴素贝叶斯分类器的学习曲线。 请注意,训练分数和交叉验证分数最后都不太好。但是,这个曲线的形状经常会在更复杂的数据集中被找到:训练得分在开始时很高,然后降低,
-
分类器链
我们看在多标签数据集上使用分类器链的示例。 在此示例中,我们将使用酵母数据集,其中包含2417个数据点,每个数据点具有103个特征和14个可能的标签。每个数据点至少具有一个标签。作为基线,我们首
-
TSNE中近似的最近邻
本案例介绍了如何在管道中链接KNeighborsTransformer和TSNE。 它还显示了如何包装软件包annoy和nmslib来替换KNeighborsTransformer并执行最近邻估计。这
-
多层感知器中的正则化
比较合成数据集上正则化参数“alpha”的不同值。 该图显示不同的alpha产生不同的决策函数。 Alpha是正则化项(也称为惩罚项)的参数,它通过限制权重的大小来防止过度拟合。 增加alpha
-
在回归模型中转换目标的效果
在此示例中,我们概述了sklearn.compose.TransformedTargetRegressor。 两个示例说明了在学习线性回归模型之前转换目标的好处。 第一个示例使用合成数据,而第二个示例
-
将不同缩放器对数据的影响与离群值进行比较
加利福尼亚住房数据集的特征0(中位数收入)和特征5(家庭数)具有不同的尺度,并包含一些非常大的离群值。这两个特征导致难以可视化数据,更重要的是,它们会降低许多机器学习算法的预测性能。未缩放的数据也会减
-
手写数字数据集上的标签传播:主动学习
该示例展示了一种主动学习技术,可以使用标签传播来学习手写数字。 首先训练仅带有10个标记点的标签传播模型,然后选择前五个不确定性最高的点进行标记。 接下来,训练15个带标记的点(原始10个+ 5
-
RBF核支持向量机的参数
本案例展示了参数gamma和C对径向基函数核函数(RBF)下的支持向量机的影响。 直观地说,gamma参数定义了“单个训练样本对整个模型的影响程度”,gamma值很低表示“影响深远”,gamma
-
糖尿病数据集上的交叉验证练习
使用线性模型交叉验证的教程练习。 本练习在“模型选择”的“交叉验证的估计器”部分中使用:《科学数据处理的统计学习指南》的“选择估计器及其参数”部分。 ```python print(__
-
使用稀疏特征对文本文档进行分类
此示例显示了如何使用词袋方法将scikit-learn用于按主题对文档进行分类。 本示例使用scipy.sparse矩阵存储特征,并演示了可以有效处理稀疏矩阵的各种分类器。 本示例中使用的数据集
-
sklearn.show_versions
```python sklearn.show_versions() ``` [[源码]](https://github.com/scikit-learn/scikit-learn/blob/
-
sklearn.calibration.calibration_curve
```python sklearn.calibration.calibration_curve(y_true, y_prob, *, normalize=False, n_bins=5, strat