Search
Please activate JavaScript to enable the search functionality.
From here you can search these documents. Enter your search words into the box below and click "search". Note that the search function will automatically search for all of the words. Pages containing fewer words won't appear in the result list.
Search Results
Search finished, found 840 page(s) matching the search query.
-
具有成本复杂度的后剪枝决策树
[`DecisionTreeClassifier`](https://scikit-learn.org.cn/view/784.html) 提供了一些参数,如 `min_samples_leaf`和`
-
基于字典学习的图像去噪
一个列子比较了浣熊人脸图像噪声碎片重构效果的比较, 首先使用在线[词典学习](https://scikit-learn.org.cn/view/110.html#2.5.3.%20%E8%AF%8D%
-
在Iris数据集上绘制树集成的决策曲面
使用Iris数据集的一对特征训练随机树的森林, 并绘制决策界面。 此图比较了决策树分类器(第一列)、随机森林分类器(第二列)、极端树分类器(第三列)和AdaBoost分类器(第四列)学习的决策面
-
预测延迟
这是一个例子,显示了各种scikit-learn评估器的预测延迟。 其目标是测量在批量或原子的(即一个接一个)模式下进行预测时预期的延迟。 这些图表将预测延迟的分布表示为箱线图。 ![]
-
分类得分的排列测试的意义
为了检验一个分类得分是否是有意义的一种技术, 在随机化 排列标签之后重复分类过程。然后,p值由所获得的分数大于一开始所获得的分类分数的运行百分比来表示。 
此示例基于“用于机器学习的高斯过程”第5.4.3节[RW 2006]。他给出了一个在对数边际似然上用梯度上升法进行复杂核工程和超参数优化的例子。这些数据包括1958年至2001年期间在夏威 Mauna
-
泊松回归与非正常损失
此示例说明了在[法国电机第三方责任索赔数据集](https://www.openml.org/d/41214)[1]中使用对数线性泊松回归的方法,并将其与普通最小二乘误差的线性模型和具有泊松损失(和日
-
置换重要性与随机森林特征重要性(MDI)
在这个例子中,我们将比较随机[`RandomForestClassifier`](https://scikit-learn.org.cn/view/633.html)的基于不纯的的特征重要性和使用[`
-
割球面上的流形学习方法
不同[流形学习](https://scikit-learn.org.cn/view/107.html)技术在球面数据集上的应用。在这里,人们可以看到维数约简的使用,以获得一些关于流形学习方法的直觉。关
-
核岭回归与SVR的比较
内核岭回归(KRR)和SVR都通过采用内核技巧来学习非线性函数,即,它们在由相应内核诱导的空间中学习了与原始空间中的非线性函数相对应的线性函数。它们在损失函数上有所不同(脊波与对ε无关的损失)。与SV
-
使用IterativeImputer的变体估算缺失值
sklearn.impute.IterativeImputer类非常灵活:它可以与各种估算器一起使用以进行循环回归,将每个变量依次作为输出。 在此示例中,我们将一些估计器与sklearn.imp
-
精确度-召回曲线
本案例用于展示评估分类器输出质量的精确度-召回曲线。 当样本的标签类别非常不平衡时,Precision-Recall是预测是否成功的有用度量。在信息检索中,精确度是结果相关性的度量,而召回率是返回多
-
简单的1维内核密度估计
本示例使用sklearn.neighbors.KernelDensity类在一个维度上演示核密度估计的原理。 第一张图显示了使用直方图可视化一维点密度的问题之一。从直觉上讲,直方图可以看作是一种
-
比较MLPClassifier的随机学习策略
此示例显示了针对不同随机学习策略(包括SGD和Adam)的一些训练损失曲线。 由于时间限制,我们使用了几个较小的数据集,对于这些数据集,L-BFGS可能更适合。 这些示例中显示的总体趋势似乎可以延续到