Search
Please activate JavaScript to enable the search functionality.
From here you can search these documents. Enter your search words into the box below and click "search". Note that the search function will automatically search for all of the words. Pages containing fewer words won't appear in the result list.
Search Results
Search finished, found 840 page(s) matching the search query.
-
递归特征消除
这是一个数字分类任务中像素相关的递归特征消除的例子。 注意:还请参阅[带交叉验证的递归特征消除](https://scikit-learn.org.cn/view/198.html)。 
拟合回归模型与贝叶斯岭回归。 有关回归者的更多信息,请参见[贝叶斯岭回归](https://scikit-learn.org.cn/view/4.html#1.1.10%20%E8%B4%9D%E5
-
在cross_val_score和GridSearchCV上进行多指标评估的演示
在本案例中,我们通过将评分参数(scoring)设置为多个评估指标的列表、或将评估指标名称映射到评分器可调用项的字典,来执行多个评估指标的搜索。 所有的打分器都在cv_results\_字典中,
-
邻域成分分析图
本案例展示了一个学习距离度量指标,该距离度量使最近邻分类精度最大化。与原始点空间相比,图像提供了该指标的直观表示。请参阅《用户指南》以获取更多信息。 ```python # 执照: BSD 3
-
使用FunctionTransformer选择列
显示如何在管道中使用功能转换器。 如果您知道数据集的第一主成分与分类任务无关,则可以使用FunctionTransformer选择PCA转换数据以外的所有内容。 输入: ```py
-
SVM-Anova:具有单变量特征选择的SVM
本案例说明如何在运行SVC(支持向量分类器)以改善分类评分之前执行单变量特征选择。 我们使用鸢尾花数据集(4个特征)并添加36个非信息特征。我们发现,当我们选择大约10%的特征时,我们的模型将获得最佳
-
sklearn.base.clone
```python sklearn.base.clone(estimator, *, safe=True) ``` [[源码]](https://github.com/scikit-lear
-
sklearn.cluster.compute_optics_graph
```python sklearn.cluster.compute_optics_graph(X, *, min_samples, max_eps, metric, p, metric_params,
-
局部依赖的高级绘图
plot_partial_dependence函数返回一个PartialDependenceDisplay对象,该对象可用于绘图而无需重新计算部分依赖关系(partial dependency)。 在
-
sklearn.linear_model.enet_path
```python sklearn.linear_model.enet_path(X, y, *, l1_ratio=0.5, eps=0.001, n_alphas=100, alphas=Non
-
sklearn.covariance.OAS
```python class sklearn.covariance.OAS(*, store_precision=True, assume_centered=False) ``` [[源码]](h
-
sklearn.manifold.MDS
```python class sklearn.manifold.MDS(n_components=2, *, metric=True, n_init=4, max_iter=300, verbos
-
sklearn.metrics.pairwise_distances_chunked
```python sklearn.metrics.pairwise_distances_chunked(X, Y=None, *, reduce_func=None, metric='euclide
-
sklearn.datasets.make_s_curve
```python sklearn.datasets.``make_s_curve(n_samples=100, ***, noise=0.0, random_state=None) ```