sklearn.neighbors.KNeighborsRegressor

class sklearn.neighbors.KNeighborsRegressor(n_neighbors=5, *, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=None, **kwargs)

[源码]

基于k最近邻的回归。

通过对训练集中最近临近点的相关目标进行局部插值来预测目标。

用户指南中阅读更多内容。

0.9版的新功能。

参数 说明
n_neighbors int, default=5
默认情况下用于kneighbors查询的临近点数。
weights {‘uniform’, ‘distance’} or callable, default=’uniform’
预测中使用的权重函数。 可能的值:
”uniform”:统一权重。 每个邻域中的所有点均被加权。
“distance”:权重点与其距离的倒数。 在这种情况下,查询点的近邻比远处的近邻具有更大的影响力。
[callable]:用户定义的函数,该函数接受距离数组,并返回包含权重的相同形状的数组。
默认情况下使用统一权重。
algorithm {‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}, default=’auto’
用于计算最近临近点的算法:
“ ball_tree”将使用BallTree
“ kd_tree”将使用KDTree
“brute”将使用暴力搜索。
“auto”将尝试根据传递给fit方法的值来决定最合适的算法。
注意:在稀疏输入上进行拟合将使用蛮力覆盖此参数的设置。
leaf_size int, default=30
叶大小传递给BallTree或KDTree。 这会影响构造和查询的速度,以及存储树所需的内存。 最佳值取决于问题的性质。
p int, default=2
Minkowski指标的功率参数。 当p = 1时,这等效于对p = 2使用manhattan_distance(l1)和euclidean_distance(l2)。对于任意p,使用minkowski_distance(l_p)。
metric str or callable, default=’minkowski’
树使用的距离度量。 默认度量标准为minkowski,p = 2等于标准欧几里德度量标准。 有关可用度量的列表,请参见DistanceMetric的文档。 如果度量是“预先计算的”,则X被假定为距离矩阵,并且在拟合过程中必须为平方。 X可能是一个稀疏图,在这种情况下,只有“非零”元素可以被视为临近点。
metric_params dict, default=None
度量功能的其他关键字参数。
n_jobs int, default=None
为临近点搜索运行的并行作业数。 除非在joblib.parallel_backend上下文中,否则None表示1。 -1表示使用所有处理器。 有关更多详细信息,请参见词汇表。 不会影响拟合方法。
属性 说明
effective_metric_ str or callable
使用的距离度量。 它将与度量参数相同或与其相同,例如 如果metric参数设置为“ minkowski”,而p参数设置为2,则为“ euclidean”。
effective_metric_params_ dict
度量功能的其他关键字参数。 对于大多数指标而言,它与metric_params参数相同,但是,如果将valid_metric_属性设置为“ minkowski”,则也可能包含p参数值。

另见

NearestNeighbors

RadiusNeighborsRegressor

KNeighborsClassifier

RadiusNeighborsClassifier

注意

有关算法选择和leaf_size的讨论,请参见Nearest Neighbors的在线文档。

警告:如果发现两个临近点(临近点k + 1和k)具有相同的距离但标签不同,则结果将取决于训练数据的顺序。

https://en.wikipedia.org/wiki/K-nearest_neighbor_algorithm

示例

>>> X = [[0], [1], [2], [3]]
>>> y = [0011]
>>> from sklearn.neighbors import KNeighborsRegressor
>>> neigh = KNeighborsRegressor(n_neighbors=2)
>>> neigh.fit(X, y)
KNeighborsRegressor(...)
>>> print(neigh.predict([[1.5]]))
[0.5]

方法

方法 说明
fit(X,y) 使用X作为训练数据和y作为目标值拟合模型
get_params([, deep]) 获取此估计量的参数。
kneighbors([, X, n_neighbors, …]) 查找点的K临近点。
kneighbors_graph([,X, n_neighbors, mode]) 计算X中点的k临近点的(加权)图
predict(X) 预测提供数据的目标
score( X, y[, sample_weight]) 返回预测的确定系数R ^ 2。
set_params(**params) 设置此估算器的参数。
__init__(, n_neighbors=5, *, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=None, **kwargs)

[源码]

初始化. 请参阅help(type())以获得准确的说明。

fit(X, y)

[源码]

该模型使用X作为训练数据,而y作为目标值

参数 说明
X {array-like, sparse matrix, BallTree, KDTree}
训练数据。 如果是数组或矩阵,则将其形状设置为[n_samples,n_features],如果是metric =“ precomputed”,则为[n_samples,n_samples]。
y {array-like, sparse matrix}
目标值,浮点值数组,形状= [n_samples]
或[n_samples,n_outputs]
get_params( deep=True)

[源码]

获取此估计量的参数。

参数 说明
deep bool, default=True
如果为True,则将返回此估算器和作为估算器的所包含子对象的参数。
返回值 说明
params mapping of string to any
参数名称映射到其值。
kneighbors(X=None, n_neighbors=None, return_distance=True)

[源码]

查找点的K近邻。 返回每个点的临近点的索引和与之的距离。

参数 说明
X array-like, shape (n_queries, n_features), or (n_queries, n_indexed) if metric == ‘precomputed’
查询一个或多个点。 如果未提供,则返回每个索引点的临近点。 在这种情况下,查询点不被视为其自身的临近点
n_neighbors int
要获取的临近点数(默认值为传递给构造函数的值)。
return_distance boolean, optional. Defaults to True
如果为False,则不会返回距离
返回值 说明
neigh_dist array, shape (n_queries, n_neighbors)
表示点的长度的数组,仅在return_distance = True时存在
neigh_ind array, shape (n_queries, n_neighbors)
总体矩阵中最近点的索引。

示例

在以下示例中,我们从代表数据集的数组构造一个NearestNeighbors类,并询问谁是最接近[1,1,1]的点

>>> samples = [[0.0.0.], [0..50.], [1.1..5]]
>>> from sklearn.neighbors import NearestNeighbors
>>> neigh = NearestNeighbors(n_neighbors=1)
>>> neigh.fit(samples)
NearestNeighbors(n_neighbors=1)
>>> print(neigh.kneighbors([[1.1.1.]]))
(array([[0.5]]), array([[2]]))

如您所见,它返回[[0.5]]和[[2]],这意味着该元素位于距离0.5处,并且是样本的第三个元素(索引从0开始)。 您还可以查询多个点:

>>> X = [[0.1.0.], [1.0.1.]]
>>> neigh.kneighbors(X, return_distance=False)
array([[1],
       [2]]...)
kneighbors_graph(, X=None, n_neighbors=None, mode='connectivity')

[源码]

计算X中点的k临近点的(加权)图

参数 说明
X array-like, shape (n_queries, n_features), or (n_queries, n_indexed) if metric == ‘precomputed’
查询点。 如果未提供,则返回每个索引点的临近点。 在这种情况下,查询点不被视为其自己的临近点。
n_neighbors int
每个样本的临近点数。 (默认值为传递给构造函数的值)。
mode {‘connectivity’, ‘distance’}, optional
返回矩阵的类型:“连通性”将返回具有1和0的连通性矩阵,在“距离”中,边为点之间的欧几里得距离。
返回值 说明
A sparse graph in CSR format, shape = [n_queries, n_samples_fit]
n_samples_fit是拟合数据中的样本数A [i,j],分配了将i连接到j的边的权重。

另见:

NearestNeighbors.radius_neighbors_graph

示例

>>> X = [[0], [3], [1]]
>>> from sklearn.neighbors import NearestNeighbors
>>> neigh = NearestNeighbors(n_neighbors=2)
>>> neigh.fit(X)
NearestNeighbors(n_neighbors=2)
>>> A = neigh.kneighbors_graph(X)
>>> A.toarray()
array([[1.0.1.],
       [0.1.1.],
       [1.0.1.]])
predict(X)

[源码]

预测提供数据的目标

参数 说明
X array-like of shape (n_queries, n_features), or (n_queries, n_indexed) if metric == ‘precomputed’
测试样本
返回值 说明
y ndarray of shape (n_queries,) or (n_queries, n_outputs), dtype=int
目标值。
score(X, y, sample_weight=None)

[源码]

返回预测的确定系数R ^ 2。

系数R ^ 2定义为(1- u / v),其中u是平方的残差和((y_true-y_pred)** 2).sum(),而v是平方的总和((y_true- y_true.mean())** 2).sum()。 可能的最高得分为1.0,并且可能为负(因为该模型可能会更差)。 不管输入特征如何,始终预测y的期望值的常数模型将获得0.0的R ^ 2分数。

参数 说明
X array-like of shape (n_samples, n_features)
测试样品。 对于某些估计量,这可以是预先计算的内核矩阵或通用对象列表,而不是shape =(n_samples,n_samples_fitted),其中n_samples_fitted是用于估计量拟合的样本数。
y array-like of shape (n_samples,) or (n_samples, n_outputs)
X的真实值。
sample_weight array-like of shape (n_samples,), default=None
样本权重
返回值 说明
score 浮动
.predict(X) wrt. y.的R^2

声明

在回归器上调用分数时使用的R2分数使用版本0.23中的multioutput ='uniform_average'来保持与_r2_score的默认值一致。 这会影响所有多输出回归器的评分方法(MultiOutputRegressor除外)。

set_params(**params)

[源码]

设置此估算器的参数。

该方法适用于简单的估计器以及嵌套对象(例如管道)。 后者的参数格式为 __ ,以便可以更新嵌套对象的每个组件。

参数 说明
**params dict
估算器参数。
返回值 说明
self object
估算器实例。