sklearn.linear_model.Perceptron

class sklearn.linear_model.Perceptron(*, penalty=None, alpha=0.0001, fit_intercept=True, max_iter=1000, tol=0.001, shuffle=True, verbose=0, eta0=1.0, n_jobs=None, random_state=0, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, class_weight=None, warm_start=False)

[源码]

用户指南中阅读更多内容。

参数 说明
penalty {‘l2’,’l1’,’elasticnet’}, default=None
要使用的惩罚(又称正则化)。
alpha float, default=0.0001
如果使用正则化,则乘以正则化项的常数。
fit_intercept bool, default=True
是否估计截距。如果为False,则假定数据已经中心化。
max_iter int, default=1000
训练数据的最大迭代次数(又称历元)。它只会影响fit方法中的行为,而不会影响 partial_fit方法。
tol float, default=1e-3
停止标准。如果不是None,则迭代将在(loss> previous_loss-tol)时停止。

0.19版本中的新功能。
shuffle bool, default=True
在每次迭代之后是否重新整理训练数据。
verbose int, default=0
输出日志的详细程度
eta0 double, default=1
更新乘以的常数。
n_jobs int, default=None
用于执行OVA(对于多类问题而言为“一个对所有”)的CPU内核数。除非设置了joblib.parallel_backend 参数,否则None表示1 。 -1表示使用所有处理器。有关更多详细信息,请参见词汇表
random_state int, RandomState instance, default=None
用于打乱训练数据,当shuffle设置为 True。可以用一个整数为多个函数调用传递重复的输出。请参阅词汇表
early_stopping bool, default=False
是否使用验证提前停止终止训练。如果设置为True,它将自动将训练数据的分层部分留作验证,并在连续n_iter_no_change次的验证分数没有提高至少tol时终止训练。

0.20版中的新功能。
validation_fraction float, default=0.1
预留的作为早期停止的验证集的训练数据比例。必须在0到1之间。仅当early_stopping为True时使用。

0.20版中的新功能。
n_iter_no_change int, default=5
在提前停止之前没有提升的迭代次数。

0.20版中的新功能。
class_weight dict, {class_label: weight} or “balanced”, default=None
class_weight fit参数的预设值。

类别关联的权重。如果没有给出,所有类别的权重都应该是1。

“balanced”模式使用y的值来自动调整为与输入数据中的类频率成反比的权重。如n_samples / (n_classes * np.bincount(y))
warm_start bool, default=False
设置为True时,重用前面调用的解决方案来进行初始化,否则,只清除前面的解决方案。请参阅词汇表
属性 说明
coef_ ndarray of shape = [1, n_features] if n_classes == 2 else [n_classes, n_features]
分配给特征的权重。
intercept_ ndarray of shape = [1] if n_classes == 2 else [n_classes]
决策函数中的常量。
n_iter_ int
达到停止标准的实际迭代次数。对于多类拟合,它是每个二进制拟合的最大值。
classes_ ndarray of shape (n_classes,)
非重复的类标签。
t_ int
训练期间进行权重更新的次数。与(n_iter_ * n_samples)相同。

另见

SGDClassifier

Perceptron是一种分类算法,与SGDClassifier有相同的底层实现。事实上 Perceptron()等同于SGDClassifier(loss="perceptron", eta0=1, learning_rate="constant", penalty=None)

参考

https://en.wikipedia.org/wiki/Perceptron及其参考。

示例

>>> from sklearn.datasets import load_digits
>>> from sklearn.linear_model import Perceptron
>>> X, y = load_digits(return_X_y=True)
>>> clf = Perceptron(tol=1e-3, random_state=0)
>>> clf.fit(X, y)
Perceptron()
>>> clf.score(X, y)
0.939...

方法

方法 说明
decision_function(self, X) 预测样本的置信度得分。
densify(self) 将系数矩阵转换为密集数组格式。
fit(self, X, y[, coef_init, intercept_init, …]) 用随机梯度下降拟合线性模型。
get_params(self[, deep]) 获取此估计器的参数。
partial_fit(self, X, y[, classes, sample_weight]) 对给定的样本进行一次随机梯度下降。
predict(self, X) 预测X中样本的类别标签。
score(self, X, y[, sample_weight]) 返回给定测试数据和标签上的平均准确度。
set_params(self, **kwargs) 设置并验证估计器的参数。
sparsify(self) 将系数矩阵转换为稀疏格式。
__init__(self, *, penalty=None, alpha=0.0001, fit_intercept=True, max_iter=1000, tol=0.001, shuffle=True, verbose=0, eta0=1.0, n_jobs=None, random_state=0, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, class_weight=None, warm_start=False)

[源码]

初始化self, 请参阅help(type(self))以获得准确的说明。

decision_function(self, X)

[源码]

预测样本的置信度得分。

样本的置信度分数是该样本到超平面的符号距离。

参数 说明
X array_like or sparse matrix, shape (n_samples, n_features)
样本数据。
返回值 说明
array, shape=(n_samples,) if n_classes == 2 else (n_samples, n_classes)
每个(样本,类别)组合的置信度得分。在二分类情况下,self.classes_ [1]的置信度得分> 0表示将预测该类。
densify(self)

[源码]

将系数矩阵转换为密集数组格式。

coef_数值(返回)转换为numpy.ndarray。这是coef_的默认格式,并且是拟合模型所需的格式,因此仅在之前被稀疏化的模型上才需要调用此方法。否则,它是无操作的。

返回值 说明
self 拟合估计器。
fit(self, X, y, coef_init=None, intercept_init=None, sample_weight=None)

[源码]

用随机梯度下降拟合线性模型。

参数 说明
X {array-like, sparse matrix} of shape (n_samples, n_features)
训练数据
y array-like of shape (n_samples,)
目标标签。
coef_init ndarray of shape (n_classes, n_features), default=None
用于热启动优化的初始系数。
intercept_init ndarray of shape (n_classes,), default=None
初始截距以热启动优化。
sample_weight array-like, shape (n_samples,), default=None
权重应用于各个样本。如果未提供,则假定权重相同。如果指定了class_weight,则这些权重将与class_weight(通过构造函数传递)相乘。
返回值 说明
self 返回self的实例。
get_params(self,deep = True )

[源码]

获取此估计器的参数。

参数 说明
deep bool, default=True
如果为True,返回此估计器和所包含子对象的参数。
返回值 说明
params mapping of string to any
参数名称映射到其值。
partial_fit(self, X, y, classes=None, sample_weight=None)

[源码]

对给定的样本进行一次随机梯度下降。

在内部,此方法使用max_iter = 1。因此,不能保证调用一次后达到损失函数的最小值。目标收敛、提前停止等问题由用户自行处理。

参数 说明
X {array-like, sparse matrix}, shape (n_samples, n_features)
训练数据的子集
y ndarray of shape (n_samples,)
目标值的子集
classes ndarray of shape (n_classes,), default=None
partial_fit调用中所有的类。可以通过np.unique(y_all)获得,其中y_all是整个数据集的目标向量。第一次调用partial_fit时需要此参数,在后续调用中可以将其省略。请注意,y不需要包含classes中的所有标签。
sample_weight array-like, shape (n_samples,), default=None
权重应用于各个样本。如果未提供,则假定权重相同。
返回值 说明
self 返回self的实例。
predict(self, X)

[源码]

预测X中样本的类别标签。

参数 说明
X array_like or sparse matrix, shape (n_samples, n_features)
样本数据
返回值 说明
C array, shape [n_samples]
每个样本的预测类别标签。
score(self,X,y,sample_weight = None )

[源码]

返回给定测试数据和标签上的平均准确度。

在多标签分类中,这是子集准确性,这是一个严格的指标,因为你需要为每个样本正确预测对应的标签集。

参数 说明
X array-like of shape (n_samples, n_features)
测试样本。
y array-like of shape (n_samples,) or (n_samples, n_outputs)
X的真实标签。
sample_weight array-like of shape (n_samples,), default=None
样本权重。
返回值 说明
score float
预测标签与真实标签的平均准确度
set_params(self, **kwargs)

[源码]

设置并验证估计器的参数。

参数 说明
**kwargs dict
估计器参数。
返回值 说明
self object
估计器实例。
sparsify(self)

[源码]

将系数矩阵转换为稀疏格式。

coef_数值转换为scipy.sparse矩阵,对于L1正规化的模型,该矩阵比通常的numpy.ndarray具有更高的内存和存储效率。

intercept_数值未转换。

返回值 说明
self 拟合估计器。

对于非稀疏模型,即当coef_中零的个数不多时,这实际上可能会增加内存使用量,因此请谨慎使用此方法。经验法则是,可以使用(coef_ == 0).sum()计算得到的零元素的数量必须大于50%,这时的效果是显着的。

在调用densify之前,调用此方法将无法进一步使用partial_fit方法(如果有)。