sklearn.linear_model.PassiveAggressiveClassifier¶
class sklearn.linear_model.PassiveAggressiveClassifier(*, C=1.0, fit_intercept=True, max_iter=1000, tol=0.001, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, shuffle=True, verbose=0, loss='hinge', n_jobs=None, random_state=None, warm_start=False, class_weight=None, average=False)
被动感知分类器。
在用户指南中阅读更多内容。
参数 | 说明 |
---|---|
C | float 最大步长(正则化)。默认为1.0。 |
fit_intercept | bool, default=False 是否估计截距。如果为False,则假定数据已经中心化。 |
max_iter | int, optional (default=1000) 训练数据的最大迭代次数(又称历元)。它只会影响 fit 方法中的行为,而不会影响 partial_fit 方法。0.19版本中的新功能。 |
tol | float or None, optional (default=1e-3) 停止标准。如果不是None,则迭代将在(loss> previous_loss-tol)时停止。 0.19版本中的新功能。 |
early_stopping | bool, default=False 是否使用验证提前停止终止训练。如果设置为True,它将自动留出训练数据的分层部分作为验证,并在连续n_iter_no_change次验证分数都没有提高至少tol时终止训练。 0.20版中的新功能。 |
validation_fraction | float, default=0.1 预留的作为早期停止的验证集的训练数据比例。必须在0到1之间。仅当early_stopping为True时使用。 0.20版中的新功能。 |
n_iter_no_change | int, default=5 在提前停止之前没有提升的迭代次数。 0.20版中的新功能。 |
shuffle | bool, default=True 在每次迭代之后是否重新打乱训练数据。 |
verbose | integer, optional 日志的详细程度 |
loss | string, optional 要使用的损失函数: hinge:等效于参考文档中的PA-I。 squared_hinge:等效于参考文档中的PA-II。 |
n_jobs | int or None, optional (default=None) 用于执行OVA(对于多类问题而言为“一个对所有”)的CPU内核数。除非设置了 joblib.parallel_backend 参数,否则None 表示1 。 -1 表示使用所有处理器。有关更多详细信息,请参见词汇表。 |
random_state | int, RandomState instance, default=None 用于打乱训练数据,当 shuffle 设置为 True 。对于一个整数值,可以为多个函数调用传递重复的输出。请参阅词汇表。 |
warm_start | bool, optional 设置为True时,重用前面调用的解决方案来进行初始化,否则,只清除前面的解决方案。请参阅词汇表。 当warm_start为True时,重复调用fit或partial_fit可能会导致解决方案与一次调用fit时有所不同,这是因为数据的重排方式所致。 |
class_weight | dict, {class_label: weight} or “balanced” or None, optional class_weight fit参数的预设值。 类别关联的权重。如果没有给出,所有类别的权重都应该是1。 “balanced”模式使用y的值来自动调整为与输入数据中的类频率成反比的权重。如 n_samples / (n_classes * np.bincount(y)) 0.17版中的新功能:参数class_weight*可自动对样本加权。 |
average | bool or int, optional 设置为True时,将计算平均SGD权重并将结果存储在 coef_ 属性中。如果将int设置为大于1,则一旦看到的样本总数达到平均值就会开始平均。如average=10,将在看到10个样本后开始平均。0.19版本中的新功能:参数平均值使用SGD中的权重平均值 |
属性 | 说明 |
---|---|
coef_ | array, shape = [1, n_features] if n_classes == 2 else [n_classes, n_features] 分配给特征的权重。 |
intercept_ | array, shape = [1] if n_classes == 2 else [n_classes] 决策函数中的常量。 |
n_iter_ | int 达到停止标准的实际迭代次数。对于多类拟合,它是每个二分类拟合的最大值。 |
classes_ | array of shape (n_classes,) 非重复的类标签。 |
t_ | int 训练期间进行的权重更新次数。与 (n_iter_ * n_samples) 相同。 |
loss_function_ | callable 算法使用的损失函数。 |
另见
参考
Online Passive-Aggressive Algorithms http://jmlr.csail.mit.edu/papers/volume7/crammer06a/crammer06a.pdf K. Crammer, O. Dekel, J. Keshat, S. Shalev-Shwartz, Y. Singer - JMLR (2006)
示例
>>> from sklearn.linear_model import PassiveAggressiveClassifier
>>> from sklearn.datasets import make_classification
>>> X, y = make_classification(n_features=4, random_state=0)
>>> clf = PassiveAggressiveClassifier(max_iter=1000, random_state=0,
... tol=1e-3)
>>> clf.fit(X, y)
PassiveAggressiveClassifier(random_state=0)
>>> print(clf.coef_)
[[0.26642044 0.45070924 0.67251877 0.64185414]]
>>> print(clf.intercept_)
[1.84127814]
>>> print(clf.predict([[0, 0, 0, 0]]))
[1]
方法
方法 | 说明 |
---|---|
decision_function (self, X) |
预测样本的置信度得分。 |
densify (self) |
将系数矩阵转换为密集数组格式。 |
fit (self, X, y[, sample_weight]) |
根据给定的训练数据拟合模型。 |
get_params (self[, deep]) |
获取此估计器的参数。 |
partial_fit (self, X, y[, classes]) |
用被动进取算法拟合线性模型。 |
predict (self, X) |
预测X中样本的类别标签。 |
score (self, X, y[, sample_weight]) |
返回给定测试数据和标签上的平均准确度。 |
set_params (self, **params) |
设置此估计器的参数。 |
sparsify (self) |
将系数矩阵转换为稀疏格式。 |
__init__(self,*,C = 1.0,fit_intercept = True,max_iter = 1000,tol = 0.001,early_stopping = False,validation_fraction = 0.1,n_iter_no_change = 5,shuffle = True,verbose = 0,loss ='hinge',n_jobs = None,random_state = None,warm_start = False,class_weight = None,average = False )
初始化self, 请参阅help(type(self))以获得准确的说明。
decision_function(self, X)
预测样本的置信度得分。
样本的置信度分数是该样本到超平面的符号距离。
参数 | 说明 |
---|---|
X | array_like or sparse matrix, shape (n_samples, n_features) 样本数据。 |
返回值 | 说明 |
---|---|
array, shape=(n_samples,) if n_classes == 2 else (n_samples, n_classes) 每个(样本,类别)组合的置信度得分。在二分类情况下,self.classes_ [1]的置信度得分> 0表示将预测该类。 |
densify(self)
将系数矩阵转换为密集数组格式。
将coef_
数值(返回)转换为numpy.ndarray。这是coef_
的默认格式,并且是拟合模型所需的格式,因此仅在之前被稀疏化的模型上才需要调用此方法。否则,它是无操作的。
返回值 | 说明 |
---|---|
self | 拟合估计器。 |
fit(self,X,y,coef_init = None,Intercept_init = None )
[源码]
用被动感知算法拟合线性模型。
参数 | 说明 |
---|---|
X | {array-like, sparse matrix} of shape (n_samples, n_features) 训练数据 |
y | array-like of shape (n_samples,) 目标标签。 |
coef_init | array, shape = [n_classes,n_features] 用于热启动优化的初始系数。 |
intercept_init | array, shape = [n_classes] 初始截距以热启动优化。 |
返回值 | 说明 |
---|---|
self | returns an instance of self. |
get_params(self,deep = True )
[源码]
获取此估计器的参数。
参数 | 说明 |
---|---|
deep | bool, default=True 如果为True,返回此估计器和所包含子对象的参数。 |
返回值 | 说明 |
---|---|
params | mapping of string to any 参数名称映射到其值。 |
partial_fit(self, X, y, classes=None)
[源码]
用被动感知算法拟合线性模型。
参数 | 说明 |
---|---|
X | array_like or sparse matrix, shape (n_samples, n_features) 训练数据的子集 |
y | numpy array of shape [n_samples] 目标值的子集 |
classes | array, shape = [n_classes] partial_fit调用中所有的类。可以通过 np.unique(y_all) 获得,其中y_all是整个数据集的目标向量。第一次调用partial_fit时需要此参数,在后续调用中可以将其省略。请注意,y不需要包含classes 中的所有标签。 |
返回值 | 说明 |
---|---|
self | returns an instance of self. |
predict(self, X)
[源码]
预测X中样本的类别标签。
参数 | 说明 |
---|---|
X | array-like of shape (n_samples, n_features) 样本数据 |
返回值 | 说明 |
---|---|
C | array, shape [n_samples] 每个样本的预测类别标签。 |
score(self,X,y,sample_weight = None )
[源码]
返回给定测试数据和标签上的平均准确度。
在多标签分类中,这是子集准确性,这是一个严格的指标,因为你需要为每个样本正确预测对应的标签集。
参数 | 说明 |
---|---|
X | array-like of shape (n_samples, n_features) 测试样本。 |
y | array-like of shape (n_samples,) or (n_samples, n_outputs) X的真实标签。 |
sample_weight | array-like of shape (n_samples,), default=None 样本权重。 |
返回值 | 说明 |
---|---|
score | float 预测标签与真实标签的平均准确度 |
set_params(self, **kwargs)
[源码]
设置并验证估计器的参数。
参数 | 说明 |
---|---|
**kwargs | dict 估计器参数。 |
返回值 | 说明 |
---|---|
self | object 估计器实例。 |
sparsify(self)
[源码]
将系数矩阵转换为稀疏格式。
将coef_
数值转换为scipy.sparse矩阵,对于L1正规化的模型,该矩阵比通常的numpy.ndarray具有更高的内存和存储效率。
该intercept_
数值未转换。
返回值 | 说明 |
---|---|
self | 拟合估计器。 |
注
对于非稀疏模型,即当coef_
中零的个数不多时,这实际上可能会增加内存使用量,因此请谨慎使用此方法。经验法则是,可以使用(coef_ == 0).sum()
计算得到的零元素的数量必须大于50%,这时的效果是显着的。
在调用densify之前,调用此方法将无法进一步使用partial_fit方法(如果有)。