sklearn.linear_model.PassiveAggressiveClassifier?
class sklearn.linear_model.PassiveAggressiveClassifier(*, C=1.0, fit_intercept=True, max_iter=1000, tol=0.001, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, shuffle=True, verbose=0, loss='hinge', n_jobs=None, random_state=None, warm_start=False, class_weight=None, average=False)
被動感知分類器。
在用戶指南中閱讀更多內容。
參數 | 說明 |
---|---|
C | float 最大步長(正則化)。默認為1.0。 |
fit_intercept | bool, default=False 是否估計截距。如果為False,則假定數據已經中心化。 |
max_iter | int, optional (default=1000) 訓練數據的最大迭代次數(又稱歷元)。它只會影響 fit 方法中的行為,而不會影響 partial_fit 方法。0.19版本中的新功能。 |
tol | float or None, optional (default=1e-3) 停止標準。如果不是None,則迭代將在(loss> previous_loss-tol)時停止。 0.19版本中的新功能。 |
early_stopping | bool, default=False 是否使用驗證提前停止終止訓練。如果設置為True,它將自動留出訓練數據的分層部分作為驗證,并在連續n_iter_no_change次驗證分數都沒有提高至少tol時終止訓練。 0.20版中的新功能。 |
validation_fraction | float, default=0.1 預留的作為早期停止的驗證集的訓練數據比例。必須在0到1之間。僅當early_stopping為True時使用。 0.20版中的新功能。 |
n_iter_no_change | int, default=5 在提前停止之前沒有提升的迭代次數。 0.20版中的新功能。 |
shuffle | bool, default=True 在每次迭代之后是否重新打亂訓練數據。 |
verbose | integer, optional 日志的詳細程度 |
loss | string, optional 要使用的損失函數: hinge:等效于參考文檔中的PA-I。 squared_hinge:等效于參考文檔中的PA-II。 |
n_jobs | int or None, optional (default=None) 用于執行OVA(對于多類問題而言為“一個對所有”)的CPU內核數。除非設置了 joblib.parallel_backend 參數,否則None 表示1 。 -1 表示使用所有處理器。有關更多詳細信息,請參見詞匯表。 |
random_state | int, RandomState instance, default=None 用于打亂訓練數據,當 shuffle 設置為 True 。對于一個整數值,可以為多個函數調用傳遞重復的輸出。請參閱詞匯表。 |
warm_start | bool, optional 設置為True時,重用前面調用的解決方案來進行初始化,否則,只清除前面的解決方案。請參閱詞匯表。 當warm_start為True時,重復調用fit或partial_fit可能會導致解決方案與一次調用fit時有所不同,這是因為數據的重排方式所致。 |
class_weight | dict, {class_label: weight} or “balanced” or None, optional class_weight fit參數的預設值。 類別關聯的權重。如果沒有給出,所有類別的權重都應該是1。 “balanced”模式使用y的值來自動調整為與輸入數據中的類頻率成反比的權重。如 n_samples / (n_classes * np.bincount(y)) 0.17版中的新功能:參數class_weight*可自動對樣本加權。 |
average | bool or int, optional 設置為True時,將計算平均SGD權重并將結果存儲在 coef_ 屬性中。如果將int設置為大于1,則一旦看到的樣本總數達到平均值就會開始平均。如average=10,將在看到10個樣本后開始平均。0.19版本中的新功能:參數平均值使用SGD中的權重平均值 |
屬性 | 說明 |
---|---|
coef_ | array, shape = [1, n_features] if n_classes == 2 else [n_classes, n_features] 分配給特征的權重。 |
intercept_ | array, shape = [1] if n_classes == 2 else [n_classes] 決策函數中的常量。 |
n_iter_ | int 達到停止標準的實際迭代次數。對于多類擬合,它是每個二分類擬合的最大值。 |
classes_ | array of shape (n_classes,) 非重復的類標簽。 |
t_ | int 訓練期間進行的權重更新次數。與 (n_iter_ * n_samples) 相同。 |
loss_function_ | callable 算法使用的損失函數。 |
另見
參考
Online Passive-Aggressive Algorithms http://jmlr.csail.mit.edu/papers/volume7/crammer06a/crammer06a.pdf K. Crammer, O. Dekel, J. Keshat, S. Shalev-Shwartz, Y. Singer - JMLR (2006)
示例
>>> from sklearn.linear_model import PassiveAggressiveClassifier
>>> from sklearn.datasets import make_classification
>>> X, y = make_classification(n_features=4, random_state=0)
>>> clf = PassiveAggressiveClassifier(max_iter=1000, random_state=0,
... tol=1e-3)
>>> clf.fit(X, y)
PassiveAggressiveClassifier(random_state=0)
>>> print(clf.coef_)
[[0.26642044 0.45070924 0.67251877 0.64185414]]
>>> print(clf.intercept_)
[1.84127814]
>>> print(clf.predict([[0, 0, 0, 0]]))
[1]
方法
方法 | 說明 |
---|---|
decision_function (self, X) |
預測樣本的置信度得分。 |
densify (self) |
將系數矩陣轉換為密集數組格式。 |
fit (self, X, y[, sample_weight]) |
根據給定的訓練數據擬合模型。 |
get_params (self[, deep]) |
獲取此估計器的參數。 |
partial_fit (self, X, y[, classes]) |
用被動進取算法擬合線性模型。 |
predict (self, X) |
預測X中樣本的類別標簽。 |
score (self, X, y[, sample_weight]) |
返回給定測試數據和標簽上的平均準確度。 |
set_params (self, **params) |
設置此估計器的參數。 |
sparsify (self) |
將系數矩陣轉換為稀疏格式。 |
__init__(self,*,C = 1.0,fit_intercept = True,max_iter = 1000,tol = 0.001,early_stopping = False,validation_fraction = 0.1,n_iter_no_change = 5,shuffle = True,verbose = 0,loss ='hinge',n_jobs = None,random_state = None,warm_start = False,class_weight = None,average = False )
初始化self, 請參閱help(type(self))以獲得準確的說明。
decision_function(self, X)
預測樣本的置信度得分。
樣本的置信度分數是該樣本到超平面的符號距離。
參數 | 說明 |
---|---|
X | array_like or sparse matrix, shape (n_samples, n_features) 樣本數據。 |
返回值 | 說明 |
---|---|
array, shape=(n_samples,) if n_classes == 2 else (n_samples, n_classes) 每個(樣本,類別)組合的置信度得分。在二分類情況下,self.classes_ [1]的置信度得分> 0表示將預測該類。 |
densify(self)
將系數矩陣轉換為密集數組格式。
將coef_
數值(返回)轉換為numpy.ndarray。這是coef_
的默認格式,并且是擬合模型所需的格式,因此僅在之前被稀疏化的模型上才需要調用此方法。否則,它是無操作的。
返回值 | 說明 |
---|---|
self | 擬合估計器。 |
fit(self,X,y,coef_init = None,Intercept_init = None )
[源碼]
用被動感知算法擬合線性模型。
參數 | 說明 |
---|---|
X | {array-like, sparse matrix} of shape (n_samples, n_features) 訓練數據 |
y | array-like of shape (n_samples,) 目標標簽。 |
coef_init | array, shape = [n_classes,n_features] 用于熱啟動優化的初始系數。 |
intercept_init | array, shape = [n_classes] 初始截距以熱啟動優化。 |
返回值 | 說明 |
---|---|
self | returns an instance of self. |
get_params(self,deep = True )
[源碼]
獲取此估計器的參數。
參數 | 說明 |
---|---|
deep | bool, default=True 如果為True,返回此估計器和所包含子對象的參數。 |
返回值 | 說明 |
---|---|
params | mapping of string to any 參數名稱映射到其值。 |
partial_fit(self, X, y, classes=None)
[源碼]
用被動感知算法擬合線性模型。
參數 | 說明 |
---|---|
X | array_like or sparse matrix, shape (n_samples, n_features) 訓練數據的子集 |
y | numpy array of shape [n_samples] 目標值的子集 |
classes | array, shape = [n_classes] partial_fit調用中所有的類。可以通過 np.unique(y_all) 獲得,其中y_all是整個數據集的目標向量。第一次調用partial_fit時需要此參數,在后續調用中可以將其省略。請注意,y不需要包含classes 中的所有標簽。 |
返回值 | 說明 |
---|---|
self | returns an instance of self. |
predict(self, X)
[源碼]
預測X中樣本的類別標簽。
參數 | 說明 |
---|---|
X | array-like of shape (n_samples, n_features) 樣本數據 |
返回值 | 說明 |
---|---|
C | array, shape [n_samples] 每個樣本的預測類別標簽。 |
score(self,X,y,sample_weight = None )
[源碼]
返回給定測試數據和標簽上的平均準確度。
在多標簽分類中,這是子集準確性,這是一個嚴格的指標,因為你需要為每個樣本正確預測對應的標簽集。
參數 | 說明 |
---|---|
X | array-like of shape (n_samples, n_features) 測試樣本。 |
y | array-like of shape (n_samples,) or (n_samples, n_outputs) X的真實標簽。 |
sample_weight | array-like of shape (n_samples,), default=None 樣本權重。 |
返回值 | 說明 |
---|---|
score | float 預測標簽與真實標簽的平均準確度 |
set_params(self, **kwargs)
[源碼]
設置并驗證估計器的參數。
參數 | 說明 |
---|---|
**kwargs | dict 估計器參數。 |
返回值 | 說明 |
---|---|
self | object 估計器實例。 |
sparsify(self)
[源碼]
將系數矩陣轉換為稀疏格式。
將coef_
數值轉換為scipy.sparse矩陣,對于L1正規化的模型,該矩陣比通常的numpy.ndarray具有更高的內存和存儲效率。
該intercept_
數值未轉換。
返回值 | 說明 |
---|---|
self | 擬合估計器。 |
注
對于非稀疏模型,即當coef_
中零的個數不多時,這實際上可能會增加內存使用量,因此請謹慎使用此方法。經驗法則是,可以使用(coef_ == 0).sum()
計算得到的零元素的數量必須大于50%,這時的效果是顯著的。
在調用densify之前,調用此方法將無法進一步使用partial_fit方法(如果有)。