sklearn.linear_model.PassiveAggressiveRegressor?
sklearn.linear_model.PassiveAggressiveRegressor(*, C=1.0, fit_intercept=True, max_iter=1000, tol=0.001, early_stopping=False, validation_fraction=0.1, n_iter_no_change=5, shuffle=True, verbose=0, loss='epsilon_insensitive', epsilon=0.1, random_state=None, warm_start=False, average=False)
[源碼]
被動攻擊回歸。
在[用戶指南](http://www.ipahlj.com/view/4.html#1.1.15%20%E8%A2%AB%E5%8A%A8%E6%94%BB%E5%87%BB%E7%AE%97%E6%B3%95(Passive%20Aggressive%20Algorithms))中閱讀更多內容。
參數 | 說明 |
---|---|
C | float 最大步長(正則化)。默認為1.0。 |
fit_intercept | bool 是否應該估計截距。如果為False,則假定數據已經中心化。默認為True。 |
max_iter | int, optional (default=1000) 通過訓練數據的最大次數(又稱階段)。它只會影響 fit 方法中的行為,而不會影響 partial_fit 方法。版本0.19中的新功能。 |
tol | float or None, optional (default=1e-3) 停止標準。如果不是None,則當(eploss> best_loss-tol)時迭代將停止。 版本0.19中的新功能。 |
early_stopping | bool, default=False 是否使用驗證提前停止終止訓練。如果設置為True,它將自動將訓練數據的分層部分的 score 留作驗證,并在連續n_iter_no_change 次的驗證分數沒有提高至少tol 時終止訓練。0.20版中的新功能。 |
validation_fraction | float, default=0.1 預留的訓練數據比例作為早期停止的驗證集。必須介于0和1之間。僅在 early_stopping 為True時使用。0.20版中的新功能。 |
n_iter_no_change | int, default=5 迭代次數,結果沒有改善,可以提前停止。 0.20版中的新功能。 |
shuffle | bool, default=True 在每次迭代之后是否重新打亂訓練數據。 |
verbose | integer, optional 日志的詳細程度 |
loss | string, optional 所使用的損耗函數:epsilon_insensitive:等效于參考文件中的PA-1。squared_epsilon_insensitive:等效于參考文件中的PA-II。 |
epsilon | float 如果當前預測和正確標簽之間的差異低于此閾值,則不會更新模型。 |
random_state | int, RandomState instance, default=None 用于打亂訓練數據,當 shuffle 設置為 True 。可以用一個整數為多個函數調用傳遞重復的輸出。請參閱詞匯表。 |
warm_start | bool, optional 設置為True時,重用前面調用的解決方案來進行初始化,否則,只清除前面的解決方案。請參閱詞匯表。 |
average | bool or int, optional 設置為True時,將計算平均SGD權重并將結果存儲在 coef_ 屬性中。如果將int設置為大于1,則一旦看到的樣本總數達到平均值就會開始平均。如average=10 ,將在看到10個樣本后開始平均。版本0.19中的新功能:參數平均值使用SGD中的權重平均值 |
屬性 | 說明 |
---|---|
coef_ | array, shape = [1, n_features] if n_classes == 2 else [n_classes, n_features] 分配給特征的權重。 |
intercept_ | array, shape = [1] if n_classes == 2 else [n_classes] 決策函數中的常數項。 |
n_iter_ | int 達到停止標準的實際迭代次數。 |
t_ | int 訓練期間進行的權重更新次數,與 (n_iter_ * n_samples) 相同。 |
另見:
參考
Online Passive-Aggressive Algorithms http://jmlr.csail.mit.edu/papers/volume7/crammer06a/crammer06a.pdf K. Crammer, O. Dekel, J. Keshat, S. Shalev-Shwartz, Y. Singer - JMLR (2006)
示例
>>> from sklearn.linear_model import PassiveAggressiveRegressor
>>> from sklearn.datasets import make_regression
>>> regr = PassiveAggressiveRegressor(max_iter=100, random_state=0,
... tol=1e-3)
>>> regr.fit(X, y)
PassiveAggressiveRegressor(max_iter=100, random_state=0)
>>> print(regr.coef_)
[20.48736655 34.18818427 67.59122734 87.94731329]
>>> print(regr.intercept_)
[-0.02306214]
>>> print(regr.predict([[0, 0, 0, 0]]))
[-0.02306214]