sklearn.linear_model.TheilSenRegressor?

class sklearn.linear_model.TheilSenRegressor(*, fit_intercept=True, copy_X=True, max_subpopulation=10000.0, n_subsamples=None, max_iter=300, tol=0.001, random_state=None, n_jobs=None, verbose=False)

[源碼]

Theil-Sen估計器:穩健的多元回歸模型。

該算法計算X中樣本大小為n_subsample的子集的最小二乘解。在特征數和樣本數之間的任意n_subsamples值都可以得到一種魯棒性和效率之間折衷的估計器。因為最小二乘解的個數是“n_samples select n_subsamples”,所以它可以非常大,因此可以使用max_subpopulation進行限制。如果達到此限制,則隨機選擇子集。在最后一步中,將計算所有最小二乘解的空間中位數(或L1中位數)。

用戶指南中閱讀更多內容。

參數 說明
fit_intercept boolean, optional, default True
是否計算此模型的截距。如果設置為false,則在計算中將不使用截距。
copy_X boolean, optional, default True
如果為True,將復制X;否則X可能會被覆蓋。
max_subpopulation int, optional, default 1e4
利用‘n choose k’的集合進行計算,這里n是樣本的數量,k是子樣本的數量(至少是特征的數量),如果‘n choose k’大于max_subpopulation,只考慮給定最大規模的隨機子總體。對于較小的問題,如果不更改n_subsamples,則此參數將確定內存使用情況和運行時間。
n_subsamples int, optional, default None
計算參數的樣本數。至少是特征數量(如果fit_intercept = True,則為加1),并且樣本的數量為最大值。數值越小,故障點越多,效率越低;數值越大,故障點越少,效率越高。如果為“無”,則采用最小數量的子樣本,以實現最大的魯棒性。如果將n_subsamples設置為n_samples,則Theil-Sen與最小二乘法相同。
max_iter int, optional, default 300
計算空間中位數的最大迭代次數。
tol float, optional, default 1.e-3
計算空間中位數時的容忍度。
random_state int, RandomState instance, default=None
隨機數生成器實例,用于定義隨機排列生成器的狀態。通過傳遞一個整數實現多個函數調用傳遞可重復輸出。見詞匯表
n_jobs int or None, optional (default=None)
交叉驗證期間要使用的CPU數量。 除非上下文中設置了joblib.parallel_backend參數,否則None表示1 。 -1表示使用所有處理器。有關更多詳細信息,請參見詞匯表
verbose boolean, optional, default False
擬合模型時的詳細模式。
屬性 說明
coef_ array, shape = (n_features)
回歸模型的系數(分布的中位數)。
intercept_ float
回歸模型的估計截距。
breakdown_ float
近似故障點。
n_iter_ int
空間中位數所需的迭代次數。
n_subpopulation_ int
“ n choose k”中考慮的組合數,其中n是樣本數,k是子樣本數。

參考

Theil-Sen Estimators in a Multiple Linear Regression Model, 2009 Xin Dang, Hanxiang Peng, Xueqin Wang and Heping Zhang http://home.olemiss.edu/~xdang/papers/MTSE.pdf

示例

>>> from sklearn.linear_model import TheilSenRegressor
>>> from sklearn.datasets import make_regression
>>> X, y = make_regression(
...     n_samples=200, n_features=2, noise=4.0, random_state=0)
>>> reg = TheilSenRegressor(random_state=0).fit(X, y)
>>> reg.score(X, y)
0.9884...
>>> reg.predict(X[:1,])
array([-31.5871...])

方法

方法 說明
fit(X, y) 擬合線性模型。
get_params([deep]) 獲取此估計器的參數。
predict(X) 使用線性模型進行預測。
score(X, y[, sample_weight]) 返回預測的確定系數R ^ 2。
set_params(**params) 設置此估算器的參數。
__init__(*,fit_intercept = True,copy_X = True,max_subpopulation = 10000.0,n_subsamples = None,max_iter = 300,tol = 0.001,random_state = None,n_jobs = None,verbose = False )

[源碼]

初始化self, 請參閱help(type(self))以獲得準確的說明。

fit(X,y )

[源碼]

擬合線性模型。

參數 說明
X numpy array of shape [n_samples, n_features]
訓練數據。
y numpy array of shape [n_samples]
目標值。
返回值 說明
self returns an instance of self.
get_params(deep=True)

[源碼]

獲取此估計器的參數。

參數 說明
deep bool, default=True
如果為True,則將返回此估算器和所包含子對象的參數。
返回值 說明
params mapping of string to any
參數名稱映射到其值。
predict(X)

[源碼]

使用線性模型進行預測。

參數 說明
X array_like or sparse matrix, shape (n_samples, n_features)
樣本數據
返回值 說明
C array, shape (n_samples,)
返回預測值。
score(X, y, sample_weight=None)

[源碼]

返回預測的確定系數R ^ 2。

系數R ^ 2定義為(1- u / v),其中u是殘差平方和((y_true-y_pred)** 2).sum(),而v是總平方和((y_true- y_true.mean())** 2).sum()。可能的最高得分為1.0,并且也可能為負(因為該模型可能會更差)。一個常數模型總是預測y的期望值,而不考慮輸入特征,得到的R^2得分為0.0。

參數 說明
X array-like of shape (n_samples, n_features)
測試樣本。對于某些估計器,這可以是預先計算的內核矩陣或通用對象列表,形狀為(n_samples,n_samples_fitted),其中n_samples_fitted是用于擬合估計器的樣本數。
y array-like of shape (n_samples,) or (n_samples, n_outputs)
X對應的真實值。
sample_weight array-like of shape (n_samples,), default=None
樣本權重。
返回值 說明
score float
預測值與真實值的R^2。

調用回歸器中的score時使用的R2分數,multioutput='uniform_average'從0.23版開始使用 ,與r2_score默認值保持一致。這會影響多輸出回歸的score方法( MultiOutputRegressor除外)。

set_params(**params)

[源碼]

設置此估計器的參數。

該方法適用于簡單的估計器以及嵌套對象(例如管道)。后者具有形式為 <component>__<parameter>的參數,這樣就可以更新嵌套對象的每個組件。

參數 說明
**params dict
估計器參數。
返回值 說明
self object
估計器實例。

sklearn.linear_model.TheilSenRegressor使用示例?