sklearn.linear_model.TheilSenRegressor?
class sklearn.linear_model.TheilSenRegressor(*, fit_intercept=True, copy_X=True, max_subpopulation=10000.0, n_subsamples=None, max_iter=300, tol=0.001, random_state=None, n_jobs=None, verbose=False)
Theil-Sen估計器:穩健的多元回歸模型。
該算法計算X中樣本大小為n_subsample的子集的最小二乘解。在特征數和樣本數之間的任意n_subsamples值都可以得到一種魯棒性和效率之間折衷的估計器。因為最小二乘解的個數是“n_samples select n_subsamples”,所以它可以非常大,因此可以使用max_subpopulation進行限制。如果達到此限制,則隨機選擇子集。在最后一步中,將計算所有最小二乘解的空間中位數(或L1中位數)。
在用戶指南中閱讀更多內容。
參數 | 說明 |
---|---|
fit_intercept | boolean, optional, default True 是否計算此模型的截距。如果設置為false,則在計算中將不使用截距。 |
copy_X | boolean, optional, default True 如果為True,將復制X;否則X可能會被覆蓋。 |
max_subpopulation | int, optional, default 1e4 利用‘n choose k’的集合進行計算,這里n是樣本的數量,k是子樣本的數量(至少是特征的數量),如果‘n choose k’大于max_subpopulation,只考慮給定最大規模的隨機子總體。對于較小的問題,如果不更改n_subsamples,則此參數將確定內存使用情況和運行時間。 |
n_subsamples | int, optional, default None 計算參數的樣本數。至少是特征數量(如果fit_intercept = True,則為加1),并且樣本的數量為最大值。數值越小,故障點越多,效率越低;數值越大,故障點越少,效率越高。如果為“無”,則采用最小數量的子樣本,以實現最大的魯棒性。如果將n_subsamples設置為n_samples,則Theil-Sen與最小二乘法相同。 |
max_iter | int, optional, default 300 計算空間中位數的最大迭代次數。 |
tol | float, optional, default 1.e-3 計算空間中位數時的容忍度。 |
random_state | int, RandomState instance, default=None 隨機數生成器實例,用于定義隨機排列生成器的狀態。通過傳遞一個整數實現多個函數調用傳遞可重復輸出。見詞匯表。 |
n_jobs | int or None, optional (default=None) 交叉驗證期間要使用的CPU數量。 除非上下文中設置了 joblib.parallel_backend 參數,否則None 表示1 。 -1 表示使用所有處理器。有關更多詳細信息,請參見詞匯表。 |
verbose | boolean, optional, default False 擬合模型時的詳細模式。 |
屬性 | 說明 |
---|---|
coef_ | array, shape = (n_features) 回歸模型的系數(分布的中位數)。 |
intercept_ | float 回歸模型的估計截距。 |
breakdown_ | float 近似故障點。 |
n_iter_ | int 空間中位數所需的迭代次數。 |
n_subpopulation_ | int “ n choose k”中考慮的組合數,其中n是樣本數,k是子樣本數。 |
參考
Theil-Sen Estimators in a Multiple Linear Regression Model, 2009 Xin Dang, Hanxiang Peng, Xueqin Wang and Heping Zhang http://home.olemiss.edu/~xdang/papers/MTSE.pdf
示例
>>> from sklearn.linear_model import TheilSenRegressor
>>> from sklearn.datasets import make_regression
>>> X, y = make_regression(
... n_samples=200, n_features=2, noise=4.0, random_state=0)
>>> reg = TheilSenRegressor(random_state=0).fit(X, y)
>>> reg.score(X, y)
0.9884...
>>> reg.predict(X[:1,])
array([-31.5871...])
方法
方法 | 說明 |
---|---|
fit (X, y) |
擬合線性模型。 |
get_params ([deep]) |
獲取此估計器的參數。 |
predict (X) |
使用線性模型進行預測。 |
score (X, y[, sample_weight]) |
返回預測的確定系數R ^ 2。 |
set_params (**params) |
設置此估算器的參數。 |
__init__(*,fit_intercept = True,copy_X = True,max_subpopulation = 10000.0,n_subsamples = None,max_iter = 300,tol = 0.001,random_state = None,n_jobs = None,verbose = False )
初始化self, 請參閱help(type(self))以獲得準確的說明。
fit(X,y )
[源碼]
擬合線性模型。
參數 | 說明 |
---|---|
X | numpy array of shape [n_samples, n_features] 訓練數據。 |
y | numpy array of shape [n_samples] 目標值。 |
返回值 | 說明 |
---|---|
self | returns an instance of self. |
get_params(deep=True)
[源碼]
獲取此估計器的參數。
參數 | 說明 |
---|---|
deep | bool, default=True 如果為True,則將返回此估算器和所包含子對象的參數。 |
返回值 | 說明 |
---|---|
params | mapping of string to any 參數名稱映射到其值。 |
predict(X)
[源碼]
使用線性模型進行預測。
參數 | 說明 |
---|---|
X | array_like or sparse matrix, shape (n_samples, n_features) 樣本數據 |
返回值 | 說明 |
---|---|
C | array, shape (n_samples,) 返回預測值。 |
score(X, y, sample_weight=None)
[源碼]
返回預測的確定系數R ^ 2。
系數R ^ 2定義為(1- u / v),其中u是殘差平方和((y_true-y_pred)** 2).sum(),而v是總平方和((y_true- y_true.mean())** 2).sum()。可能的最高得分為1.0,并且也可能為負(因為該模型可能會更差)。一個常數模型總是預測y的期望值,而不考慮輸入特征,得到的R^2得分為0.0。
參數 | 說明 |
---|---|
X | array-like of shape (n_samples, n_features) 測試樣本。對于某些估計器,這可以是預先計算的內核矩陣或通用對象列表,形狀為(n_samples,n_samples_fitted),其中n_samples_fitted是用于擬合估計器的樣本數。 |
y | array-like of shape (n_samples,) or (n_samples, n_outputs) X對應的真實值。 |
sample_weight | array-like of shape (n_samples,), default=None 樣本權重。 |
返回值 | 說明 |
---|---|
score | float 預測值與真實值的R^2。 |
注
調用回歸器中的score
時使用的R2分數,multioutput='uniform_average'
從0.23版開始使用 ,與r2_score
默認值保持一致。這會影響多輸出回歸的score
方法( MultiOutputRegressor
除外)。
set_params(**params)
[源碼]
設置此估計器的參數。
該方法適用于簡單的估計器以及嵌套對象(例如管道)。后者具有形式為 <component>__<parameter>
的參數,這樣就可以更新嵌套對象的每個組件。
參數 | 說明 |
---|---|
**params | dict 估計器參數。 |
返回值 | 說明 |
---|---|
self | object 估計器實例。 |