KRR
自訂表格及進階統計量中提供 KRR。
KRR
使用 Python sklearn.kernel_ridge.KernelRidge 類別來估計一或多個自變數上應變數的核心脊迴歸。 自變數包括模型超參數,或透過指定的值網格以選擇超參數值。 使用 sklearn.model_selection.GridSearchCV 類別可達到交叉驗證。
附註: 核心迴歸演算法需要使用
N x
N
矩陣,其中 N
是觀察值數目。 記憶體需求會隨著觀察值數目快速增加,且演算法無法妥善擴充至大型資料集。 確切的案例限制取決於作業系統及特定硬體。 當資料集包含 50,000 個 (或更少) 觀察值時,可能會超出記憶體需求。KRR dependent WITH covariate list
[/KERNEL [ADDITIVE_CHI2(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL [CHI2(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
GAMMA={1}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL COSINE(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL LAPLACIAN(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
GAMMA={1/p}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL LINEAR(ALPHA={1**}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL POLYNOMIAL(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
GAMMA={1/p}
{[values] [value1 TO value2 BY value3]})]
COEF0={1}
{[values] [value1 TO value2 BY value3]})]
DEGREE={3}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL RBF(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
GAMMA={1/p}
{[values] [value1 TO value2 BY value3]})]
[/KERNEL SIGMOID(ALPHA={1}
{[values] [value1 TO value2 BY value3]})]
GAMMA={1/p}
{[values] [value1 TO value2 BY value3]})]
COEF0={1}
{[values] [value1 TO value2 BY value3]})]
[/CROSSVALID [NFOLDS={5** }
{value}]
[/CRITERIA TIMER={5** }
{value}
[/PRINT {BEST** }
{COMPARE}
{VERBOSE}]
[/PLOT {OBSERVED} {RESIDUAL}]
[/SAVE {PRED(varname)} {RESID(varname)} {DUAL(varname)}]
**如果省略了次指令或關鍵字,則為預設值。
/p 是預測值變數或共變數的數目。
此指令會讀取作用中資料集,並導致執行任何擱置指令。 如需相關資訊,請參閱主題 指令順序 。
KRR 指令的語法可以從 核心脊迴歸 對話框產生。
範例
KRR y WITH x
/KERNEL POLYNOMIAL(DEGREE=2 COEF0=1)
/PLOT RESIDUALS_VS_PREDICTED
/SAVE PRED RESID DUAL.
- 延伸會在
x
上執行y
的核心脊迴歸。 - 使用多項式核心。
- 多項式的次數為
2
,表示二次函數。 - 多項式核心的
0
係數設為其預設值1
。 - 核心中的 gamma 值保留為預設值
1/p
。 - Alpha 規則化參數會保留預設值
1
。 - 即會顯示殘差與預測值的散佈圖。
- 預測值、殘差和雙重空間係數加權會使用預設名稱來儲存。