K 值的選擇會對算法的結果産生重大影響。
K值較小意味着隻有與輸入實例較近的訓練實例才會對預測結果起作用,但容易發生過拟合;如果K值較大,優點是可以減少學習的估計誤差,但缺點是學習的近似誤差增大,這時與輸入實例較遠的訓練實例也會對預測起作用,使預測發生錯誤。
在實際應用中,K值一般選擇一個較小的數值,通常采用交叉驗證的方法來選擇最優的 K 值。随着訓練實例數目趨向于無窮和K等于1時,誤差率不會超過貝葉斯誤差率的2倍,如果K也趨向于無窮,則誤差率趨向于貝葉斯誤差率。
更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!