pythonK-NN算法的優(yōu)缺點(diǎn)
本文教程操作環(huán)境:windows7系統(tǒng)、Python3.9.1,DELLG3電腦。
1、優(yōu)點(diǎn)
(1)簡單而有效
(2)再培訓(xùn)成本低。
(3)適合跨領(lǐng)域的抽樣。
基于KNN的方法主要依賴于附近有限個(gè)樣本,而基于類域的KNN方法則不能確定其所屬的類類,所以KNN方法更適合于類域有較多交叉或重疊的待分樣本集。
(4)適用于各種樣本量的分類。
所提出的方法適用于類域中具有較大樣本容量的類動(dòng)態(tài)分類,而類域中具有較大樣本容量的類動(dòng)態(tài)分類更易產(chǎn)生錯(cuò)誤。
2、缺點(diǎn)
(1)是惰性學(xué)習(xí)。
KNN算法是一種懶散的學(xué)習(xí)方法(lazylearning,基本不學(xué)習(xí)),?次主動(dòng)學(xué)習(xí)算法速度要快得多。
(2)類評分未規(guī)格化。
不同之處在于通過概率評分進(jìn)行分類。
(3)輸出的可解釋性較差。
比如,決策樹的輸出可以很好地解釋。
(4)不善于處理不均衡的樣品。
在樣本不平衡時(shí),例如?個(gè)類的樣本容量很小,而其它類的樣本容量很小,就有可能導(dǎo)致當(dāng)一個(gè)新樣本出現(xiàn)在同一K個(gè)鄰域中時(shí),在該類的K個(gè)鄰域中占多數(shù)。這個(gè)算法只計(jì)算“最近的”鄰域樣本,其中一類樣本的個(gè)數(shù)很小,那么這類樣本可能與另一類樣本的個(gè)數(shù)不近,或者這類樣本與另一類樣本的個(gè)數(shù)不近。然而,量的大小并不會(huì)影響到操作結(jié)果。對此,可采用一種改進(jìn)的同位素同位素同位素同位素法(即同位素離位素同位素同位素同位素)。
以上就是pythonK-NN算法優(yōu)缺點(diǎn)的介紹,希望能對大家有所幫助。更多Python學(xué)習(xí)教程請關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。