人工神經(jīng)網(wǎng)絡(luò)是一種經(jīng)典的機(jī)器學(xué)習(xí)模型,隨著深度學(xué)習(xí)的發(fā)展神經(jīng)網(wǎng)絡(luò)模型日益完善.
聯(lián)想大家熟悉的回歸問題,神經(jīng)網(wǎng)絡(luò)模型實(shí)際上是根據(jù)訓(xùn)練樣本創(chuàng)造出一個多維輸入多維輸出的函數(shù),并使用該函數(shù)進(jìn)行預(yù)測,網(wǎng)絡(luò)的訓(xùn)練過程即為調(diào)節(jié)該函數(shù)參數(shù)提高預(yù)測精度的過程.神經(jīng)網(wǎng)絡(luò)要解決的問題與最小二乘法回歸解決的問題并無根本性區(qū)別.
感知機(jī)(Perceptron)是一個簡單的線性二分類器,它保存著輸入權(quán)重,根據(jù)輸入和內(nèi)置的函數(shù)計算輸出.人工神經(jīng)網(wǎng)絡(luò)中的單個神經(jīng)元即是感知機(jī).
在前饋神經(jīng)網(wǎng)絡(luò)的預(yù)測過程中,數(shù)據(jù)流從輸入到輸出單向流動,不存在循環(huán)和返回的通道.
目前大多數(shù)神經(jīng)網(wǎng)絡(luò)模型都屬于前饋神經(jīng)網(wǎng)絡(luò),在下文中我們將詳細(xì)討論前饋過程.
多層感知機(jī)(MultiLayerPerceptron,MLP)是由多個感知機(jī)層全連接組成的前饋神經(jīng)網(wǎng)絡(luò),這種模型在非線性問題中表現(xiàn)出色.
所謂全連接是指層A上任一神經(jīng)元與臨近層B上的任意神經(jīng)元之間都存在連接.
反向傳播(BackPropagation,BP)是誤差反向傳播的簡稱,這是一種用來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)的常見算法,通常與最優(yōu)化方法(如梯度下降法)結(jié)合使用.
神經(jīng)網(wǎng)絡(luò)模型在結(jié)構(gòu)上屬于MLP,因?yàn)椴捎肂P算法進(jìn)行訓(xùn)練,人們也稱其為BP神經(jīng)網(wǎng)絡(luò).
以上內(nèi)容為大家介紹了Python增強(qiáng),希望對大家有所幫助,如果想要了解更多Python相關(guān)知識,請關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。