1.網(wǎng)絡(luò)結(jié)構(gòu)不同
RBF神經(jīng)網(wǎng)絡(luò)主要由輸入層、隱含層和輸出層組成,隱含層的激活函數(shù)通常采用高斯函數(shù)或其他徑向基函數(shù)。而B(niǎo)P神經(jīng)網(wǎng)絡(luò)通常包含一個(gè)輸入層、一個(gè)或多個(gè)隱含層和一個(gè)輸出層,隱含層和輸出層的激活函數(shù)可以是任何非線性函數(shù)。
2.學(xué)習(xí)策略不同
RBF神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)策略通常是非監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的組合,非監(jiān)督學(xué)習(xí)用于確定隱含層的中心和寬度,監(jiān)督學(xué)習(xí)用于確定輸出層的權(quán)值。而B(niǎo)P神經(jīng)網(wǎng)絡(luò)則采用全監(jiān)督學(xué)習(xí),通過(guò)反向傳播算法更新所有層的權(quán)值。
3.訓(xùn)練復(fù)雜性不同
RBF神經(jīng)網(wǎng)絡(luò)的訓(xùn)練通常比較簡(jiǎn)單,由于徑向基函數(shù)的局部性,導(dǎo)致權(quán)值的更新只受局部樣本影響,而且不易陷入局部最小值。而B(niǎo)P神經(jīng)網(wǎng)絡(luò)的訓(xùn)練更加復(fù)雜,需要反復(fù)迭代,容易陷入局部最小值。
4.應(yīng)用場(chǎng)景不同
RBF神經(jīng)網(wǎng)絡(luò)由于其良好的局部逼近和模式識(shí)別能力,常用于模式識(shí)別、時(shí)間序列預(yù)測(cè)和控制系統(tǒng)等領(lǐng)域。而B(niǎo)P神經(jīng)網(wǎng)絡(luò)因?yàn)槠鋸?qiáng)大的通用逼近能力,應(yīng)用更加廣泛,包括語(yǔ)音識(shí)別、圖像處理、自然語(yǔ)言處理等多個(gè)領(lǐng)域。
5.優(yōu)勢(shì)和劣勢(shì)不同
RBF神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)在于訓(xùn)練速度快,能處理非線性問(wèn)題,適用于模式識(shí)別等問(wèn)題。而其劣勢(shì)是隱層神經(jīng)元數(shù)量的確定較為困難,可能導(dǎo)致網(wǎng)絡(luò)結(jié)構(gòu)的選擇有一定的主觀性。BP神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)在于其通用性強(qiáng),適用于多種復(fù)雜問(wèn)題。而其劣勢(shì)則是訓(xùn)練時(shí)間長(zhǎng),容易陷入局部最小值。
延伸閱讀
深度學(xué)習(xí)的發(fā)展
深度學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)的一個(gè)重要發(fā)展方向,其基本思想是構(gòu)建多層的神經(jīng)網(wǎng)絡(luò)模型,通過(guò)大量數(shù)據(jù)和強(qiáng)大的計(jì)算能力,實(shí)現(xiàn)對(duì)復(fù)雜模式的學(xué)習(xí)和抽象。深度學(xué)習(xí)在語(yǔ)音識(shí)別、視覺(jué)對(duì)象識(shí)別、對(duì)象檢測(cè)、藥物發(fā)現(xiàn)和基因組學(xué)等多個(gè)領(lǐng)域都顯示出優(yōu)越的性能。