A.損失函數(shù)是對(duì)每個(gè)輸入的預(yù)測(cè)值與真實(shí)值的差異計(jì)算總和 B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解 C.損失函數(shù)的變量是可以調(diào)整的參數(shù) D.訓(xùn)練神經(jīng)網(wǎng)絡(luò)是透過參數(shù)的調(diào)整來降低損失函數(shù) E.梯度下降是降低損失函數(shù)的一種算法
A.傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)是指全鏈接神經(jīng)網(wǎng)絡(luò) B.全鏈接神經(jīng)網(wǎng)絡(luò)也叫標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò) C.標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)通常稱為NN(neuralnetwork) D.全鏈接神經(jīng)網(wǎng)絡(luò)的每個(gè)神經(jīng)元都會(huì)跟前后層的神經(jīng)元相連 E.每個(gè)神經(jīng)元內(nèi)部的計(jì)算架構(gòu)都不一樣
A.建構(gòu)神經(jīng)網(wǎng)絡(luò)時(shí)需要知道最終的函數(shù)學(xué)習(xí)機(jī)長(zhǎng)什么樣子 B.打造一個(gè)神經(jīng)網(wǎng)絡(luò)的函數(shù)學(xué)習(xí)機(jī)是透過編程來達(dá)成 C.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、表現(xiàn)層及輸出層 D.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、隱藏層及輸出層 E.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、激發(fā)層及輸出層