A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork)
B.學(xué)習(xí)率在迭代的參數(shù)調(diào)整過程中會(huì)固定不變
C.梯度下降是運(yùn)用積分的技巧來達(dá)成
D.損失函數(shù)移動(dòng)的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)