A.以數(shù)學(xué)眼光來看CNN是NN的子集合 B.機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種 C.人工智能是一種深度學(xué)習(xí) D.深度學(xué)習(xí)通常隱藏層在百層以上的神經(jīng)網(wǎng)絡(luò),這樣才夠深 E.CNN是一種有記憶的神經(jīng)網(wǎng)絡(luò),會記得上一次的輸入
A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork) B.學(xué)習(xí)率在迭代的參數(shù)調(diào)整過程中會固定不變 C.梯度下降是運(yùn)用積分的技巧來達(dá)成 D.損失函數(shù)移動的方向跟梯度的方向相同 E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)
A.損失函數(shù)是對每個(gè)輸入的預(yù)測值與真實(shí)值的差異計(jì)算總和 B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解 C.損失函數(shù)的變量是可以調(diào)整的參數(shù) D.訓(xùn)練神經(jīng)網(wǎng)絡(luò)是透過參數(shù)的調(diào)整來降低損失函數(shù) E.梯度下降是降低損失函數(shù)的一種算法