A.CNN
B.LeNet
C.NN
D.GoogleNet
E.RNN
您可能感興趣的試卷
你可能感興趣的試題
A.Kai-FuLee
B.GeoffreyHinton
C.YoshuaBengio
D.AndrewNg
E.YangLeCun
A.約10萬
B.約50萬
C.約100萬
D.約130萬
E.約200萬
A.當(dāng)一個(gè)深度神經(jīng)網(wǎng)絡(luò)以卷積層為主體時(shí),稱為卷積神經(jīng)網(wǎng)絡(luò)
B.需要對特征向量進(jìn)行轉(zhuǎn)換,經(jīng)常用的是全連接層
C.歸一化指數(shù)層的作用用于完成多類線性分類器中的歸一化指數(shù)函數(shù)的計(jì)算
D.常用的非線性函數(shù)為邏輯函數(shù)、雙曲線正切函數(shù)、線性整流函數(shù)
E.以上皆是
A.收集多樣化的樣本
B.減少特征個(gè)數(shù)
C.交叉驗(yàn)證
D.正規(guī)化
E.內(nèi)插法
A.二分類
B.多分類
C.不分類
D.歸類法
E.以上皆非
最新試題
在自然語言處理中,哪些方法可以用于提升自動對話系統(tǒng)和文本摘要生成的自然性和流暢性()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識別的準(zhǔn)確性()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過程并提高模型在特定任務(wù)上的表現(xiàn)()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見應(yīng)用是什么()?
反向傳播算法的基本原理是基于什么()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識別和文本生成任務(wù)的性能()?