A.損失函數(shù)
B.神經(jīng)網(wǎng)絡(luò)層
C.優(yōu)化器
D.激活函數(shù)和其他非層操作
您可能感興趣的試卷
你可能感興趣的試題
A.直方圖分析法
B.Laws 紋理能量測(cè)量法
C.邊緣檢測(cè)法
D.灰度共生矩陣分析法
A.生成器(Generator)
B.判別器(Discriminator)
C.編碼器(Encoder)
D.解碼器(Decoder)
A.將文本數(shù)據(jù)轉(zhuǎn)換為圖像數(shù)據(jù)
B.將高維的文本數(shù)據(jù)轉(zhuǎn)換為低維的向量表示
C.直接用于分類任務(wù)
D.提取文本數(shù)據(jù)的特征
A.智能體選擇的動(dòng)作序列
B.智能體根據(jù)狀態(tài)選擇動(dòng)作的規(guī)則
C.智能體獲得的累積獎(jiǎng)勵(lì)
D.智能體與環(huán)境交互的次數(shù)
A.構(gòu)建相似度矩陣
B.計(jì)算拉普拉斯矩陣
C.對(duì)拉普拉斯矩陣進(jìn)行特征分解
D.使用K-means 對(duì)特征向量進(jìn)行聚類
最新試題
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在自然語言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?
在自然語言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見應(yīng)用是什么()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
反向傳播算法的基本原理是基于什么()?