A.0,1
B.肯定屬于
C.肯定不屬于
D.可能屬于
您可能感興趣的試卷
你可能感興趣的試題
A.消去“蘊(yùn)含”連結(jié)詞
B.減少“非”連結(jié)詞的轄域
C.對變量標(biāo)準(zhǔn)化
D.消去存在量詞
A.知識庫
B.工作存儲器
C.加密,解密設(shè)備
D.推理機(jī)
A.判斷
B.推理
C.證明
D.識別
A.神經(jīng)計算
B.進(jìn)化計算
C.模糊計算
D.數(shù)字計算
A.選擇
B.交叉
C.取整
D.變異

最新試題
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過程并提高模型在特定任務(wù)上的表現(xiàn)()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
反向傳播算法的基本原理是基于什么()?
依存句法分析(DependencyParsing)主要用于分析什么()?
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?
在強(qiáng)化學(xué)習(xí)中,什么是“動態(tài)規(guī)劃”(DynamicProgramming)()?
相對化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?