多項選擇題底下那些函數(shù)是常見的激活函數(shù)?()
A.Sigmoid(S函數(shù))
B.正弦函數(shù)
C.Tanh
D.二次方函數(shù)
E.ReLU
您可能感興趣的試卷
你可能感興趣的試題
1.多項選擇題底下那些層在AlexNet每一層都出現(xiàn)?()
A.全連接層
B.池化層
C.卷積層
D.激活層
E.跳躍層
2.多項選擇題AlexNet的池化層目的為何?()
A.提取水平特征
B.提取垂直特征
C.降低維度
D.保留局部有效特征
E.做非線性區(qū)隔
3.多項選擇題AlexNet包含哪些層?()
A.卷積層
B.池化層
C.激活層
D.全連接層
E.跳躍層
4.多項選擇題做卷積計算的口訣為何?()
A.拉直
B.滑動
C.選轉(zhuǎn)
D.截取
E.計算內(nèi)積
5.多項選擇題圖像處理的濾波器又叫什么?()
A.核心
B.貼片
C.計算器
D.屏蔽
E.擷取器
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
反向傳播算法的主要目的是什么()?
題型:單項選擇題
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
題型:多項選擇題
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實體識別的準確性()?
題型:多項選擇題
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?
題型:多項選擇題
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實體識別和關(guān)系抽取的效果()?
題型:多項選擇題
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
題型:多項選擇題
在機器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
題型:單項選擇題
在自然語言處理中,哪些方法可以用于提升自動對話系統(tǒng)和文本摘要生成的自然性和流暢性()?
題型:多項選擇題
在自然語言處理中,哪些方法可以用于提升自動文本摘要的生成效果()?
題型:多項選擇題
模型微調(diào)中的提示學(xué)習(xí)是指:()。
題型:單項選擇題