A.批量歸一化
B.數(shù)據(jù)增強(qiáng)
C.使用卷積神經(jīng)網(wǎng)絡(luò)
D.梯度裁剪
您可能感興趣的試卷
你可能感興趣的試題
A.訓(xùn)練集
B.驗(yàn)證集
C.測試集
D.備份集
A.序列標(biāo)注
B.序列到序列模型
C.實(shí)體關(guān)系抽取
D.引入預(yù)訓(xùn)練模型
A.引入預(yù)訓(xùn)練模型
B.序列標(biāo)注
C.注意力機(jī)制
D.使用卷積神經(jīng)網(wǎng)絡(luò)
A.序列到序列模型
B.注意力機(jī)制
C.引入預(yù)訓(xùn)練模型
D.數(shù)據(jù)增強(qiáng)
A.非空值約束
B.基于元組的檢查子句
C.域約束子句
D.默認(rèn)
最新試題
反向傳播算法的基本原理是基于什么()?
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識別的準(zhǔn)確性()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識別和關(guān)系抽取的效果()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識別和文本生成任務(wù)的性能()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
在自然語言處理中,哪些方法可以用于提升自動文本摘要的生成效果()?