A.是訓(xùn)練過(guò)程中用來(lái)度量分類(lèi)器輸出錯(cuò)誤程度的數(shù)學(xué)化表示
B.預(yù)測(cè)錯(cuò)誤程度越大,損失函數(shù)的取值就越大
C.定義合適的損失函數(shù)對(duì)于訓(xùn)練分類(lèi)器是非常重要的
D.損失函數(shù)是在整個(gè)訓(xùn)練集上求得的,如果用它來(lái)更新參數(shù),則是利用了整個(gè)數(shù)據(jù)集中被誤分類(lèi)的數(shù)據(jù)
E.感知器和支持向量機(jī)是基于相同的損失函數(shù)建立起來(lái)的
您可能感興趣的試卷
你可能感興趣的試題
A.強(qiáng)化學(xué)習(xí)與監(jiān)督學(xué)習(xí)最主要的區(qū)別在于其收到的反饋是:評(píng)估性和指導(dǎo)性
B.監(jiān)督學(xué)習(xí)給出的指導(dǎo)性反饋將會(huì)通過(guò)監(jiān)督信號(hào)告知學(xué)習(xí)者應(yīng)該要做出什么樣的行為而獲取更高的收益
C.強(qiáng)化學(xué)習(xí)的評(píng)估性反饋意味著該學(xué)習(xí)系統(tǒng)只會(huì)告訴學(xué)習(xí)者當(dāng)前的做法是好還是壞的
D.強(qiáng)化學(xué)習(xí)的目的就是找到一個(gè)最佳的策略,從而使得主體發(fā)出一系列的動(dòng)作后,收到的累積回報(bào)最多
E.策略(Policy)指的是主體的行為,是一個(gè)從狀態(tài)集合到動(dòng)作集合的映像
A.方差
B.變異
C.機(jī)率
D.方向
E.平均值
A.愛(ài)德華・費(fèi)根鮑姆(EdwardFeigenbaum)
B.約翰・霍普非爾德(JohnHopfield)
C.艾倫・圖靈(AlanTuring)
D.馬文・閩斯基(MarvinMinsky)
E.克理夫・肖(CliffShaw)
A.Artificial Information
B.AutomaticInte lligence
C.ArtificialInte lligence
D.Automatic Information
E.Automatic Inspection
A.統(tǒng)計(jì)詞頻率
B.刪除停止詞與低頻詞
C.中文分詞
D.潛在語(yǔ)義分析
E.計(jì)算詞頻率-逆文文件頻率
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類(lèi)的性能()?
反向傳播算法的基本原理是基于什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
依存句法分析(DependencyParsing)主要用于分析什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類(lèi)。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?