A.預(yù)測(cè)準(zhǔn)確度
B.召回率
C.模型描述的簡潔度
D.計(jì)算復(fù)雜度
您可能感興趣的試卷
你可能感興趣的試題
A.其支持度小于閾值
B.都是不讓人感興趣的
C.包含負(fù)模式和負(fù)相關(guān)模式
D.對(duì)異常數(shù)據(jù)項(xiàng)敏感
A.支持度閥值
B.項(xiàng)數(shù)(維度)
C.事務(wù)數(shù)
D.事務(wù)平均寬度
A.數(shù)據(jù)的抽取
B.存儲(chǔ)和管理
C.數(shù)據(jù)的表現(xiàn)
D.數(shù)據(jù)倉庫設(shè)計(jì)
A.數(shù)據(jù)倉庫就是數(shù)據(jù)庫
B.數(shù)據(jù)倉庫是一切商業(yè)智能系統(tǒng)的基礎(chǔ)
C.數(shù)據(jù)倉庫是面向業(yè)務(wù)的,支持聯(lián)機(jī)事務(wù)處理(OLTP)
D.數(shù)據(jù)倉庫支持決策而非事務(wù)處理
E.數(shù)據(jù)倉庫的主要目標(biāo)就是幫助分析,做長期性的戰(zhàn)略制定
A.主成分分析
B.特征提取
C.奇異值分解
D.特征加權(quán)
E.離散化
最新試題
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
使決策樹更深將確保更好的擬合度,但會(huì)降低魯棒性。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
無論質(zhì)心的初始化如何,K-Means始終會(huì)給出相同的結(jié)果。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。
由于決策樹學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計(jì)算機(jī)手段來完成。