A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線(xiàn)性時(shí),混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類(lèi)型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題
您可能感興趣的試卷
你可能感興趣的試題
A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE
A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM
A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰
以下是哪一個(gè)聚類(lèi)算法的算法流程()。
①構(gòu)造k-最近鄰圖。
②使用多層圖劃分算法劃分圖。
③repeat:合并關(guān)于相對(duì)互連性和相對(duì)接近性而言,最好地保持簇的自相似性的簇。
④until:不再有可以合并的簇。
A.MST
B.OPOSSUM
C.Chameleon
D.Jarvis-Patrick(JP)
A.K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類(lèi)所有對(duì)象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇
最新試題
由于決策樹(shù)學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類(lèi),因此它們不可能過(guò)度擬合。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過(guò)度擬合訓(xùn)練數(shù)據(jù)的潛在問(wèn)題。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。
支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。
對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類(lèi)數(shù)據(jù)的觀察和理解。
數(shù)據(jù)收集中的拉模式需要通過(guò)定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。
給定用于2類(lèi)分類(lèi)問(wèn)題的線(xiàn)性可分離數(shù)據(jù)集,線(xiàn)性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類(lèi)精度。
由于分類(lèi)是回歸的一種特殊情況,因此邏輯回歸是線(xiàn)性回歸的一種特殊情況。