A.單維關(guān)聯(lián)規(guī)則
B.多維關(guān)聯(lián)規(guī)則
C.混合維關(guān)聯(lián)規(guī)則
D.不是一個(gè)關(guān)聯(lián)規(guī)則
您可能感興趣的試卷
你可能感興趣的試題
A.概念描述
B.分類和預(yù)測(cè)
C.聚類分析
D.演變分析
A.劃分的方法
B.基于模型的方法
C.基于密度的方法
D.層次的方法
A.Euclidean距離
B.Manhattan距離
C.Eula距離
D.Minkowski距離
A.判定樹歸納
B.貝葉斯分類
C.后向傳播分類
D.基于案例的推理
A.分類和聚類都是有指導(dǎo)的學(xué)習(xí)
B.分類和聚類都是無指導(dǎo)的學(xué)習(xí)
C.分類是有指導(dǎo)的學(xué)習(xí),聚類是無指導(dǎo)的學(xué)習(xí)
D.分類是無指導(dǎo)的學(xué)習(xí),聚類是有指導(dǎo)的學(xué)習(xí)
最新試題
要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。
使用偏差較小的模型總是比偏差較大的模型更好。
當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時(shí),無論初始權(quán)重是什么,總是會(huì)找到相同的解(即權(quán)重)。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
無論質(zhì)心的初始化如何,K-Means始終會(huì)給出相同的結(jié)果。
使決策樹更深將確保更好的擬合度,但會(huì)降低魯棒性。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。