A.標(biāo)稱屬性
B.二元屬性
C.序數(shù)屬性
D.數(shù)值屬性
您可能感興趣的試卷
你可能感興趣的試題
A.關(guān)聯(lián)分析
B.分類和預(yù)測(cè)
C.聚類分析
D.演變分析
A.關(guān)聯(lián)分析
B.分類和預(yù)測(cè)
C.聚類分析
D.演變分析
A.關(guān)聯(lián)分析
B.分類和預(yù)測(cè)
C.演變分析
D.概念描述
A.選擇任務(wù)相關(guān)的數(shù)據(jù)
B.選擇要挖掘的知識(shí)類型
C.模式的興趣度度量
D.模式的可視化表示
A.關(guān)聯(lián)分析
B.分類和預(yù)測(cè)
C.孤立點(diǎn)分析
D.演變分析
E.概念描述
最新試題
任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個(gè)角度來(lái)設(shè)計(jì)和實(shí)現(xiàn)的。
給定用于2類分類問(wèn)題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過(guò)度擬合訓(xùn)練數(shù)據(jù)的潛在問(wèn)題。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
數(shù)據(jù)存儲(chǔ)體系中并不牽扯計(jì)算機(jī)網(wǎng)絡(luò)這一環(huán)節(jié)。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。