A.高維性
B.規(guī)模
C.稀疏性
D.噪聲和離群點
您可能感興趣的試卷
你可能感興趣的試題
A.精度
B.Rand統(tǒng)計量
C.Jaccard系數(shù)
D.召回率
A.輪廓系數(shù)
B.共性分類相關(guān)系數(shù)
C.熵
D.F度量
A.規(guī)則集的表達能力遠不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進行直線劃分,并將類指派到每個劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.構(gòu)造網(wǎng)絡費時費力
B.對模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡結(jié)構(gòu)確定后,添加變量相當麻煩
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
最新試題
當MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
當數(shù)據(jù)集標簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
使用偏差較小的模型總是比偏差較大的模型更好。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
根據(jù)數(shù)據(jù)科學家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應的存儲系統(tǒng)。
由于決策樹學會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。