單項選擇題下面哪種不屬于數(shù)據(jù)預處理的方法?()

A.變量代換
B.離散化
C.聚集
D.估計遺漏值


您可能感興趣的試卷

最新試題

由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。

題型:判斷題

非結(jié)構(gòu)化數(shù)據(jù)也可以使用關系型數(shù)據(jù)庫來存儲。

題型:判斷題

管理員不需要驗證就可以訪問數(shù)據(jù)存儲系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。

題型:判斷題

使用偏差較小的模型總是比偏差較大的模型更好。

題型:判斷題

隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。

題型:判斷題

根據(jù)數(shù)據(jù)科學家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應的存儲系統(tǒng)。

題型:判斷題

無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。

題型:判斷題

當MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。

題型:判斷題

通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。

題型:判斷題