A.變量代換
B.離散化
C.聚集
D.估計遺漏值
您可能感興趣的試卷
你可能感興趣的試題
A.根據(jù)內(nèi)容檢索
B.建模描述
C.預測建模
D.尋找模式和規(guī)則
A.探索性數(shù)據(jù)分析
B.建模描述
C.預測建模
D.尋找模式和規(guī)則
A.頻繁模式挖掘
B.分類和預測
C.數(shù)據(jù)預處理
D.數(shù)據(jù)流挖掘
以下兩種描述分別對應哪兩種對分類算法的評價標準?()
(1)警察抓小偷,描述警察抓的人中有多少個是小偷的標準。
(2)描述有多少比例的小偷給警察抓了的標準。
A.Precision,Recall
B.Recall,Precision
C.Precision,ROC
D.Recall,ROC
最新試題
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關系型數(shù)據(jù)庫來存儲。
管理員不需要驗證就可以訪問數(shù)據(jù)存儲系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
使用偏差較小的模型總是比偏差較大的模型更好。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
根據(jù)數(shù)據(jù)科學家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應的存儲系統(tǒng)。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
當MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。