A.矩陣
B.平行坐標系
C.星形坐標
D.散布圖
E.Chernoff臉
您可能感興趣的試卷
你可能感興趣的試題
A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
A.統(tǒng)計
B.計算機組成原理
C.礦產(chǎn)挖掘
D.人工智能
A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個算法過程使評分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
最新試題
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
數(shù)據(jù)復制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設(shè)計和實現(xiàn)的。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
當MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。