最新試題
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
題型:判斷題
數(shù)據(jù)復制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設(shè)計和實現(xiàn)的。
題型:判斷題
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學習基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
題型:判斷題
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
題型:判斷題
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
題型:判斷題
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應的數(shù)據(jù)。
題型:判斷題
管理員不需要驗證就可以訪問數(shù)據(jù)存儲系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
題型:判斷題
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
題型:判斷題
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
題型:判斷題
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
題型:判斷題