A.卷積層
B.交換層
C.池化層
D.全連接層
E.非線性激活層
您可能感興趣的試卷
你可能感興趣的試題
A.是訓(xùn)練過程中用來度量分類器輸出錯(cuò)誤程度的數(shù)學(xué)化表示
B.預(yù)測錯(cuò)誤程度越大,損失函數(shù)的取值就越大
C.定義合適的損失函數(shù)對于訓(xùn)練分類器是非常重要的
D.損失函數(shù)是在整個(gè)訓(xùn)練集上求得的,如果用它來更新參數(shù),則是利用了整個(gè)數(shù)據(jù)集中被誤分類的數(shù)據(jù)
E.感知器和支持向量機(jī)是基于相同的損失函數(shù)建立起來的
A.強(qiáng)化學(xué)習(xí)與監(jiān)督學(xué)習(xí)最主要的區(qū)別在于其收到的反饋是:評估性和指導(dǎo)性
B.監(jiān)督學(xué)習(xí)給出的指導(dǎo)性反饋將會(huì)通過監(jiān)督信號告知學(xué)習(xí)者應(yīng)該要做出什么樣的行為而獲取更高的收益
C.強(qiáng)化學(xué)習(xí)的評估性反饋意味著該學(xué)習(xí)系統(tǒng)只會(huì)告訴學(xué)習(xí)者當(dāng)前的做法是好還是壞的
D.強(qiáng)化學(xué)習(xí)的目的就是找到一個(gè)最佳的策略,從而使得主體發(fā)出一系列的動(dòng)作后,收到的累積回報(bào)最多
E.策略(Policy)指的是主體的行為,是一個(gè)從狀態(tài)集合到動(dòng)作集合的映像
A.方差
B.變異
C.機(jī)率
D.方向
E.平均值
A.愛德華・費(fèi)根鮑姆(EdwardFeigenbaum)
B.約翰・霍普非爾德(JohnHopfield)
C.艾倫・圖靈(AlanTuring)
D.馬文・閩斯基(MarvinMinsky)
E.克理夫・肖(CliffShaw)
A.Artificial Information
B.AutomaticInte lligence
C.ArtificialInte lligence
D.Automatic Information
E.Automatic Inspection
最新試題
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
反向傳播算法的基本原理是基于什么()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
在自然語言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
在自然語言處理中,哪些方法可以用于提升自動(dòng)對話系統(tǒng)和文本摘要生成的自然性和流暢性()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
數(shù)量歸約中無參數(shù)的方法一般使用()。