單項(xiàng)選擇題下列哪位是神經(jīng)網(wǎng)絡(luò)之父?()

A.GeoffreyHinton
B.Kai-FuLee
C.YoshuaBengio
D.YangLeCun
E.AndrewNg


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題關(guān)于卷積神經(jīng)網(wǎng)絡(luò)敘述何者正確?()

A.池化層會(huì)出現(xiàn)在每個(gè)隱藏層
B.池化層目的是做特征的題曲
C.池化層運(yùn)做完會(huì)得到特征圖(FeatureMap)
D.池化層可以取代卷積層
E.第一層的卷積運(yùn)算是在做圖像邊緣或紋理的特征提取

2.單項(xiàng)選擇題下列哪位是卷積神經(jīng)網(wǎng)絡(luò)之父?()

A.Kai-FuLee
B.GeoffreyHinton
C.YoshuaBengio
D.YangLeCun
E.AndrewNg

3.單項(xiàng)選擇題何者是圖像識(shí)別的天王?()

A.RNN
B.CNN
C.FCNN
D.LSTM
E.GAN

4.單項(xiàng)選擇題關(guān)于深度學(xué)習(xí)敘述何者正確?()

A.以數(shù)學(xué)眼光來看CNN是NN的子集合
B.機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種
C.人工智能是一種深度學(xué)習(xí)
D.深度學(xué)習(xí)通常隱藏層在百層以上的神經(jīng)網(wǎng)絡(luò),這樣才夠深
E.CNN是一種有記憶的神經(jīng)網(wǎng)絡(luò),會(huì)記得上一次的輸入

5.單項(xiàng)選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)原理敘述何者正確?()

A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork)
B.學(xué)習(xí)率在迭代的參數(shù)調(diào)整過程中會(huì)固定不變
C.梯度下降是運(yùn)用積分的技巧來達(dá)成
D.損失函數(shù)移動(dòng)的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)

最新試題

智能運(yùn)維AIOps 的核心技術(shù)是什么()?

題型:?jiǎn)雾?xiàng)選擇題

在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。

題型:?jiǎn)雾?xiàng)選擇題

在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?

題型:?jiǎn)雾?xiàng)選擇題

圖像數(shù)據(jù)標(biāo)注可以用于()算法中。

題型:多項(xiàng)選擇題

在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?

題型:多項(xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?

題型:?jiǎn)雾?xiàng)選擇題

在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?

題型:多項(xiàng)選擇題

根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。

題型:?jiǎn)雾?xiàng)選擇題