A.D(C)=0
B.D(X+Y)=D(X)+D(Y)
C.D(CX)=C*C*D(X)
D.D(XY)=D(X)D(Y)
您可能感興趣的試卷
你可能感興趣的試題
A.0
B.0.5
C.1
D.-1
A.易讀性
B.簡潔性
C.快速性
D.可擴(kuò)展性
A.深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究
B.含有多個(gè)隱層的神經(jīng)網(wǎng)絡(luò)算法就是一種深度學(xué)習(xí)算法
C.單層神經(jīng)網(wǎng)絡(luò)也是深度學(xué)習(xí)的一種
D.卷積神經(jīng)網(wǎng)絡(luò)屬于深度學(xué)習(xí)的一種
A.大數(shù)據(jù)
B.計(jì)算能力
C.算法理論
D.區(qū)塊鏈
最新試題
反向傳播算法的主要目的是什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
Xpath 語言有()的構(gòu)成。
相對化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?