A.lambda只是一個表達(dá)式,函數(shù)體比def簡單很多
B.lambda的主體可以是一個表達(dá)式,也可以是一個代碼快
C.lambda函數(shù)可以訪問全局命名空間里的參數(shù)
D.lambda函數(shù)只接受一個參數(shù)值
您可能感興趣的試卷
你可能感興趣的試題
A.線性相關(guān)
B.線性無關(guān)
C.a1+a2+a3=0
D.2a1+a2+a3=0
A.泊松分布與二項分布的數(shù)學(xué)模型都是拉格朗日概率
B.泊松分布與二項分布當(dāng)n很大p很小的近似計算
C.泊松分布與二項分布沒有關(guān)系
D.泊松分布可以替代二項分布
A.L1范數(shù)L2范數(shù)
B.數(shù)據(jù)集增強
C.集成方法
D.Dropout
A.單機模式
B.分布式模式
C.反向模式
D.正向模式
A.繼承
B.重載
C.派生
D.多繼承
最新試題
在強化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
在自然語言處理中,哪些方法可以用于提升自動文本摘要的生成效果()?
在機器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
反向傳播算法的主要目的是什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
進行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?