A.邏輯推理
B.基于規(guī)則
C.機(jī)器學(xué)習(xí)
D.深度學(xué)習(xí)
您可能感興趣的試卷
你可能感興趣的試題
A.設(shè)備要求低
B.選擇性好
C.成本低廉
D.易實(shí)現(xiàn)自動(dòng)化連續(xù)作業(yè)
E.可循環(huán)利用
A.反向傳播算法用于計(jì)算梯度,梯度下降算法用于更新參數(shù)
B.反向傳播算法用于更新參數(shù),梯度下降算法用于計(jì)算梯度
C.兩者都用于計(jì)算梯度,但梯度下降算法用于更新參數(shù)
D.兩者可以獨(dú)立運(yùn)行,互不影響
A.序列到序列模型
B.注意力機(jī)制
C.引入預(yù)訓(xùn)練模型
D.數(shù)據(jù)增強(qiáng)
A.名稱
B.位置
C.屬性
D.內(nèi)容
A.微積分法
B.微積分中的鏈?zhǔn)角髮?dǎo)法則
C.微積分中的二分法
D.微積分中的均方誤差
最新試題
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升實(shí)體識(shí)別和文本理解的準(zhǔn)確性和效率()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
模型微調(diào)中的提示學(xué)習(xí)是指:()。
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
在自然語(yǔ)言處理中,哪些技術(shù)適用于提升問(wèn)答系統(tǒng)的性能()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。