A.深度優(yōu)先算法
B.寬度優(yōu)先算法
C.盲搜索算法
D.A算法
您可能感興趣的試卷
你可能感興趣的試題
A.5.IF-D-THEN-E
B.2.IFA∧CTHEN-D
C.3.IFB∧CTHEN-G
D.4.IFB∧ETHEN-F
A.用Skolem函數(shù)(對偶形)消去目標公式中的全稱量詞,化簡的公式受存在量詞的約束。
B.用Skolem函數(shù)消去事實表達式中的存在量詞,化簡的公式受全稱量詞的約束。
C.對規(guī)則的處理同(*)式。
D.用Skolem函數(shù)消去事實表達式中的存在量詞,化簡的公式受全稱量詞的約束。(*)
A.事實表達式是文字合取形式
B.事實表達式是任意形式
C.規(guī)則形式為:W→L或W→L1∧L2其中L為單文字,W為任意形式。
D.目標公式是任意形式
A.數(shù)據(jù)驅(qū)動
B.程序驅(qū)動
C.依賴性
D.獨立性
A.陳述性知識是關(guān)于表示綜合數(shù)據(jù)庫的知識。
B.過程性知識是關(guān)于表示規(guī)則部分的知識。
C.控制知識是關(guān)于表示控制策略方面的知識。
D.規(guī)則表達的可以是與待求解的問題有關(guān)的客觀規(guī)律方面的知識,也可以是對求解問題有幫助的策略方面的知識。
最新試題
反向傳播算法的基本原理是基于什么()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
依存句法分析(DependencyParsing)主要用于分析什么()?
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過程并提高模型在特定任務(wù)上的表現(xiàn)()?
進行模型訓(xùn)練之前,需要先把標注好的數(shù)據(jù)進行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
集成學(xué)習(xí)在強化學(xué)習(xí)中的一個常見應(yīng)用是什么()?
數(shù)量歸約中無參數(shù)的方法一般使用()。