home archives github knives links
tags
categories 人工智能
only title title and content
人工智能

搜索

简单游戏画图

DFS

BFS

启发式搜索

爬山搜索

最佳优先搜索

A*算法

极小极大搜索

将启发值自底向上传播

极小极大过程

$\alpha,\beta$剪枝

剪枝规则

推理

证明 树状图, 推导过程

合一

参考:cnblogs

替换

合一算法

  1. 令$k = 0, S_0 = S, \sigma_0 = \varepsilon$
  2. 若$S_k$只含有一个谓词公式, 则算法停止, $\sigma_k$就是所求的最一般合一
  3. 求$S_k$的差异集$D_k$
  4. 若$D_k$中存在元素$x_k$和$t_k$, 其中$x_k$是变元, $t_k$是项且$x_k$不在$t_k$中出现, 则置$S_{k + 1} = S_k\{t_k/x_k\}, \sigma_{k + 1} = \sigma_k \cdot \{t_k/x_k\}$, 然后回到2
  5. 算法停止, $S$的最一般合一不存在

归结(消解)

消解否证的步骤

转换子句

知识表示

不太会专门出题

不确定性推理

DS证据理论(%50, 实例理解)

参考:CSDN

概率密度函数(mass函数)

$m: 2^{\Omega} \to [0, 1]$, 且$m(\emptyset) = 0, \sum_{A \subseteq \Omega} m(A) = 1$

信任函数(信度函数)

$Bel: 2^{\Omega} \to [0, 1], Bel(A) = \sum_{B \subseteq A} m(B)$, 其中$A \subseteq \Omega$

$Bel$为下限函数, $Bel(A)$表示对$A$的总信任度

似然函数

$Pl: 2^{\Omega} \to [0, 1], Pl(A) = 1 - Bel(\lnot A)$, 其中$A \subseteq \Omega, \lnot A = \Omega - A$

$Pl$为上限函数, $Pl(A)$表示对$A$非假的信任度

信任区间

$[Bel(A), Pl(A)], (Pl(A) \ge Bel(A))$

证据的合并

Dempster证据合并规则

对于$\forall A \subseteq \Omega, \Omega$上的两个mass函数$m_1, m_2$, 其Dempster合成规则为:

$$ m_1 \oplus m_2(A) = \dfrac{1}{K} \sum_{B \cap C = A} m_1(B) \times m_2(C) $$
$$ K = \sum_{B \cap C \not= \emptyset} m_1(B) \times m_2(C) = 1 - \sum_{B \cap C = \emptyset} m_1(B) \times m_2(C) $$

贝叶斯网络

贝叶斯网络的推理(%50)

贝叶斯公式

$$ P(A_i | B) = \dfrac{P(A_i B)}{P(B)} = \dfrac{P(A_i)P(B | A_i)}{\sum_{i = 1}^{n}P(A_i)P(B | A_i)} $$

条件概率的链式法则

$$ P(\alpha_1 \cap \cdots \cap \alpha_k) = P(\alpha_1)P(\alpha_2 | \alpha_1) \cdots P(\alpha_k | \alpha_1 \cap \cdots \cap \alpha_{k - 1}) $$

贝叶斯网络中的独立性

参考:cnblogs

顺序连接 分支连接 汇合连接
$a \to c \to b$ $a \gets c \to b$ $a \to c \gets b$
$(a \perp b \mid c)$ $(a \perp b \mid c)$ $(a \not\perp b \mid c)$

d-分离

参考:cnblogs

因果推理

诊断推理(证据推理)

马尔科夫逻辑网络

简答题

和贝叶斯网络性质差别(< %50)

符号学习

用于学习布尔函数的ID3算法(设计和实现 $\star$)

信息熵

加入一个随机变量$X$的取值为$X = \{x_1, x_2, \cdots, x_n\}$, 每一种取到的概率分别是$\{p_1, p_2, \cdots, p_n\}$, 那么$X$的熵定义为

$$ Entroypy(X) = -\sum_{i = 1}^{n} p_i \log_2 p_i $$

在$X$的条件下$Y$的条件熵, 是指在$X$的信息之后, $Y$这个变量的信息量的大小

$$ Entropy(Y | X) = \sum_{i = 1}^{n} p(x_i)Entropy(Y | x_i) $$

信息增益

属性$A$对数据集$D$的信息增益为$infoGain(D | A)$

$$ infoGain(D | A) = Entropy(D) - Entropy(D | A) $$

ID3算法步骤

  1. 从根节点开始, 计算所有可能的特征的信息增益, 选择信息增益最大的特征作为结点的划分特征
  2. 由该特征的不同取值建立子节点
  3. 对子节点递归1, 2步, 构建决策树
  4. 直到没有特征可以选择或类别完全相同为止, 得到最终的决策树

例子:cnblogs

神经网络

参考:cnblogs

BP学习算法(设计简单例子, 数值计算)

前向传播

反向传播

遗传算法

概览:CSDN

使用遗传算法GA进行编码和模拟(< %40)

强化学习

与遗传算法必考其一

MDP运行过程

参考:CSDN

马尔科夫过程(Markov Process)

马尔科夫报酬过程(Markov Reward Process)

马尔科夫决策过程(Markov Decision Process)

博弈

可能和搜索联动

博弈

帕累托最优(Pareto Efficiency)

NASH均衡(Nash Equilibrium)