考核方式:平时 30%+考试 70%
指人类在认识客观世界中,由思维过脑力活动所表现出的综合能力 智能的特征具有感知能力,感知是人类最基本的生理、心理现象,是获取外界信息的基本途径。具有记忆和思维能力,思维可分为逻辑思维、形象思维和顿悟思维。具有学习能力和自适应能力。具有行为能力。
- 感知能力
- 记忆能力
- 思维能力
- 抽象思维(逻辑思维)
- 形象思维(直感思维)
- 灵感思维(顿悟思维)
- 学习能力
- 自适应能力
- 行为能力:是人们对感知直接获得的外界信息做出动作反应的能力
最终目标:探讨智能形成的基本机理,研究利用自动机模拟人的思维 近期目标:研究如何使用计算机去做那些靠人的智力才能做的事情
把有关信息关联在一起所形成的信息成为知识
-
特性
- 相对正确性
- 不确定性
- 可表示性
- 可利用性
-
分类
- 适用范围:常识性知识和领域性知识
-
根据功能分类
- 事实性知识
- 规则性知识
- 控制性知识
- 元知识
-
根据确定性分类:确定性知识、不确定性知识
-
根据作用效果分类:陈述性知识(知识用某种数据结构来表示,知识本身和使用知识过程分离)、过程性知识(知识和使用过程结合在一起)
知识表示是对知识的描述,即用一组符号的把知识编码成计算机可接受的的某种结构。
知识表示方法的要求:1. 表示能力 2. 可利用性 3. 可组织性和可维护性 4. 可理解性和可现实性
-
非结构化方法:
- 一阶谓词逻辑
- 产生式规则
-
结构化方法:
- 语义网
- 框架表示法
-
其他方法:
- 状态空间法
- 问题归纳法
考试可能会考 QUESTION: 一阶谓词表示,和谓词逻辑的自然演绎推理
断言: 一个陈述句称为一个断言
命题: 具有真假意义的断言称为命题如
真值:T: 表示命题的意义为真,F: 表示命题的意义为假
一个命题在同一条件下不能即为真又为假
一个命题可以在一定条件下为真,而在另一条件下为假
谓词: 命题由谓词表示,谓词由谓词名和个体组成
- 老张是教师 Teacher (Zhang)
- 5<3 Greater (5,3)
谓词的一般形式是:$P(x_1,x_2,x_3,....x_n)$
- P 是谓词,他由人行为定义。
$x_1,x_2,....x_n$ 称为个体,通常用小写字母表示- 个体的数目称为它的元数,P 称为 n 元谓词
- 个体可以是常量、变元、函数以及谓词
若
个体变元的取值范围是称为个体域,它可以是无限集
个体变量、变元或函数称为项
函数:
定义:设
谓词是
$D^n$ 到{T, F}的映射,函数是$D^n$ 到 D 的一种映射谓词的真值是{T, F}, 函数的值是 D 中的元素
谓词可以单独存在,函数只能作为谓词的个体
连接词(connetive):
优先级: $$ \lnot \cap \lor \rightarrow \leftrightarrow $$ 全称量词: $$ \exists \ \ \forall $$ 用例: $$ 定义P(x) 为 x是人 \newline \forall x \ \ \ P(x) 所有个体都是人 $$ 写在句首。 谓词公式(wwf ,well formed formulas):
-
- 单个谓词是谓词公式,称为原子谓词公式。
-
- 若 A, B 是谓词公式,则
$\lnot A ,A\land B,A \lor B,A\rightarrow B,A\leftarrow B$ 也是谓词公式。
- 若 A, B 是谓词公式,则
-
- 若 A, B 是谓词公式,x 是任一个体变元,则有
$\exists (x)A,\forall (x)A$ 也是谓词公式。
- 若 A, B 是谓词公式,x 是任一个体变元,则有
- 有限步应用 (1)(3)生成的公式是谓词公式。
- 定义谓词及个体,确定它们的确切含义
- 根据所要表达的事物或概念,为每个谓词中的变元赋以特点的值,将个体带入谓词中
- 根据所要表达的知识的语义,用适当的连接符号将各个谓词连接起来,形成谓词公式
自然: 一种接近于自然语言的形式语言系统 明确: 有一种标准的知识解释方法, 精确: 谓词逻辑的真值只有“真”与“假’ 灵活: 知识和处理知识的程序是分开的 模块化: 知识之间相对独立
- 知识表达能力差
- 知识库管理困难
- 存在组合爆炸
- 系统效率低
- 知识没有良好的结构,没有办法一眼看出知识的结构
定义:设 D 为谓词公式的个体域,若对于 P 中的个体常量,函数和谓词分别按如下规则赋值:
- 个体:为每一个个体常量指定 D 中的一个元素
- 函数:为每个 n 元函数制定一个
$D^n$ 到 D 到一个映射其中$D^n={(x_1, x_2,\dots x_n)|x_1, x_2,\dots x_{n}\in D}$ - 谓词:为每个 n 元谓词指定一个从
$D^n$ 到{F, T}(T 是真,F 是假)的映射 则称这些指定为公式 P 在 D 上的一个解释。 若公式 P 在解释 I 下真值为 T,则称 I 为公式 P 的一个模型
若谓词公式 P 对于个体域 D 上的所有解释都取真值 T(F),则称 P 是 D 上的永真(假) 如果 P 在任何一个非空个体域上永假(真),则称 P 永假(真)
对于谓词公式 P,如果至少存在一个解释使得公式 P 在此解释下的真值为 T,则称公式 P 是可满足的 永假性和不可满足性是等价的
它是从一组已知为真的事实出发,直接运用经典逻辑推理规则推出结论的过程 常用的推理规则是:P 规则、T 规则、假言推理规则,拒取式规则,全称固化,存在固化 P 规则和 T 规则是数理逻辑中的推理规则。P 规则又称为命题推理规则,是一种用于推导命题之间关系的规则。它包括了如与、或、非、蕴含等常见逻辑运算。例如,若知道命题 A 为真,以及 A 蕴含 B,就可以通过 P 规则得到命题 B 为真。
T 规则又称为谓词推理规则,是一种用于推导谓词逻辑公式之间关系的规则。它将谓词逻辑公式分解为量词、谓词和项,并通过逻辑运算得到结论。例如,若知道∀x P (x)为真,就可以通过 T 规则得到 P (a)为真,其中 a 是一个特定的个体。
假言推理规则是一种常见的推理形式,基于条件语句的逻辑推理。它可以用于从前提的条件语句中推导出结论。例如,若知道"If A, then B"为真,同时知道 A 为真,则可以使用假言推理规则得到 B 为真。
拒取式规则是一种常用的推理规则,它用于拒否命题的逻辑推理。通过拒取式规则,我们可以从一个命题的否定推导出其他相关命题的否定。例如,若知道命题 A 为假,则可以使用拒取式规则得到非 A 的命题为真。
全称固化和存在固化是数理逻辑中的概念。全称固化是指将一个公式中的变量替换为一个特定的个体,使得该公式对于所有个体都成立。例如,若我们有一个全称量词的公式∀x P (x),通过全称固化可以将 x 替换为一个具体的个体 a,得到 P (a)为真。
存在固化是指将一个公式中的变量替换为一个特定的个体,使得该公式对于至少一个个体成立。例如,若我们有一个存在量词的公式∃x P (x),通过存在固化可以将 x 替换为一个具体的个体 a,得到 P (a)为真
- 定义谓词
- 根据题目转换为谓词公式的形式
- 应用推理规则进行推理
期末可能考的 QUESTION: 根据产生式系统表,写出判断过程
产生式表示法可以表示的知识种类:事实,规则,上述两者的不确定性度量
基本形式:
- 确定性规则
$P\rightarrow Q$ - IF P THEN Q
- 不确定性规则
-
$P\rightarrow Q$ (可信度) - IF P THEN Q (可信度)
-
- 确定性事实
- 断言一个语句变量的值或是多个语句变量间关系的陈述句
- 三元组
- (对象,属性,值)
- (关系,对象 1,对象 2)
- 例子:老李的年龄是 40 岁(Li,Age,40)
- 老李和老张是朋友(Friend,Li,Zhang )
- 不确定性事实
- 四元组
- (对象,属性,值,可行度)
- (关系,对象 1,对象 2,可信度)
- 四元组
概念: 把一组产生式放在一起,一个产生式的结论可以供另一个产生式作为事实使用,以求得问题的解,这种系统称为产生式系统 产生式系统的组成:
又称为事实库,用于存放输入的事实,从外部数据库输入的事实、中间结果、最后结果
描述某领域内知识的产生式集合
一个控制系统,包含推理方式和控制策略又称为推理机或推理引擎。
- 规则匹配
- 冲突消解
- 向综合数据中插入中间结果或执行中间操作
- 计算不确定性
- 是否包含最终结果、终止推理
- 路径解释
$Data\leftarrow 初始数据库$ - Until Data 满足结束条件 Do:
- {在规则集中选择一条应用于 Data 的规则 R
-
$Data\leftarrow R$ 应用得到 Data 得到结果写入数据库} 推理方式:
优点:
- 清晰性
- 模块性
- 自然性 缺点
- 效率不高
- 不能表示结构化知识(事实和规则都是离散的,相互之间没有关系)
概念:语义网络表示法是通过概念及其语义关系表来表达的知识的一种网络图,它是一个代标注的有向图
- 节点用来表示各种概念,事物、属性、动作、状态等
- 弧是有方向的,用来表示节点间的主次关系
- 弧上用来标注表示节点间的语义联系或语义关系 例子: 一些概念: 基本网元: 语义网络中最基本的语义单元称为语义基元, 可由一个三元组表示: (节点 1,弧,节点 2) 基本网元是一个语义基元对应的有向图,是语义网络中最基本的结构单元 基本语义关系: 实例关系: ISA 体现的是“具体与抽象”的概念,含义为“是一个”,表示一件事物是另一件事物的一个实例。 分类关系: AKO 也称泛化关系,体现的是“子类与超类”的概念,含义为“是一种”,表示一个事物是另一个事物的一种类型。 成员关系: 体现的是“个体与集体”的关系,含义为“是一员”,表示一个事物是另一个事物的一个成员。 上述关系的主要特征 属性的继承性,即处在具体层的结点可以继承抽象层结点的所有属性
语义网络表示的问题求解系统由两部分构成
-
语义网知识库
-
求解问题的解释程序——推理机 推理方法:
-
匹配 匹配是指在知识库的语义网络中寻找与待求解问题相符的语义网络模式 (1) 根据待求解问题的要求构造一个网络片断,该网络片断中有些结点或弧的标识是空的,称为询问处,它反映的是待求解的问题。 (2) 根据该语义片断到知识库中去寻找所需要的信息。 (3) 当待求解问题的网络片断与知识库中的某语义网络片断相匹配时,则与询问处相匹配的事实就是问题的解。
-
继承 继承是指把对事物的描述从抽象节点传递到具体节点,通过继承得到所需要的一些属性。 它通常沿着 ISA、AKO 等继承弧进行。
- 优点
- 结构性
- 自然性
- 联想性
- 缺点
- 非严格性
- 复杂性
框架: 是人们认识事物的一种通用的数据结构形式 实例框架: 对于一个框架,当人们把观察或认识到的具体细节填入后,就得到了该框架的一个具体实例 框架系统: 在框架理论中,框架是知识的基本单位,把一组有关的框架连结起来便可形成一个框架系统 框架组成: 框架由若干个槽组成,槽可以由若干个侧面组成。一个侧面用来描述相应属性的一个方面。槽和侧面所具有的属性值称为槽值和侧面值。 框架之间的横向联系: 框架 A 的某个槽值是另一个框架 B 时,则称框架 A 与框架 B 之间具有横向联系。 框架之间的纵向联系: 是指那种具有继承关系的上下层框架之间的联系 纵向联系通过预定以槽名 AKO 和 ISA 等来实现
<框架名称> 槽值 1: 侧面名:值 1, 值 2,…… 侧面名 2:值 1, 值 2,…… …… …… 侧面名 m:值 1, 值 2,……… …… 槽值 n:
侧面名:值 1, 值 2,…… 侧面名 2:值 1, 值 2,…… …… …… 侧面名 m:值 1, 值 2,………
重点:槽值可以是数值,字符串,布尔值,或者是动作、过程甚至是框架名。
- 优点
- 结构性
- 自然性
- 深层性
- 继承性
- 缺点
- 缺乏框架的形式理论
- 缺乏过程性知识表示
- 清晰性难以保证
核心思想:反证法
想要证明
范式
1. 合取范式
2. 析取范式
3. 前束型范式
- 一个谓词公式的所有量词均非否定地出现在公式的最前面, 且它的辖域一直延伸到公式之末, 同时公式中不出现连接词→及↔。
- 例:
一共 9 步 在谓词逻辑中,任何以谓词逻辑都可以通过等价关系和推理规则转化为子句集
例子:求公式的子句集 $$ A=(\forall x)((\forall y) P (x, y)\rightarrow \lnot (\forall y)(Q (x, y)\rightarrow R (x, y))) $$
- 利用连接词化归律消去谓词公式中的条件($\rightarrow$)和双条件连接词 ($\leftrightarrow$) 注意易错地方:要注意使用连接词化归律的时候 $\lnot$ 要放的位置 连接词化规律:$P\rightarrow Q \Leftrightarrow \ \lnot P\lor Q$ 例子:由 $$ A=(\forall x)((\forall y) P (x, y)\rightarrow \lnot (\forall y)(Q (x, y)\rightarrow R (x, y))) $$ 化为:$$ A=(\forall x)(\lnot (\forall y) P (x, y)\lor\lnot (\forall y)(\lnot Q (x, y)\lor R (x, y))) $$
- 利用等价关系将
$\lnot$ 移到紧靠谓词的位置上 量词转换定律 $$ \begin{cases} \lnot (\forall x) P \Leftrightarrow (\exists x)\lnot P \ \lnot (\exists x) P \Leftrightarrow (\forall x)\lnot P \end{cases} $$ 例子:由 $$ A=(\forall x)(\lnot (\forall y) P (x, y)\lor\lnot (\forall y)(\lnot Q (x, y)\lor R (x, y))) $$ 化为: $$ A=(\forall x)((\exists y)\lnot P (x, y)\lor (\exists y)(Q (x, y)\land \lnot R (x, y))) $$ - 重新命名使用不同量词的约束变元的约束变元名字不同 例子:由 $$ A=(\forall x)((\exists y)\lnot P (x, y)\lor (\exists y)(Q (x, y)\land \lnot R (x, y))) $$ 化为 $$ A=(\forall x)((\exists y)\lnot P (x, y)\lor (\exists z)(Q (x, z)\land \lnot R (x, z))) $$
- 消去存在量词
例子:由
$$A=(\forall x)((\exists y)\lnot P (x, y)\lor (\exists z)(Q (x, z)\land \lnot R (x, z))) $$ 化为: $$ A=(\forall x)(\lnot P (x,f (x))\lor (Q (x,g (x))\land \lnot R (x,g (x)))) $$ - 把全称量词移到公式最左边(如果全称量词移不出来怎么帮???)
- 利用等价关系, 将公式转换为 Skolen 标准型(合取型) $$ A=(\forall x)((\lnot P (x,f (x))\lor Q (x,g (x)))\land (\lnot P (x,f (x))\lor \lnot R (x,g (x)))) $$
- 去掉全称量词
- 对变元更名
- 消去合取词,即获得子句集 $$ \begin{cases} \lnot P (x,f (x))\lor Q (x,g (x)) \ \lnot P (y,f (y)) \lor \lnot R (y,g (y)) \end{cases} $$
-若 P 是原子谓词公式,则称 P 和~P 为互补文字。
一设 C 1 与 C 2 是子句集中的任意两个子句,且 C 1 中
的文字 L 1 与 C 2 中的文字 L 2 互补,令:
置换是形如{t/x, b/y}的有限集合分母要互不相同 注意:t 是项,x 是变元,表示用 t/x 表示 t 替换 x t 只能是变元或者是函数
X 用 t 置换
例子:
设 E 是一个表达式,$\theta$ ={c/x,f (d)/y, t/z}
P=Q (x, y, z)
U=g (x, y)
P
-
$y_i=x_i$ 时从$\mu$ 中删除$t_{i}*\lambda/x_i$ - 当
$t_i*\lambda=x_i$ 时从$\mu$ 中删除$t_i*\lambda/x_i$ - 剩余元素所构成的集合任然是一个替换,称为替换的乘积 例子
-设有公式集:F={ F 1, F 2,…, Fn },若存在一个置换 0,使得
差异集:两个公式中相同位置处不同符号的集合。 例如:F 1: P (x, y, z), F 2: P (x, f (a), h (b)) 则 D 1={y, f (a)}, D 2={z, h (b)}
求取最一般合一的算法:
- 令 k=0, Fk=F, σk=ε。 ε是空代换。
- 若 Fk 只含一个表达式,则算法停止,σk 就是最一般合一。
- 找出 Fk 的差异集 Dk。
- 若 Dk 中存在元素 xk 和 tk,其中 xk 是变元,tk 是项,且 xk 不在 tk 中出现,则置: σK+1=σk°{tk/xk} Fk+1=Fk{tk/xk} K=k+1 然后转 (2)。若不存在这样的 xk 和 tk 则算法停止。
- 算法终止,F 的最一般合一不存在。 注意分母必须是变元
使用归结原理对问题进行证明
- 定义谓词
- 用谓词表示知识
- 将事实和结论(注意结论要求反)化为子句集
- 对子句归结
- 得出结论
搜索: 依靠经验、已有知识,根据问题的实际情况,不断寻找有利知识,寻找一个代价最小的推理路线,使问题得以解决的过程称为搜素 智能搜索:是指在搜索过程中利用有利信息来引导搜索向最优化发现发展的算法
状态空间方法:基于解答空间的问题表示和求解方法,它是以状态和算符为基础来表示和求解问题的。 一些概念: 状态(state) 表示问题解法中每一步问题状况的数据结构;描述某类不同事物间的差别而引入的一组最少变量 q 0,q 1,…,qn 的有序集合。 算符(operator) 把问题从一种状态变换为另一种状态的手段;操作符可为走步、过程、规则、数学算子、运算符号或逻辑符号等。 问题的状态空间: 是一个表示该问题全部可能状态可用算符的集合,它包含三种说明的集合,即三元状态(S,F,G)。 问题的解: 从问题的初始状态集,经过一系统列的算符运算,到达目标状态,所经过算符的序列构成一个问题的解
因为状态之间是等价的所以状态图由类似于或图 解题过程:
- 定义状态
- 定义规则
- 状态转移 例子:
问题规约:把一个复杂的问题分解和变换为一组本原问题的过程称为问题规约 本原问题:是指那种不能再分解和转换的且可以直接解答的子问题 问题规约的组成(解题需要定义的):
- 对问题的描述
- 一套把问题转换为子问题的操作符
- 一套本原问题的描述 问题归约的实质: 从目标 (要解决的问题)出发逆向推理,建立子问题以及子问题的子问题,直至最后把初始问题归约为一个平凡的本原问题集合。 问题的分解与等价变换 将一个复杂的问题分解为几个子问题的过程称为分解。可用与树表示 将一个复杂的问题变换成若干个等价的问题的过程称为等价变换。可用或树表示
一些概念: 端节点与终叶节点 在与或树中没有子节点的节点称为端节点,本原问题所对应的节点称为终叶节点。显然,终叶节点一定是端节点,但端节点不一定是终止节点。 “与节点”与“或节点” 如果一个节点的所有子节点是与关系,则称该节点为与节点,如果其所有子节点是或关系,则称该节点为或节点 在与/或树中,满足以下三个条件之一的节点为可解节点: 1. 任何终叶节点都是可解节点。 2. 对“或”节点,当其子节点中至少有一个为可解节点时,则该或节点就是可解节点。 3. 对“与”节点,只有当其子节点全部为可解节点时,该与节点才是可解节点。
启发信息:用于指导搜素过程且与具体问题求解有关的控制信息称为启发信息 启发信息的作用:
- 用于决定先扩展哪个节点
- 再扩展节点式,用于决定要生成哪一个或哪几个后继节点
- 用于确定某些应该从搜素书中抛弃或修建的节点
估计函数:
在扩展节点时,用来描述节点重要程度的函数称为估价函数. 其一般形式为:
$$F (X)=g (X)+h (X)$$ 其中,$g (X)$ 为初始节点所以到节点 x 已实际付出的代价,$h (X)$ 是从节点 x 到目标节点 Sg 的最优路径的估计代价,启发信息主要由$h (X)$ 来体现,故把它称为启发函数.
一些概念: 在状态空间搜索中,如果每一步都利用估价函数 f (n)=g (n)+h (n)对 Open 表中的节点进行排序,则称 A 算法。它是一种为启发式搜索算法。 Open List:用来存放未扩展节点 Close List:用来存放已扩展节点 G (x)是从初始节点到节点 n 的实际代价 H (x) 是从节点到目标路径的 Sg 的最优路径的估计代价 类型:
- 全局择优 类似于宽度优先搜索 从 open 表中的所有节点中选择一个估价函数值最小的进行扩展 每次添加就要对 openlist 全排序
- 局部择优 类似于深度优先搜素 仅从刚生成的子节点中选择一个估价函数值最小的进行扩展。 就是搜索的集合排序后的放在 openlist 的最前面 如果生成重复节点就去掉这个节点
$A^$ 算法 $A^$算法对扩展节点选择方法做了一些限制,选用了一个比较特殊的估价函数。 估价函数的定义:
对节点 n 定义 f*(x)=g*(x)+h*(x), 表示从
$S_0$ 开始通过节点 x 到 S 的一条最佳路径的代价。 估价函数 f 定义为: f (x)=g (x)+h (x) --g 是 $g^$ 的估计,h 是 $h^$ 的估计 A* 算法的最优性 A* 算法的搜索效率很大程度上取决于启发函数 h (x)。一般来说,在满足 h (x)≤h*(x) 的前提下,h (x)的值越大越好。H (x)的值越大,说明它携带的启发性信息越多,A* 算法搜索时扩展的节点就越少,搜索效率就越高。A* 算法的这一特性被称为最优性。
一些概念:
- Open 表(Open List): Open表是一个存储待扩展节点的数据结构,通常是一个队列(FIFO)或优先级队列(按照启发式函数值进行排序的优先级队列)。在与或树搜索算法中,Open表存储了待扩展的节点,这些节点可能是当前搜索路径的一部分,也可能是之前搜索路径的一部分。算法会从Open表中选择一个节点进行扩展,生成其子节点,并将这些子节点加入Open表中。
- Close表(Closed List): Close表是一个存储已经扩展过的节点的数据结构。在与或树搜索算法中,Close表用来避免对同一个节点进行多次扩展,从而避免陷入循环。当一个节点被扩展时,将其加入Close表中,以便在后续的搜索过程中检查当前节点是否已经被扩展过。如果一个节点已经在Close表中,算法就不再对其进行扩展,从而避免重复工作。 搜索思想:
- 可解标示过程
- 由可解节点来确定父节点、祖父节点等为可解节点的过程
- 不可解标示过程
- 由不可解节点来确定父节点、祖父节点等为不可解节点的过程 一般过程:
- 把原始问题作为初始节点 SO,并把它作为当前节点
- 应用分解或等价变换算符对当前节点进行扩展
- 为每个子节点设置指向父节点的指针
- 选择合适的节点作为当前节点,反复执行前两步,并多次调用可解标示过程和不可解标示过程,直到初始节点被标示为可解或不可解节点。 注意:
- 标示可解与不可解的过程是自下而上进行的。
- 如果已确定某个节点为可解节点,则其不可解的后继节点可以从搜索树中删除。
- 如果确定某个节点是不可解节点,则其全部后继节点都可以从搜索树中删除。
- 将初始节点 S。放入 OPEN 表中。
- 将 OPEN 表中第 1 个节点 N 放入 CLOSED 表中,并按顺序编号为 n。
- 若 N 有子节点存在,则执行下述操作:
- 生成 N 的所有子节点,将其放入 OPEN 的尾部,并填入其父节点编号 n。
- 考察这些子节点中是否有终叶节点,若有,则标记这些终叶节点为可解节点,并将其放入CLOSED 表中,然后由它们的可解性返回去推断其先辈的可解性,并对可解节点进行标记,若 SO 为可解节点,则搜索成功,退出。
- 从 OPEN 表中删除其先辈为可解的所有节点,转 (2)。
就是和上面类似,和学过的深度优先搜索一样,只不过用到的是 open 表和 close 表
设 g (x)表示节点 x 的代价,c (x, y)表示节点 x 到其子节点 y 的代价。
(1)若 x 是终叶节点,则 g (x)=0
(2)若 x 是或节点,其子节点依次为
一些概念:
- 希望树:在有序搜索中,应选择那些最有希望成为最优解树一部分的节点进行扩展。我们称这节点构成的树为希望树。
有序搜索过程:
- 将初始节点 S 0 放入 OPEN 表中。
- 求出希望树 T,即根据当前搜索树中节点的代价求出以 S 0 为根的希望树 T。
- 依次将 OPEN 表中 T 的端节点 N 放入 CLOSED 表中
- 若 N 为终叶节点,则:
- 将它标记为可解节点 - 由 N 的可解性返回去推断其先辈的可解性,并对可解节点进行标记,若 S 0 为可解节点,则搜索成功,退出。 - 从 OPEN 表中删除其先辈为可解的所有节点,转 2。
- 若 N 不是终叶节点,且不可扩展,则:
- 标记 N 为不可解节点。 - 由 N 的不可解性返回去推断其先辈的不可解性,并对不可解节点进行标记,若 S 0 为不可解节点,则搜索失败,退出。 - 从 OPEN 表中删除其先辈为不可解的所有节点,转(2)。
- 若 N 不是终叶节点,且可扩展,则:
- 生成 N 的所有子节点。 - 将其放入 OPEN 中,并填入其父节点编号 n。 - 计算所有子节点及其先辈节点的代价值,转(2)。
最大最小原理
- 选择节点
- 拓展
- 模拟
- 反向传播
选择 交叉 变异
不确定性推理泛指除精确推理以外的其它各种推理问题。包括不完备、不精确知识的推理,模糊知识的推理,非单调性推理等。
知识点确定表示
- 考虑因素:问题的描述能力,推理中不确定性的计算
- 含义:知识的确定性程度,或动态强度
- 表示: 用概率,在[0,1]区间取值,越接近于 0 越假,越接近于 1 越真 用可信度,在[-1,1]区间取值,大于 0 接近于真,小于 0 接近于假 用隶属度,在[0,1]区间取值,越接近于 0 隶属度越低,反之越高 证据的不确定表示: 证据的类型:基本证据,组合证据 表示方法:概率,可信度,隶属度等 基本证据:常与知识表示方法一致,如概率,可信度,隶属度等 组合证据:
- 组合方式:析取的关系,合取的关系。
- 计算方法:基于基本证据最大最小方法,概率方法,有界方法等 不确定性的匹配 含义:不确定的前提条件与不确定的事实匹配 问题:前提是不确定的,事实也是不确定的 方法:设计一个计算相似程度的算法,给出相似的限度 标志:相似度落在规定限度内为匹配,否则为不匹配 不确定性的更新
- 主要问题
- 如何用证据的不确定性去更新结论的不确定性
- 如何在推理中把初始证据的不确定性传递给最终结论
- 解决方法 对 1,不同推理方法的解决方法不同 对 2,不同推理方法的解决方法基本相同,即把当前结论及其不确定性作为新的证据放入综合数据库,依次传递,直到得出最终结论 不确定性结论的合成 含义:多个不同证据推出同一结论,且不确定性程度不同 方法:视不同推理方法而定
可信度是指人们根据以往经验对某个事物或现象为真的程度的一个判断,或者说是人们对某个事物或现象为真的相信程度。 可信度具有一定的主观性,较难把握。但对某一特定领域,让该领域专家给出可信度还是可行的。
表示形式:
在C-F模型中,知识是用产生式规则表示的,其一般形式为:
IF E THEN H (CF(H, E))
其中,E 是知识的前提条件;H 是知识的结论;CF (H, E)是知识的可信度。
例子:
IF 发烧 AND 流鼻涕 THEN 感冒 (0.8)
说明:
CF (H, E)的取值范围: [-1,1]。
若由于相应证据的出现增加结论 H 为真的可信度,则 CF (H, E)> 0,证据的出现越是支持 H 为真,就使就使 CF (H, E)的值越大。
反之,CF (H, E)< 0,证据的出现越是支持 H 为假,CF (H, E)的值就越小。
若证据的出现与否与 H 无关,则 CF (H, E)= 0
注意:
对同一前提 E,若支持若干个不同的结论 Hi (i=1,2,…, n),则
因此,如果发现专家给出的知识有如下情况
CF (H 1, E)=0.7, CF (H 2, E)=0.4
则因 0.7+0.4=1.1>1 为非法,应进行调整或规范化。
CF (E)=0.6: E 的可信度为 0.6
证据 E 的可信度取值范围:[-1,1] 。
对于初始证据,若所有观察 S 能肯定它为真,则 CF (E)= 1。
若肯定它为假,则 CF (E) = –1。
若以某种程度为真,则 0 < CF (E) < 1。
若以某种程度为假,则 -1 < CF (E)< 0 。
若未获得任何相关的观察,则 CF (E) = 0。
组合证据 组合证据:多个单一证据的合取: E=E 1 AND E 2 AND … En 时,若已知 CF (E 1),CF (E 2),…,则 CF (E)=min{CF (E 1), CF (E 2), … ,CF (En)} 组合证据:多个单一证据的析取: E=E 1 OR E 2 OR … En 时,若已知 CF (E 1),CF (E 2),…,则 CF (E)=max{CF (E 1), CF (E 2), … ,CF (En)}
CF 模型中的不确定性推理实际上是从不确定的初始证据出发,不断运用相关的不确性知识,逐步推出最终结论和该结论可信度的过程。 不确定性的更新公式 CF (H)=CF (H, E)×max{0, CF (E)} 若 CF (E)<0,则 CF (H)=0 即该模型没考虑 E 为假对 H 的影响。 若 CF (E)=1,则 CF (H)=CF (H, E) 即规则强度 CF (H, E)实际上是在 E 为真时,H 的可信度
当有多条知识支持同一个结论,且这些知识的前提相互独立,结论的可信度又不相同时,可利用不确定性的合成算法求出结论的综合可信度。 例子解释 设有知识:IF E 1 THEN H (CF (H, E 1)) IF E 2 THEN H (CF (H, E 2)) 则结论 H 的综合可信度可分以下两步计算: (1) 分别对每条知识求出其 CF (H)。 CF 1 (H)=CF (H, E 1) ×max{0, CF (E 1)} CF 2 (H)=CF (H, E 2) ×max{0, CF (E 2)} (2) 用如下公式求 E 1 与 E 2 对 H 的综合可信度
贝叶斯网络是由美国加州大学的珀尔(J.Pearl)于 1985 年首先提出的一种模拟人类推理过程中因果关系的不确定性处理模型。 它是概率论与图论的结合,其拓扑结构是一个有向无环图。
定义:
定义 3.17 设 X={X, X₂,…, Xn}是任何随机变量集,其上的贝叶斯网络可定义为 BN=(Bs,Bp)。其中:
(1)Bs 是贝叶斯网络的结构,即一个定义在 X 上的有向无环图。并且,其中的每一个节点 X 都惟一地对应着 X 中的一个随机变量,并需要标注定量的概率信息; 每条有向边都表示它所连接的两个节点之间的条件依赖关系。若存在一条从节点 X 到节点 Xi 的有向边,则称 X 是 Xi 的父节点,X 是 X 的子节点。
(2)
MP 模型是于 1943 年提出的一种将神经元看做二进制阈值原件的简单模型 人工神经元是一个具有多输入,单输出的非线性器件 根据功能函数不同 可得到的不同的神经元模型
单层前馈网络是指那种只拥有单层计算节点的前向网络。它仅含有输入层和输出层,且只有输出层的神经元是可计算节点,如下图所示
感知器的拓扑结构是一种分层前向网络。它包括:单层感知器和多层感知器。 单层感知器是一种只具有单层可调节连接权值神经元的前向网络,这些神经元构成了单层感知器的输出层,是感知器的可计算节点。 在单层感知器中,每个可计算节点都是一个线性阈值神经元。当输入信息的加权和大于或等于阈值时,输出为 1,否则输出为 0 或-1。 单层感知器的输出层的每个神经元都只有一个输出,且该输出仅与本神经元的输入及联接权值有关,而与其他神经元无关。
误差反向传播 (Error Back Propagation)网络通常简称为 BP (Back Propagation)网络。 BP 网络的网络拓扑结构是多层前向网络。在 BP 网络中,同层节点之间不存在相互连接,层与层之间多采用全互连方式,且各层的连接权值可调。 BP 网络的学习过程是由工作信号的正向传播和误差信号的反向传播组成的。 所谓正向传播,是指输入模式经隐层到输出层,最后形成输出模式; 所谓误差反向传播,是指从输出层开始逐层将误差传到输入层,并修改各层联接权值,使误差信号为最小的过程。
离散 Hopfield 网络的结构 离散 Hopfield 网络是在非线性动力学的基础上由若干基本神经元构成的一种单层全互连网络,其任意神经元之间均有连接,并且是一种对称连接结构。 在 Hopfidld 网络中,虽然神经元自身无连接,但由于每个神经元都与其他神经元相连; 即每个神经元的输出都将通过突触连接权值传递给别的神经元,同时每个神经元又都接受其他神经元传来的信息; 这样对每个神经元来说,其输出经过其他神经元后又有可能反馈给自己,因此 Hopfidld 网络是一种反馈神经网络。
卷积(convolution)在卷积神经网络中的主要作用是实现卷积操作,形成网络的卷积层。 卷积操作的基本过程是:针对图像的某一类特征,先构造其特征过滤器(FF),然后利用该滤器对图像进行特征提取,得到相应特征的特征图( FM)。依此针对图像的每一类特征,重复如上操作,最后得到由所有特征图构成的卷积层。 特征过滤器也称为卷集核(Coiling Kernel,CK),它实际上是由相关神经元连接权值所形成的一个权值矩阵,该矩阵的大小由卷集核的大小确定。卷集核与特征图之间具有一一对应关系,一个卷集核唯一地确定了一个特征图,而一个特征图也唯一地对应着一个卷积核。 从左上角开始移动到右下角,每次移动一步,每移动一步都要将滤波器与其在原图像中所对应位置的子图像做卷积运算,最终得到卷积后的图像,即特征图。 特征图的大小:(a-b+2*padding)/stride +1
池化层(Pooling Layer)也叫子采样层(Subsample Layer)或降采样(downsampling),其主要作用是利用子采样(或降采样)对输入图像的像素进行合并,得到池化层的特征图谱。 ①池化操作及基本过程 池化操作的一个重要概念是池化窗口或子采样窗口。所谓池化窗口是指池化操作所使用的一个矩形区域,池化操作利用该矩形区域实现对卷积层特征图像素的合并。 例如,一个 8 x 8 的输入图像,若采用大小为 2 x 2 的池化窗口对其进行池化操作,就意味着原图像上的 4 个像素将被合并为 1 个像素,原卷积层中的特征图经池化操作后将缩小为原图的 1/4。 池化操作的基本过程是:从特征图的左上角开始,按照池化窗口,先从左到右,然后再从上向下,不重叠地依次扫过整个图像,并同时利用子采样方法进行池化计算。 常用的池化方法有最大池化(max pooling)法、平均池化(mean pooling)法和概率矩阵池化(stochastic pooling)法等。这里主要讨论最大池化法和平均池化法。