1 / 92

图 像

图像处理. 图 像. 图像识别 图像理解. 计算机图形学. 描 述. 图像(模式)识别概念. 图像识别与模式识别. 模式识别:对表征事物或现象的各种形式的(数值的,文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。 什么是模式 ( Pattern )?. “ 模式 ” 是一个客观事物的描述,是指建立一个可用于仿效的完善的标本。. 模式识别的研究内容 1 ) 研究生物体(包括人)是如何感知对象的,属于认知科学的范畴 2 ) 在给定的任务下,如何用计算机实现模式识别的理论和方法.

noleta
Download Presentation

图 像

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 图像处理 图 像 图像识别 图像理解 计算机图形学 描 述

  2. 图像(模式)识别概念 • 图像识别与模式识别 • 模式识别:对表征事物或现象的各种形式的(数值的,文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。 • 什么是模式 (Pattern)? “模式”是一个客观事物的描述,是指建立一个可用于仿效的完善的标本。

  3. 模式识别的研究内容 1)研究生物体(包括人)是如何感知对象的,属于认知科学的范畴 2)在给定的任务下,如何用计算机实现模式识别的理论和方法

  4. 典型模式识别系统 图像识别系统

  5. 人脸识别系统

  6. 8.1 概述 模式可以定义为物体的描述。由于描述这个词的意义比较广泛,有人把它推广到图像数据本身,因为图像数据也是相应事物的一种描述,只不过这样的描述不够抽象和简要而已。前章中我们已经讨论过图像的各种特征和描述的提取方法。因此,我们将模式解释为物体的较抽象的特征和描述。 8 图像识别

  7. 模式可以是以矢量形式表示的数字特征;   也可以是以句法结构表示的字符串或图;   还可以是以关系结构表示的语义网络或框架结构等。 对于上述三种类型的模式,必须分别使用不同的识别和推理方法:统计模式识别,句法模式识别和人工智能方法。

  8. 统计模式识别 • 基本原理是:有相似性的样本在模式空间中互相接近,并形成“集团”,即“物以类聚”。 • 主要方法有:决策函数法,k近邻分类法,支持向量机,特征分析法,主因子分析法等… • 参考书籍:《统计模式识别》(Andrew R.Webb) Jain A K, Duin R P W, Jianchang Mao. Statistical pattern recognition: a review. Pattern Analysis and Machine Intelligence, 2000. 22(1) : 4~37.

  9. 句法(或结构)模式识别 基于形式语言理论的概念为基础。模式按其结构分解为子模式或模式基元,模式基元的连接关系以文法形式进行描述。 一个场景的示意图 场景结构的分析

  10. 模糊模式识别 • 模糊集理论,Zadeh,1965 • 模糊集理论在模式识别中的应用 • 神经网络模式识别 • 特点:具有信息分布式存储、大规模自适应并行处理、高度的容错性以及学习能力 • 缺点:实际应用中仍有许多因素需要凭经验确定,比如如何选择网络节点数、初始权值和学习步长等;局部极小点问题、过学习与欠学习问题等

  11. 特征选择 所要提取的应当是具有可区别性、可靠性、独立性好的少量特征。    因此特征选择可以看作是一个(从最差的开始)不断删除无用的特征和组合有关联的特征的过程,直到特征的数目减少到易于驾驭的程度,同时分类器的性能仍能满足要求为止。

  12. 每类的每一个特征均值:   假设训练样本中有 个不同类别的样本。令 表示第 类的样本数,第 类中第 个样本的两个特征分别记为  和  。   每类的每一个特征均值:           和 注意:仅是两个值基于训练样本的估计值,而不是真实的类均值。

  13. 特征方差   第 类的特征 和特征 的方差估值分别为:         和   在理想情况下同一类别中所有对象的特征值应该很相近。

  14. 特征相关系数  第 类特征 和特征 的相关系数估计为   它的取值范围为    。   如果=0,说明这两特征之间没有相关性;接近+1表示这两个特征相关性强;为-1表示任一特征都与另一特征的负值成正比。   因此,如果相关系数的绝对值接近1,则说明这两个特征可以组合在一个特征或干脆舍弃其中一个。

  15. 类间距离 一个特征区分两类能力的一个指标是类间距离,即类均值间的方差归一化间距。显然,类间距离大的特征是好特征。  对特征 来说,第 类与第 类之间的类间距为:

  16. 降维   有许多方法可以将两个特征 和 合成为一个特征 ,一个简单的方法是用线性函数:   由于分类器的性能与特征幅值的缩放倍数无关,可以对幅值加以限制,如    因此  其中 是一个新的变量,它决定 和 在组合中的比例。

  17.   如果训练样本集中每一对象都对应于二维特征空间(即平面  )中的一个点,上式描述了为所有到在 轴(与 轴成 角)上的投影。显然应选取使得类间距最大的或者满足评价特征质量的其它条件的 。  如果训练样本集中每一对象都对应于二维特征空间(即平面  )中的一个点,上式描述了为所有到在 轴(与 轴成 角)上的投影。显然应选取使得类间距最大的或者满足评价特征质量的其它条件的 。

  18. 8.2.1 基本概念   这里我们讨论数字特征的识别。其前提是,假定我们所处理的模式每一个样本都表示为N维特征矢量,写为:   显然,特征矢量 可以表示为N维特征矢量空间 中的一个点,这样统计模式识别的概念及方法就可以在特征空间中予以研究。 8.2 统计模式识别

  19. 模式分类:根据识别对象的观测值确定其类别 • 样本与样本空间表示: • 类别与类别空间:c个类别(类别数已知) 基本概念

  20. 决策 • 把样本x分到哪一类最合理?解决该问题的理论基础之一是统计决策理论 • 决策:是从样本空间S,到决策空间Θ的一个映射,表示为D: S --> Θ

  21. 假设我们要把一个样本集合 分成M类 ; 如上所述,该样本集合可以表示为N维特征空间 中的一个点集,它的分类问题表述为将该特征空间划分为M个子空间,每一子空间为一类,子空间中的样本点属于相应类别。 这样,分类问题的关键就在于如何找到一个正确子空间划分,即划分子空间的界面。

  22. 下图为二维特征空间,三类问题。

  23. 决策区域与决策面(decision region/surface):

  24. 数学上,统计模式识别问题可以归结为:对一组给定的样本集合,找出其最佳的分类判决函数 ,并作判决: 若对所有的 均有: 则作判决:

  25.    因为处理的是分类问题,因此最佳的意义是分类误差最小。   因为处理的是分类问题,因此最佳的意义是分类误差最小。 由于求解最佳判决函数的出发点和途径不同,因此产生了各种不同的分类方法: 判别函数方法 贝叶斯分类器:判别函数表示为似然比,也称为   最大似然率分类器或最小损失分类器 集群分类方法:它几乎不需要有关待分样本的先验知识。

  26. x1 g1 ARGMAX g2 x2 a(x) . . . . . . gc xn • 分类器是某种由硬件或软件组成的“机器”: • 计算c个判别函数gi(x) • 最大值选择

  27. 8.2.2 判别函数方法   在很多分类问题中,往往必须知道待分样本的先验知识。这里假设我们已经知道判别函数的形式,剩下的问题是如何求判别函数的待定参量以及进行分类判决。诚然,由分类者随心所欲地选择判别函数的形式,是件快事。但是,类别函数选择不合适,会导致分类误差的增加。

  28. 一、线性判别函数 线性判别函数的一般形式为: 其中, , 分别称为扩充了的特征矢量和权矢量。

  29. 使用线性判别函数的分类判决有下述两种情况:使用线性判别函数的分类判决有下述两种情况: l第一种情况: 每一类可以用一个判决平面与其它所有类隔开,在这种情况下,有M个判决函数:

  30. l第二种情况: 每一类与其它所有各类可以由不同的判决平面一一隔开,也就是说,各类是可分段可分的,共有 个判决面。 判决函数可以写成 若对于所有的 均有: 则作判决:

  31. 死区问题 ?

  32. DAG

  33. 在判决函数完全获得定义之后,分类器的设计才算结束,可以用于分类。通常,线性判别函数中的权系数 是用训练或称学习的方法获得的。为了讨论上的方便,先考虑两类问题。

  34. 所谓训练,就是给定一组已经标定好类号的训练样本,求出判别函数中的各参数。若以 表示第一类的训练样本,以 表示第二类的训练样本,则对所有训练样本,有 以及 求解这一系列不等式,就可以解得权系数A。

  35. 这显然是线性判决函数,前面所述的线性判别函数的各种处理方法也适用于最小距离分类器。这显然是线性判决函数,前面所述的线性判别函数的各种处理方法也适用于最小距离分类器。

  36. 下图是最近邻域分类器的一个例子。 当然,判别函数的形式可以取其它很多种形式,例如高次多项式等。

  37. 以两类分类问题为例:已知先验分布P(ωi)和观测值的类条件分布p(x|ωi),i=1,2问题:对某个样本x,抉择x∈ ω1? x∈ ω2? • 以后验概率为判决函数: • 决策规则: 即选择P(ω1|x),P(ω2|x)中最大值对应的类作为决策结果 • 该决策使得在观测值x下的条件错误率P(e|x)最小。 Bayes决策理论是最优的。

  38. 后验概率P (ωi| x)的计算 • Bayes公式: 假设已知先验概率P(ωi)和观测值的类条件概率密度函数p(x|ωi),i=1,2。

  39. 比较大小不需要计算p(x):

  40. 对数域中计算,变乘为加: 判别函数中与类别i无关的项,对于类别的决策没有影响,可以忽略。

  41. Bayes最小错误率决策例解 • 两类细胞识别问题:正常(ω1)和异常(ω2) • 根据已有知识和经验,两类的先验概率为: • 正常(ω1): P(ω1)=0.9 • 异常(ω2): P(ω2)=0.1 • 对某一样本观察值x,通过计算或查表得到:p(x|ω1)=0.2, p(x|ω2)=0.4 • 如何对细胞x进行分类?

  42. 利用贝叶斯公式计算两类的后验概率: 决策结果

  43. p(x|ω1) p(x|ω2) p(ω1|x) p(ω2|x) 类条件概率密度函数 后验概率

  44. 决策的错误率 • 条件错误率: • (平均)错误率: (平均)错误率是条件错误率的数学期望

  45. 条件错误率P(e|x)的计算:以两类问题为例,当获得观测值x后,有两种决策可能:判定 x∈ω1,或者x∈ω2。 • 条件错误率为:

  46. Bayes最小错误率决策使得每个观测值下的条件错误率最小,因而保证了(平均)错误率最小。Bayes最小错误率决策使得每个观测值下的条件错误率最小,因而保证了(平均)错误率最小。 • Bayes决策是一致最优决策。

More Related