1 / 30

PCA 和 LDA

PCA 和 LDA. iiec.cqu.edu.cn 葛永新. Contents. 论文信息. 作者信息. 关于主成分的理解. 特征脸的物理含义. 训练阶段. 识别阶段. 论文信息. Turk M , Pentland A . Eigenfaces for recognition[J] . Joumal of Cognitive Neumseience , 1991 , 3(1) : 71—86. 作者信息( 1/2 ). Matthew Turk Professor Computer Science Department

kimn
Download Presentation

PCA 和 LDA

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. PCA和LDA iiec.cqu.edu.cn 葛永新

  2. Contents 论文信息 作者信息 关于主成分的理解 特征脸的物理含义 训练阶段 识别阶段

  3. 论文信息 • Turk M,Pentland A.Eigenfaces for recognition[J].Joumal of Cognitive Neumseience,1991,3(1):71—86.

  4. 作者信息(1/2) Matthew Turk Professor Computer Science Department Media Arts and Technology Program University of California, Santa Barbara   Research interests: Computer vision and imaging, perceptual interfaces, multimodal interaction, human-computer interaction, gesture recognition, artificial intelligencehttp://www.cs.ucsb.edu/~mturk/

  5. 作者信息(1/2) Prof. Alex Paul Pentland Toshiba Professor of Media, Arts, and Sciences Massachusetts Institute of Technology http://www.media.mit.edu/~pentland Director, Human Dynamics Laboratory Director, Media Lab Entrepreneurship Program

  6. 关于主成分的理解(1/3) 五行是一种哲学观,认为万事万物都是由金木水火土这五种要素组成 西方人:所有事物都是由元素周期表中的103种元素组成的 水: H2O = 2*H + 1*O 线性代数 寻找基向量的过程

  7. 关于主成分的理解(2/3) PCA的基础就是K-L变换,是一种常用的正交变化 , K-L变换思想如下: 假设X为n维随机变量,X可以用n个基向量的加权和表示 其中 是加权系数, 是基向量,其矩阵表示形式是 其系数向量为

  8. 关于主成分的理解(3/3) 综上所述,K-L展开式的系数可用下列步骤求出 求随机向量X的自相关矩阵R=E(XTX),通常我们采用数据集的协方差矩阵作为K-L坐标系的产生矩阵; 求出自相关矩阵或协方差矩阵的特征值 和特征向量 , ; 3. 展开式系数即为 ,由正交性可得 ,此二式为K-L变换公式

  9. 特征脸的物理含义(1/4) 比如ORL人脸数据库中有400幅人脸图像,是不是可以 找到一组基,让所有的人脸库中的人脸都可以用这组基的线性组合来表示

  10. 特征脸的物理含义(2/4) 意义何在? 1. 维度大大减少 假设数据库中的图像大小为112*92,那么存储这些图像所需要的空间大小为112*92*200=4121600;假设我们寻找一组基,不妨假定为40维(即40幅人脸图像),则数据库中的每幅图像都可以用这40幅图像表示,则这个数据库所需的存储空间为40*400=16000; 对比:4121600/16000=257.6

  11. 特征脸的物理含义(3/4) 意义何在? 2. 投影方向区分度大 命题1:随机变量方差越大,包含的信息越多,特别地,如果一个变量方差为0,则该变量为常数,不包含任何信息。 命题2:所有原始数据在主分量上的投影方差为特征值。 PCA思想:寻找主分量,即寻找一组向量,使得原始数据在这组向量上的投影值的方差尽可能大。最大方差对应的向量就是第一主分量,以此类推

  12. 特征脸的物理含义(4/4) 意义何在? 3. 去除原始数据的相关性 t=COV(X,Y), t=1,相关;t=0,不相关 命题:对于矩阵A来说,如果AAT是一个对角矩阵,则A中的向量是非相关的。 1)特征脸,即基是正交的,非相关 2)投影系数,可以证明也是非相关的

  13. 训练阶段(1/12) 训练阶段即是寻求最优特征脸(基) 第一步:假设训练集有400个样本,由灰度图组成,每个样本的大小为M*N 写出训练样本矩阵: X = (x1, x2, …, x200) 其中向量x为由第个图像的每一列向量堆成一列的MN维列向量,即把矩阵向量化,如下图所示:

  14. 训练阶段(2/12) 如:第i个图像的矩阵为 则xi用这个列向量来表示

  15. 训练阶段(3/12) 第二步:计算平均脸 计算训练图片的平均脸

  16. 训练阶段(4/12) 平均脸示意图

  17. 训练阶段(5/12) 第三步:计算差值脸(也叫去平均化) 计算每张人脸与平均脸的差值

  18. 训练阶段(6/12) 差值脸示意图

  19. 训练阶段(7/12) 第四步:构建协方差矩阵

  20. 训练阶段(8/12) 第五步:求协方差矩阵的特征值和特征向量,构造特征脸空间 协方差矩阵的维数为MN*MN,考虑其维数较大,计算量也比较大,所以一般采用奇异值分解(Singular Value Decomposition, SVD),通过求解ATA来获得AAT的特征值和特征向量。

  21. 训练阶段(9/12) 求出ATA的特征值 及其正交归一化特征向量协方差vi 根据特征值的贡献率选取前p个最大特征值及其对应的特征向量 贡献率是指选取的特征值之和与所有特征值之和的比,即

  22. 训练阶段(10/12) 选取的特征脸示例 Discussion:对应较大特征值的特征向量,用于表示人体的大体形状(低频信息),而对应于较小特征值的特征向量则用于描述人脸的具体细节(高频信息)

  23. 训练阶段(11/12) 第六步:将每一幅人脸与平均脸的差值脸矢量投影到“特征脸”空间,即

  24. 训练阶段(12/12) 一般选取 即使训练样本在前p个特征向量集上的投影有99%的能量 求出原协方差矩阵的特征向量 则“特征脸”空间为

  25. 识别阶段(1/5) 第一步:将待识别的人脸图像T与平均脸的差值脸投影到特征空间,得到其特征向量表示:

  26. 识别阶段(2/5) 待识别的人脸图像T 及其与平均脸的差值脸

  27. 识别阶段(3/5) 第二步:采用欧式距离来计算 与每个人脸之间的距离 :

  28. 识别阶段(4/5) 第三步:根据前面计算的欧式距离,找出与测试图像最小的图像标签,即为测试图像的标签 :

  29. 识别阶段(5/5) 数据库中最接近的图 测试图

  30. Qusetions? Thank You ! iiec.cqu.edu.cn

More Related