1 / 47

Concepts avancés en mathématiques et informatique appliquées

Concepts avancés en mathématiques et informatique appliquées. MAP-6014. Extraction des caractéristiques. Introduction Extraction des caractéristiques Transformation en composantes principales Approche SVD Exemples d’applications. Introduction.

belita
Download Presentation

Concepts avancés en mathématiques et informatique appliquées

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Concepts avancés en mathématiques et informatique appliquées MAP-6014

  2. Extraction des caractéristiques • Introduction • Extraction des caractéristiques • Transformation en composantes principales • Approche SVD • Exemples d’applications

  3. Introduction • L’extraction consiste à trouver un espace des caractéristiques de dimension d à partir d’un espace original de D caractéristiques • La compression de l’information est accomplie par la projection des caractéristiques originales dans un espace de dimension inférieure et ce en éliminant la redondance de l’information • Cette projection prend la forme: x = A(y)

  4. Introduction • Processus de projection de l’ensemble des caractéristiques originales dans un autre espace de caractéristiques de dimension inférieure

  5. Introduction • Si la fonction de projection A est linéaire, nous cherchons alors un extracteur de caractéristiques où A est une matrice D X d, permettant la projec-tion d’un vecteur y (dimension D) sur un vecteur x (dimension d) et dont la forme est:

  6. Extraction des caractéristiques • Analyse en composante principale • Ce type de méthode est aussi appelée • Transformée discrète de Karhunen-Loève • Transformée de Hotelling • Transformée en vecteurs propres • Cette méthode permet de déduire une transforma-tion linéaire permettant d’éliminer la corrélation entre les composantes d’un vecteur de variables aléatoires

  7. Extraction des caractéristiques • Analyse en composante principale • Si nous avons une population (n observations) de vecteurs aléatoires (D dimensions) de la forme: • Avec comme vecteur moyenne Vecteurs D dimensions • Avec une matrice de covariance Matrice D X D

  8. Extraction des caractéristiques • Analyse en composante principale • Si nous avons une matrice A définissant une trans-formation linéaire pouvant générer un nouveau vecteur x à partir d’un vecteur y par: • A est construite de telle façon que ses rangées • sont les vecteurs propres de Cy

  9. Extraction des caractéristiques • Analyse en composante principale • Le vecteur x est aléatoire de moyenne 0 (mx = 0) • La matrice de covariance de x découle de: • Le vecteur x est donc • composé de variables • aléatoires non corrélées • k est la variance de xk • La transformation A élimine donc la corrélation entre • les composantes du vecteur y

  10. Extraction des caractéristiques • Analyse en composante principale • Cette transformation est aussi réversible: • A est symétrique

  11. Extraction des caractéristiques • Diminution de la dimension du vecteur y • Nous pouvons réduire la dimension du vecteur y de D-M (nombre de caractéristiques) en ignorant les vecteurs propres correspondant aux D-M plus faibles valeurs propres • Si nous avons la matrice B de M X D (M < D) découlant de l’élimination des D-M rangées inféri-eures (classée en ordre croissant d’importance) de A

  12. Extraction des caractéristiques • Réduction de la dimension du vecteur y • En guise de simplification nous supposons que m = 0 • Le vecteur x transformé est alors donné par: • Le vecteur y est reconstitué approximativement par:

  13. Extraction des caractéristiques • Réduction de la dimension du vecteur y • L’erreur quadratique moyenne de l’approximation est:

  14. Extraction des caractéristiques • Recherche des valeurs et vecteurs propres • Cherchons les valeurs et les vecteurs propres associés à une matrice Cy (matrice variance-covariance) • Si nous avons une matrice Cy de D x D nous pouvons écrire • Où v est un vecteur propre de Cy et  une valeur propre • de Cy

  15. Extraction des caractéristiques • Recherche des valeurs et vecteurs propres • Si nous avons une matrice Cy de D x D nous pouvons écrire • Par définition, pour que  soit une valeur propre il faut • que la solution v de la dernière équation soit non nulle. • Pour que v soit non nulle il faut que

  16. Extraction des caractéristiques • Recherche des valeurs et vecteurs propres • Si nous considérons un cas d’ordre 3, nous obtenons • Le déterminant donne

  17. Extraction des caractéristiques • Recherche des valeurs et vecteurs propres • Lorsque nous avons les valeurs propres, nous les substituons une à une dans (Cy-I) v = 0 pour trouver les vecteurs propres v

  18. Extraction des caractéristiques • Recherche des valeurs et vecteurs propres • Exemple

  19. Extraction des caractéristiques (principes)

  20. Extraction des caractéristiques:Approche Singular Value Decomposition • Cette approche permet d’éliminer les faiblesses notées dans les approches de résolutions de Gauss. • L’approche SVD permet de résoudre divers types de problèmes: résolution de systèmes d’équations linéaires par moindres carrés (cas d’approximation de données), résolution de système mal conditionné.

  21. Approche Singular Value Decomposition • Système à résoudre:

  22. Approche SVD (suite) • L’approche SVD permet d’exprimer la matrice A par la décomposition A = U W VT. • Cette décomposition en matrices est obtenue par la fonction svdcmp() de Numerical Recipes in C. • Les matrices U, W et VT permettent de calculer l’inverse de A, A-1 ayant la forme A-1 = (VT)-1 W-1 U-1 = V W-1 UT • V et U étant orthonormales, leur inverse est donc donnée par leur transposée. • W étant diagonale, donc W-1 est aussi diagonale avec les éléments sur la diagonale (valeurs propres de A) donnés par 1/wi.

  23. Approche SVD (suite) • Quand certaines valeurs wi 0 (proche de 0), la matrice A est dite singulière. • Dans ce cas, A-1 (VT)-1 W-1 U-1 V W-1 UT. • Donc pour estimer la matrice A-1 (pseudoinverse de A), nous remplaçons les valeurs 1/wi dans la matrice W-1par 0 quand wi est petit (proche de 0). • Donc, x = A-1 b est obtenue dans les cas de singularité par x = pseudoinverse (A) b

  24. Approche SVD (suite) • Forme de x = A-1 b A-1

  25. Approche SVD (suite) • Avant d’appeler la fonction svdksb() qui permet de déduire les sol’n d’un système d’équations linéaires, il faut vérifier si A est singulière. • Après l’exécution de la fonction svdcmp(), les wi < MAX(wi) * 1.0e-6 sont fixés à 0 dans la matrice W.

  26. Approche SVD (exemple: Étalonnage de caméras) • Système d’équations linéaires de la forme Ax = b : Vecteur des sol’n recherchées Coordonnées des points de contrôle dans l’image de la scène Coordonnées des points de contrôle 3D. A x b

  27. Approche SVD (exemple: Étalonnage de caméras) • Algorithme de résolution: étalonnage de caméra int X[20],Y[20], Z[20],U[20],V[20]; float wmax, wmin, **a,**u,*w,**v,*b,*x int i,j,minPos; // selectionner un minimum de 6 points de contrôle ….// selectionner un maximum de 20 points de contrôle ….// correspondance en chaque pixel (u,v) et point dans l’espace 3D (X,Y,Z) a = matrix(1,2*m,1,12); // matrice A de 2mX12 u = matrix(1,2*m,1,12); // m: nombre de points de contrôle w = matrix(1,12,1,12); v = matrix(1,12,1,12); b = vector(1,2*m); x = vector(1,12); // vecteur des sol’n ….. // mise à 0 de A

  28. Approche SVD (exemple: Étalonnage de caméras) • Algorithme de résolution: étalonnage de caméra (suite …) for(i=1;i<=2*m;i+=2) {// initialiser A a[i][1] = a[i+1][4] = X[i/2+1]; a[i][2] = a[i+1][5] = Y[i/2+1]; a[i][3] = a[i+1][6] = Z[i/2+1]; a[i][7] = -X[i/2+1]* u[i/2+1]; a[i+1][7] = -X[i/2+1]* v[i/2+1]; a[i][8] = -Y[i/2+1]* u[i/2+1]; a[i+1][8] = -Y[i/2+1]* v[i/2+1]; a[i][9] = -Z[i/2+1]* u[i/2+1]; a[i+1][9] = -Z[i/2+1]* v[i/2+1]; a[i][10] = - u[i/2+1]; a[i+1][10] = - v[i/2+1]; a[i][11] = a[i+1][12] = 1.0; }

  29. Approche SVD (exemple: Étalonnage de caméras) • Algorithme de résolution: étalonnage de caméra (suite …) for(i=1;i<=2*m;i+=2) // initialiser b { b[i] = b[i+1] = 0; }

  30. Approche SVD (exemple: Étalonnage de caméras) • Algorithme de résolution: étalonnage de caméra (suite …) for(i=1;i<=2*m;i++) for(j=1;j<=12;j++) u[i][j] = a[i][j]; svdcmp(u,2*m,12,w,v); wmax = 0.0; for(j=1;j<=12;j++) if(w[j] > wmax) wmax = w[j]; wmin = wmax; // trouver la valeur propre min. dans w for(j=2;j<=12;j++) if((w[j] < wmin) && w[j] != 0.0) {wmin = w[j]; minPos = j;} for(j=1;j<=12;j++) x[j]=v[j][minPos]; // x contient la solution

  31. Approche SVD (exemple: Étalonnage de caméras) • Avec le vecteur des sol’n x dont les éléments correspondent aux coefficients des équations de transformation 3D/2D (points dans l’espace vers pixels). (x[1]  m11, x[2]  m12, x[3]  m13, x[4]  m21, x[5]  m22, x[6]  m23, x[7]  m31, x[8]  m32, x[9]  m33, x[10]  m34, x[11]  m14, x[12]  m24), nous pouvons déduire la position la position 3D d’un point dans l’espace à partir de sa projection u,v dans le plan image.

  32. Extraction des caractéristiques (exemple en télédétection: Images aéroportées)

  33. Extraction des caractéristiques (exemple en télédétection)

  34. Extraction des caractéristiques (exemple en télédétection) • Les 2 premières composantes contribuent pour 94 % de la variance totale

  35. Extraction des caractéristiques (exemple en télédétection) Images multispectrales: B, V, R Images multispectrales : NIR, MIR, TIR

  36. Extraction des caractéristiques (exemple en télédétection) • Les 2 premières composantes contribuent pour plus de 90 % de la variance totale

  37. Extraction des caractéristiques (exemple en télédétection) • Images spectrales reconstruites à partir des 2 premières composantes principales

  38. Extraction des caractéristiques (exemple en télédétection) • Différence entre les images spectrales originales et celles reconstruites à partir des 2 premières composantes principales

  39. Extraction des caractéristiques (exemple en télédétection: Images LandSat) • Colonne de gauche: • Bandes spectrales diverses (Bandes 4, 5, 6, 7 de LandSat MSS) • Colonne de droite: • Images des composantes • principales 1 et 2 (coin • supérieur droit) • Images des composantes • principales associées à de plus • faibles valeurs propres (coin • inférieur droit PC3 et PC4)

  40. Extraction des caractéristiques (exemple en télédétection)

  41. Extraction des caractéristiques (exemple en télédétection) Composantes principales

  42. Extraction des caractéristiques (exemple reconnaissance de visages) • Exemples d’images pouvant • servir à déduire les Eigen images • Permet de déduire la transfor- • mation pour projeter une image • vers ses Eigen images • A: matrice [p, NXN] • y: vecteur [NXN, 1] • Image originale • x: vecteur [p, 1] • Eigen image

  43. Extraction des caractéristiques (exemple reconnaissance de visages) • Vingt premières Eigen images • Correspond aux 20 plus grandes • valeurs propres de Cy

  44. Extraction des caractéristiques (exemple reconnaissance de visages) • Valeurs propres de Cy • Les 100 premières valeurs propres sont celles correspondant aux vecteurs propres qui constituent les axes de l’espace de variance maximale donc comportant le plus d’information

  45. Extraction des caractéristiques (exemple reconnaissance de visages) • Reconstruction d’image à partir • des Eigan face images

  46. Extraction des caractéristiques (exemple reconnaissance de visages) • Reconstruction d’image à partir • des Eigen face images

  47. Extraction des caractéristiques (exemple reconnaissance de visages) • Entraînement du système par l’extraction d’une matrice kXd ou k est NXN et d le nombre de composantes retenues (eigan face) • Calcul des vecteurs caractéristiques de chaque personnes: i = TiT ou i est l’image d’une personne • Pour une personne inconnue avec une image  calculer le vecteur  et ensuite comparer aux i pour déterminer celui le plus proche

More Related