1 / 30

Champs de Markov en Vision par Ordinateur

Champs de Markov en Vision par Ordinateur. 0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous l’entendez ! Excusez mon français s’il vous plait. Chercheur en traitement d’image et vision par ordinateur à l’INRIA dans projet Ariana.

verena
Download Presentation

Champs de Markov en Vision par Ordinateur

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Champs de Markov en Vision par Ordinateur

  2. 0 : Quelques Points avant Commencer : Moi. • Ian Jermyn. • Anglais comme vous l’entendez ! • Excusez mon français s’il vous plait. • Chercheur en traitement d’image et vision par ordinateur à l’INRIA dans projet Ariana. • Formation en physique théorique et puis vision par ordinateur.

  3. 0 : Quelques Points avant Commencer : Contacts. • Ian.Jermyn@sophia.inria.fr. • www-sop.inria.fr/ariana/personnel/Ian.Jermyn. • Vous trouverez là l’original de ce document.

  4. 0 : Quelques Points avant Commencer : Vous. • N’ayez pas peur : • De questionner – la façon meilleure d’apprendre. • De demander que je répète ou explique quelque chose. • De me dire si le niveau est trop simple ou tropcompliqué. • Envoyez-moi un email si vous avez des questions après la conférence.

  5. 0 : Images : Deconvolution.

  6. 0 : Images : Segmentation.

  7. 0 : Buts. • Définitions : qu’est-ce que sont les champs de Markov ? • Exemples : comment sont-ils utilisés pour la compréhension d’images ? • Algorithmes : comment peut-on extraire l’information désirée des modèles ?

  8. Part I : Définitions

  9. I : Modèles Probabilistes d’Images. • Donné une image (connu), on veut savoir quelque chose de la ‘scène’ (inconnu). • Exemple : on veut savoir s’il y avait une personne dans la scène, et si oui, où. • La théorie de probabilité décrit le raisonnement dans les situations de connaissance incomplète. • La généralisation unique de la logique aristotélicienne qui satisfait des critères simples et évidents.

  10. I : Théorème de Bayes A. • On veut savoir la probabilité de la scène sachant l’image. • Le théorème de Bayes/Laplace transforme la probabilité de l’image sachant la scène en la probabilité de la scène sachant l’image. • K représente toute la connaissance qu’on a avant de voir l’image : il y a toujours quelque chose.

  11. I : Théorème de Bayes B. • La probabilité de l’image sachant la scène et K (la formation de l’image). Souvent un modèle physique. Appelée la vraisemblance. • La probabilité de la scène avant d’avoir vu l’image (mais avec la connaissance K). Appelée la probabilité a priori. • On doit construire des modèles pour tous les deux.

  12. I : Les espaces d’images A. • Pour nous, une image est une fonction d’un domainevers un espace C. • Les signaux acoustiques : N = 1. • Les images standard : N = 2. • Les images MRI : N = 3. • Les séquences vidéo : N = 3 = « 2 + 1 ».

  13. I : Les espace d’images B. • La dimension de C : • Images monochromatiques : 1. • Images en couleur : 3. • Images multi- ou hyper-spectrale : plus de 3. • D est envisagé comme plongé dans . Ça veut dire que les notions de géométrie peuvent être appliquées si N > 1. • C’est une des raisons pour lesquelles le traitement d’image est beaucoup plus difficile que le traitement des signaux 1D.

  14. I : Les espaces de scène : Sémantique. • Information sur le monde 3D : • Distances et positions des objets dans une photo; • Types de végétation dans une image aérienne; • Position d’une tumeur dans une image médicale ; • Géométrie des bâtiments dans un plan. • Paramètres de la caméra. • Jugements plus subjectifs : • Émotion d’un visage ; • Style d’architecture.

  15. I : Les espaces de scène : Mathématique A. • Une fonction de D vers un autre espace : • Restauration : CD; • Segmentation : LD où L est un ensemble (étiquettes d’interprétation) ; • Une région : {0,1}D.

  16. I : Les espaces de scène : Mathématique B. • Une fonction d’un autre espace vers D : • Une région : ; • Positions et paramètres d’objets: (D x L)n.

  17. I : Probabilités sur ces espaces. • L’espace d’images est énorme. • 10157826 images possibles de 256 x 256 pixels. • ~1080 atomes dans l’univers visible. • ~10157746 images pour chaque atome. • Une fractionminuscule contient des images de notre monde. La plupart des images sont du bruit. • Les probabilités sont fonction de 65536 variables dépendantes : les valeurs des pixels. Donc, il faut simplifier.

  18. I : Simplification de la probabilité. • Les probabilités se simplifient quand quelques variables sont indépendantes les unes, les autres. • Les champs de Markov sontune voie (mais pas la seule) pour définir des probabilités simplifiées mais encore utiles.

  19. I : Exemple : Indépendance. • Si la scène est décrite par une fonction sur D, la probabilité peut se factoriser sur les pixels : • Dans ce cas, on peut traiter chaque pixel séparément (problème àune dimension).

  20. I : Champs de Markov (MRFs). • Un champ de Markov sur un ensemble D est une probabilité sur l’espace de fonctions CD de D vers une autre espace C satisfaisant les conditions suivantes. • Positivité: .

  21. I : Champs de Markov (MRFs). • Voisinage : pour chaque point, il y a un sous-ensemblet.q. • On peut savoir tout ce qui est possible de la valeur de fp sachant seulement les valeurs des ‘voisins’ fN(p)-p.

  22. I : Interprétation comme un graphe. • Un graphe non-orienté G est : • Un ensemble V (noeuds); • Un sous-ensemblet.q. • Etant donné un MRF, on définit un graphe de la façonsuivante :

  23. I : Cliques. • Un sous-ensemble est une clique ssi : . • On définit comme l’ensemble de toutes les cliques dans le graphe G.

  24. I : Distributions de Gibbs A • Pour une fonction , la probabilité suivante est appelée une distribution de Gibbs:

  25. I : Théorème de Hammersley-Clifford. • 1971. Très important parce qu’il permit la construction facile de MRFs. • Pour chaque fonction , est un MRF. • Pour chaque MRF Pr, on peut trouver unefonction t.q. . • Conclusion: GIBBS = MRF

  26. I : Estimées : En Général. • Utilité = fonction de coût: • Utilité moyenne : • Estimée :

  27. I : Estimées : MAP. • Maximum APosteriori : ce maximise la probabilité. • N.B. Quand C est continu, l’estimée MAP n’est pas exactement le point plus probable.

  28. I : Estimées : MPM. • Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels erronés.

  29. I : Estimées : Moyenne. • Moyenne : minimiser l’erreur quadratique moyenne. • N.B. C doit être un espace vectoriel.

  30. I : Distribution de Gibbs B. • U est appelé l’énergie. Z est appelé le fonction de partition. • Pour une distribution de Gibbs, l’estimée MAP prend une forme simple: • Cette forme on appèle minimisation d’énergie.

More Related