1 / 97

Cours 3

Cours 3. Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE Cognition bayésienne 11/01/2012 http://diard.wordpress.com Julien.Diard@upmf-grenoble.fr. Plan des cours. Introduction à la Programmation Bayésienne : incomplétude, incertitude

demi
Download Presentation

Cours 3

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Cours 3 Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE Cognition bayésienne 11/01/2012 http://diard.wordpress.com Julien.Diard@upmf-grenoble.fr

  2. Plan des cours • Introduction à la Programmation Bayésienne : incomplétude, incertitude • Programmation bayésienne : exemple détaillé, taxonomie des classes de modèles probabilistes • Distributions usuelles, Programmation bayésienne des robots • Modélisation bayésienne de la perception et de l’action • Comparaison bayésienne de modèles • Compléments : inférence, apprentissage, principe d’entropie

  3. Plan • Résumé + questions ! • « Vocabulaire » mathématique : distributions usuelles • Programmation Bayésienne des Robots : exemples

  4. Probability Theory As Extended Logic • Probabilités « subjectives » • Référence à un état de connaissance d’un sujet • P(« il pleut » | Jean), P(« il pleut » | Pierre) • Pas de référence à la limite d’occurrence d’un événement (fréquence) • Probabilités conditionnelles • P(A | π) et jamais P(A) • Probabilités « fréquentistes » • Une probabilité est une propriété physique d’un objet • Axiomatique de Kolmogorov, théorie des ensembles E.T. Jaynes (1922-1998)

  5. Règles de calcul • Règle du produit  Théorème de Bayes • Règle de la somme  Règle de marginalisation Reverend Thomas Bayes (~1702-1761)

  6. Specification • Variables • Decomposition Description • Parametrical Forms or Recursive Question Program Identification Question Inference Bayesian Program = Description + Question • Preliminary Knowledge p • Experimental Data d

  7. Water treatment unit example • Water treatment unit • Bayesian Program • Learn parameters • Water treatment center (importance of Conditional Independence Hypotheses) • Use the Bayesian Program • Questions and inference

  8. Taxonomie des classes de modèles probabilistes • Réseaux bayésiens • Réseaux bayésiens dynamiques • Filtres bayésiens • Modèles de Markov Cachés • Filtres de Kalman • Processus de décision markovien (partiellement observable) • … (Bessière 03, Diard, CIRAS, 03)

  9. Plan • Résumé + questions ! • « Vocabulaire » mathématique : distributions usuelles • Programmation Bayésienne des Robots : exemples

  10. Uniforme, uniforme par intervalle ! Support continu Support discret P(X) = 0 hors du support

  11. Dirac, functional Dirac • Support discret • Plus délicat en continu • somme à 1, support de taille 0 : valeur infinie • Fonction d, Kronecker, Dirac • Dirac fonctionnel P(X | Y) = dx=f(Y) (X)

  12. Dirac, functional Dirac • Sommer sur un Dirac • 0.P(x1) + 0.P(x2) + 1.P(x3) + 0.P(x4) + … • Inverser un Dirac • Chercher x3…  Mélange d’algorithmes et de Programmes Bayésiens P(E | B) = d(E) A E D B F C

  13. Histogramme, lois de succession de Laplace • Variables X, k cas, x1, x2, …, xk • Chaque cas xi observé ni fois • Total des cas n1 + … + nk = N • Histogramme : • Problème des cas jamais observés • Loi de succession de Laplace : • N = 0  uniforme • N >> 0  histogramme

  14. Gaussienne • Domaine : ! • Distribution gaussienne, normale • Cas 1D • Cas 2D • Cas ND μ N-vector, Σ NxN symétrique

  15. Laplace • Distribution « heavy tailed »

  16. von Mises • Domaine circulaire ! • μ direction moyenne • λ paramètre de concentration λ ≥ 0 • I0(λ) modified Bessel function of the first kind and order 0

  17. Autres distributions courantes • Beta, Poisson, Dirichlet • Mixture de Gaussiennes • Jones-Pewsey (2005) distributions • von Mises • Cardioid • Wrapped Cauchy • Wrapped Gaussian • …

  18. Plan • Résumé + questions ! • Taxonomie des classes de modèles probabilistes • « Vocabulaire » mathématique : distributions usuelles • Programmation Bayésienne des Robots : exemples • Apprentissage de comportements réactifs • Fusion capteurs • Reconnaissance d’objets, de la base • Combinaison de comportements • Apprentissage de séquences de comportements • Intégration : tâche de veilleur de nuit • Autres applications : ADAS, CAD, learning sensorimotor trajectories, Bayesian action selection and attention focusing, …

  19. Learning Reactive Behaviors • Khepera Robot • Avoiding Obstacle • Contour Following • Piano mover • Phototaxy • etc. Lebeltel, O., Bessière, P., Diard, J. & Mazer, E. (2004) Bayesian Robot Programming; Autonomous Robots, Vol. 16, p. 49-79 Lebeltel, O. (1999) Programmation bayésienne des robots; Thèse INPG

  20. Pushing Objects

  21. Description Question Pushing Objects Specification • Variables • Decomposition • Parametrical Forms Program •  Preliminary Knowledge p Identification • Joystick Remote Control  Experimental Data d1

  22. Description Question Pushing Objects Specification • Variables • Decomposition • Parametrical Forms Program •  Preliminary Knowledge p Identification • Joystick Remote Control  Experimental Data d1

  23. Description Utilization Question Pushing Objects Specification • Variables • Decomposition • Parametrical Forms Program •  Preliminary Knowledge p Identification • Joystick Remote Control  Experimental Data d1

  24. Pushing Objects

  25. Description Utilization Question Contour Following Specification • Variables • Decomposition • Parametrical Forms Program •  Preliminary Knowledge p Identification • Joystick Remote Control  Experimental Data d d d

  26. Contour Following

  27. Pushing vs Following

  28. Plan • Résumé + questions ! • Taxonomie des classes de modèles probabilistes • « Vocabulaire » mathématique : distributions usuelles • Programmation Bayésienne des Robots : exemples • Apprentissage de comportements réactifs • Fusion capteurs • Reconnaissance d’objets, de la base • Combinaison de comportements • Apprentissage de séquences de comportements • Intégration : tâche de veilleur de nuit • Autres applications : ADAS, CAD, learning sensorimotor trajectories, Bayesian action selection and attention focusing, …

  29. Sensor Fusion • Objective • Find the position of a light source • Difficulty • No sensor to directly measure the position of the light source • Solution • Model of each sensor • Fusion of the 8 models

  30. Lmi Description Utilization Question Model of a Light Sensor Specification • Variables ThetaL, DistL, Lmi • Decomposition • Parametrical Forms Program •  Preliminary Knowledge psensor Identification • A priori specification

  31. Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

  32. Model of a Light Sensor (3) P(ThetaL | Lmi ) P(DistL | Lmi ) Notion of ambiguity

  33. Description Utilization Question Sensor Fusion Model Specification • Variables ThetaL, DistL, Lm0, …, Lm7 • Decomposition (Conditional Independance Hypothesis) • Parametrical Forms Program Identification • No free parameters

  34. Sensor Fusion: diagnostic

  35. perception Sensor Fusion stimulus • Perception • Un problème inverse (Poggio, 1984) • Modèle bayésien • Inversion + hypothèse d’indépendance conditionnelle sensations

  36. perception cf. cours 4 Perception modeling stimulus • Perception • Un problème inverse (Poggio, 1984) • Modèle bayésien • Inversion + hypothèse d’indépendance conditionnelle sensations

  37. Plan • Résumé + questions ! • Taxonomie des classes de modèles probabilistes • « Vocabulaire » mathématique : distributions usuelles • Programmation Bayésienne des Robots : exemples • Apprentissage de comportements réactifs • Fusion capteurs • Reconnaissance d’objets, de la base • Combinaison de comportements • Apprentissage de séquences de comportements • Intégration : tâche de veilleur de nuit • Autres applications : ADAS, CAD, learning sensorimotor trajectories, Bayesian action selection and attention focusing, …

  38. Object recognition, novelty detection

  39. Description Utilization Question Object Recognition (Model) Specification • Variables Nlt, Nrt, Per, Llsl, O = {0, 1, 2, …} • Decomposition (Conditional Independance Hypothesis) • Parametrical Forms Program Identification • Identification of the Laplace succession laws and Gaussians

  40. Object Recognition (Question)

  41. Object Recognition (Result)

  42. Description Utilization Question Home recognition Specification • Variables Lm0,…, Lm7, Px0, …, Px7, Base • Decomposition (Conditional Independance Hypothesis) • Parametrical Forms Program Identification • Learning of the Gaussians

  43. Bayesian Maps Diard, J. (2003) La carte bayésienne : Un modèle probabiliste hiérarchique pour la navigation en robotique mobile; PhD thesis, INPG

  44. Plan • Résumé + questions ! • Taxonomie des classes de modèles probabilistes • « Vocabulaire » mathématique : distributions usuelles • Programmation Bayésienne des Robots : exemples • Apprentissage de comportements réactifs • Fusion capteurs • Reconnaissance d’objets, de la base • Combinaison de comportements • Apprentissage de séquences de comportements • Intégration : tâche de veilleur de nuit • Autres applications : ADAS, CAD, learning sensorimotor trajectories, Bayesian action selection and attention focusing, …

  45. Spécification Description Programme Identification • A priori Question Utilisation Comportementphototaxie • Variables • Lum : {-170, -90, -45, -10, +10, +45, +90, +170}, 8 • Vrot : [-10..+10], 21 • Décomposition • P(Lum Vrot | C-photo) = P(Lum | C-photo) P(Vrot | Lum C-photo) • Formes paramétriques • P(Lum | C-photo)  Uniforme • P(Vrot | Lum C-photo)  Gaussiennes • P(Vrot | [Lum=l] C-photo)

  46. Homing Behavior Specification • Variables • Dir, Prox, ThethaL, Vrot • H : {a, p}[H=a] : avoid, [H=p] : phototaxy • Decomposition Description • Parametrical Forms and Recursive Questions Program Question Utilization

  47. Homing Behavior

  48. Identification de P(H | Prox)

  49. Identification de P(H | Prox) • Propagation de P(H | Dir Prox Lum Vrot) • Exemple • P([H=e] | Dir Prox Lum Vrot) = 0,82 • P([H=p] | Dir Prox Lum Vrot) = 0,18 • Création de 82 données <e, proxt > 18 données <p, proxt >

More Related