1 / 41

5’. Extraction d’objets pour le chapitrage des documents audio-visuels numériques

5’. Extraction d’objets pour le chapitrage des documents audio-visuels numériques. Objectifs : extraire les objets des séquences vidéo et indexer le contenu par objets Après l’extraction : calculer les descripteurs de la forme, de la texture, de la couleur.

luana
Download Presentation

5’. Extraction d’objets pour le chapitrage des documents audio-visuels numériques

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 5’. Extraction d’objets pour le chapitrage des documents audio-visuels numériques • Objectifs : extraire les objets des séquences vidéo et indexer le contenu par objets • Après l’extraction : calculer les descripteurs de la forme, de la texture, de la couleur. • Pb. d’extraction est le plus complexe ! • Dans notre cours : uniquement les méthodes dites “coopératives” – basées régions seront proposées.

  2. Sommaire 1. Introduction 2. Construction de la segmentation spatio-temporelle - “objet” 3. Eléments du suivi des segmentations spatio-temporelles 4. Extraction des informations de la composition des scènes

  3. 1. Introduction MPEG1, 2 MPEG4,7 VOs Blocs

  4. 2. Construction de la segmentation spatio-temporelle - “objet” Modes: - « manuel » - rotoscoping (pratiques de pp. vidéo) - semi-automatique (IRISA, IRCCyN, UPC, I3S, plate-forme OSIAM, plate-forme MoMuSys et al., « blue screenning ») - automatique (IRISA, IRCCyN, UPC, Univ. de Tel- Aviv, Univ. de Hannover …)

  5. Segmentation spatio-temporelle semi - automatique(I) Segmentation spatiale Estimation du mouvement Interaction de l ’utilisateur IRISA/TEMIC

  6. Segmentation spatio-temporelle semi - automatique (II) Segmentation spatiale Estimation du mouvement Fusion basée mouvement Interaction de l ’utilisateur

  7. Approche à l ’interaction minimale Superposition de la segmentation spatiale et la classification des régions Affectation inter-classe si possible Estimation du mouvement et fusion intra-classe

  8. Segmentation spatio-temporelle automatique Pour les scènes génériques la segmentation purement automatique reste un défi! SST MDL (optimisé par rapport au codage) IRISA/TEMIC S. Pateux, C. Labit SST coopérative IRCCyN J. Benois,F. Morier, D. Barba

  9. Segmentation spatio-temporelle automatique(II) IRCCyN/ISA/IVC F.Morier, J. Benois, D. Barba fusion ascendante basée sur les mesures de la qualité de compensation du mouvement IRISA/ Vista P. Bouthemy, M. Gelgon étiquetage stochastique du GAR (Champs de Markov)

  10. Segmentation spatio-temporelle Deux phases : - la segmentation spatiale : approches morphologique, texturelle (markovienne), MDL, pyramides de luminance… - prise en compte du mouvement: estimation paramétrique, fusion

  11. Segmentation couleur morphologique • (1)Calcul du gradientmorphologique sur la luminance (Y) pour obtenir les contours des objets où

  12. Segmentation Watershed modifié • Image comme surface topographique |G(x)| • A chaque région connexe est associée un bassin • A chaque barrière de gradient est associée un barrage x C(x) • Étiquetage des composantes connexes • Watershed modifié dans l’espace • couleur : croissance des régions x

  13. Segmentation spatiale couleur. Approche morphologique « Watershed » Watershed classique sur le gradient Watershed adaptatif sur la luminance

  14. Segmentation spatiale couleur. Watershed Couleur vs. Luminance Couleur Luminance NBR_RégC=NBR_RégL Différence est dans la forme!

  15. Segmentation spatiale couleur. Fusion basée couleur Critère Nombre initial de régions 657 574 539 506 470 444 arrêt 425 398

  16. Segmentation spatiale couleur.Résultats.

  17. Estimation du mouvement Modèles : affines du 1er ordre (6 ou 4 paramètres) Rt<=> q4t=(tx,ty,f,k)T q6t=(a0,b0,a1,b1,a2,b2)T Méthodes d ’estimation : - différentielles (1er, 2nd ordre) - estimation du flot optique + estimation paramétrique au sens des MC

  18. Estimation du mouvement basée région(I) Critère à optimiser : -> min Méthode : descente de gradient gain adaptatif

  19. Estimation du mouvement basée région(II)

  20. Fusion des régions au sens du mouvement(I) Approche basée sur - test des hypothèses statistiques; - mesure de la qualité de compensation du mouvement Test des hypothèses statistiques ( maximum de vraisemblance): H0 : R1, R2 font partie d ’une même région R0 = R1Ú R2 H1: R1, R2 sont des régions distinctes

  21. Fusion des régions au sens du mouvement(2) Expression des hypothèses statistiques - soit l’erreur de compensation du mouvement - soit - variables statistiques indépendantes distribuées selon les lois gaussiennes avec la moyenne nulle et les écart-types H0 : pour chaque point de R0 H1: pour chaque point de R1, pour chaque point de R2

  22. Fusion des régions au sens du mouvement(3) Test de maximum de vraisemblance - soit les fonctions de vraisemblance associées à chacune des hypothèses H0 et H1 alors décision D0 (l’hypothèse H0) est prise décision D1 (l’hypothèse H1) est prise sous l’hypothèse de la distribution connue à chaque point (x,y) d’une région R, la fonction de vraisemblance peut être exprimée comme

  23. Fusion des régions au sens du mouvement(5) Fonctions de vraisemblance : Ici N est le nombre de pixels dans la région R La variance inconnue est estimée à posteriori comme Finalement

  24. Fusion des régions au sens du mouvement(6) Choix du seuil de la décision : - risque à prendre la décision Di Ici est la probabilité à posteriori de l’hypothèse Hj sachant les mesures cij- sont les coûts de la prise de décision Di si l’hypothèse Hj est vérifiée La décision à risque minimal doit être prise

  25. Fusion des régions au sens du mouvement(6) D’après le théorème de Bayes Alors (*) Si cette inégalité est satisfaite alors la décision D0 doit être prise, sinon – D1. Ici P0(P1 respectivement) est la probabilité des de l’hypothèse H0 (H1) respectivement. D’après (*)

  26. Fusion des régions au sens du mouvement(7) Posons c10=c01=1 et c00=c11=0 Par ailleurs Alors pour tout point dans la région R0 La valeur correspond à la solution équiprobable. Si grandit, alors P0 tend vers 1

  27. Fusion des régions au sens du mouvement(8) Mesures de qualité : - basées DFD; - basées DFD normalisée Règle de fusion: et

  28. Fusion hiérarchique des régions au sens du mouvement(9) Cartes de la segmentation emboîtées l=0 - spatiale l=L l=1 ...

  29. 3. Eléménts du suivi des segmentations spatio-temporelles Problème : connaissant la segmentation St et le couple des images It, It+1 fabriquer la segmentation St+1 Suivi avec la prédiction en avant St, It, It-1, It+1 Traitement d’occultations Ajustement des bords des régions Projection de la segmentation tt+1 Extraction de l’ordre de la profondeur St+1 Découpage des régions Re-estimation du mvt Fusion des régions

  30. R1 R1 R2 R2 Prédiction des segmentations(I) Prédiction court-terme - prédiction « statique » St+1/t= St t+1 t - prédiction au sens du mouvement St+1/t=F( St,Qt)

  31. R1 R2 ? Prédiction des segmentations(II) Prédiction au sens du mouvement des régions polygonaux - pour tout sommet polygonal P(R) Formation d’une zone d’occultation ? t+1 t+1 t ou

  32. Zones de découvrement Approche : les segmenter dans l’image It+1(ex. croissance des régions) - les représenter par le modèle de luminance/couleur (ex. valeur moyenne) Image d ’origine Image prédite avec la segmentation prédite Après traitement des occultations Les zone de recouvrement – source de connaissance sur la composition des scènes

  33. 4. Extraction des informations de la composition des scènes MPEG4:”2D and 3D scenes may be composed and overlapped on the screen using Layer2D and Layer3D nodes ;” Extraction des informations « 2D et 1/2 » : depth from motion - l ’ordre de la profondeur

  34. Extraction des informations de la composition des scènes Principe d’extraction de l’ordre de la profondeur : - l’analyse de la qualité de la compensation du mouvement localement dans des zones d’occultation; - propagation des informations locales de façon optimale globalement R1 R2 ? t+1 t

  35. devant derrière INCONNU Extraction des informations de la composition. Ordre de la profondeur Extraction de la profondeur locale Modeintra-image: - Calcul des EQMs de compensation du mouvement EQMs obtenues dans la zone recouverte « confiance » intra image - Décision avec la classe de rejet  est un seuil

  36. Ordre de la profondeur(II) -Introduction d ’un filtrage temporel de la valeur de confiance - Introduction d ’une règle de décision à hystérésis

  37. Ordre de la profondeur(III) • Profondeur relative dans le couple “Bateau-fond”

  38. ... Ordre de la profondeur(IV) Affectation de la profondeur globale : parcours optimal du GAR - GAR est un graphe pondéré : Ri = wij - Construction des chemins optimaux R*{R}-R* (Dijkstra) Rj Parcours optimal vs parcours arbitraire t Affectation basée Dijkstra Affectation basée BFS

  39. Suivi des segmentations spatio-temporelles (II) • Utilisation correcte de la profondeur

  40. Suivi des segmentations spatio-temporelles (III) • Exemple artificiel : la profondeur relative erronée

  41. Suivi des scènes génériques(II)

More Related