1 / 41

Apprentissage semi-supervisé

Apprentissage semi-supervisé. Extrait de : http://www.public.asu.edu/~jye02. m. n. Position du Problème. Données avec labels. Labels des données (0 ou 1). But : prédire les labels des données sans labels. X. y. Données sans labels. Apprentissage Semi-supervisé. Classification.

darena
Download Presentation

Apprentissage semi-supervisé

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Apprentissage semi-supervisé Extrait de : http://www.public.asu.edu/~jye02

  2. m n Position du Problème Données avec labels Labels des données (0 ou 1) But : prédire les labels des données sans labels X y Données sans labels

  3. Apprentissage Semi-supervisé Classification Clustering Apprentissage semi-supervisé Apprentissage semi-supervisé pour améliorer les performances en combinant les données avec labels (peu) et sans labels (beaucoup) • Classification semi-supervisée (discrimination) : entraîner sur des données avec labels et exploiter les données (beaucoup) sans labels pour améliorer les performances • Clustering semi-supervisé : clustering des données sans labels en s'aidant des données avec labels ou paires de contraintes

  4. Hypothèse de classe • Hypothèse de base pour la plupart des algorithmes d'apprentissage semi-supervisés • Points proches ont probablement le même label de classe • Deux points qui sont connectés par un chemin traversant des régions de forte densités doivent avoir le même label. Autrement dit les frontières de décision doivent appartenir à des régions de faible densité.

  5. Classification Inductive vs.Transductive • Transductive : Fournit le label uniquement pour les données disponibles non labellisées • La sortie de la méthode n'est pas un classifieur • Inductive: Produit non seulement des labels pour données non labellisées, mais aussi produit un classifieur

  6. Exemple de Classification Semi-Supervisée . . . .

  7. Exemple de Classification Semi-Supervisée . . . . . . . . . . . . . . . . . . . .

  8. Exemple de Classification Semi-Supervisée . . . . . . . . . . . . . . . . . . . .

  9. Deux approches algorithmiques • Méthodes à base de classifieur. On part de l'état initial d'un classifieur et on l'améliore d'une manière itérative : • EM semi-supervisé • Co-Training • Mélange d'information complet ou incomplet de données • Méthodes à base de données. Découvrir la géométrie inhérente dans les données et l'exploiter pour rechercher un bon classifieur : Algorithmes à base de graphes • Régularisation manifold • Mélange harmonique • Régularisation d'information • hypothèses: • Connu : un ensemble de classes de données avec labels • But : améliorer la classification des exemples dans ces catégories connues

  10. Clustering Semi-Supervisé • Connaissance du domaine • Information partielle • Appliquer certaines contraintes (must-links et cannot links) • Approches • Search-based Semi-Supervised Clustering • Modifier l'algorithme clustering en y intégrant les contraintes (must-links, cannot-links) • Similarity-based Semi-Supervised Clustering • Modifier la mesure de similarités basée sur les contraintes • Combinaison des deux.

  11. Clustering Semi-Supervisé : Exemple 1 . . . . . . . . . . . . . . . . . . . .

  12. Clustering Semi-Supervisé : Exemple 1 . . . . . . . . . . . . . . . . . . . .

  13. Clustering Semi-Supervisé : Exemple 2 . . . . . . . . . . . . . . . . . . . .

  14. Clustering Semi-Supervisé : Exemple 2 . . . . . . . . . . . . . . . . . . . .

  15. Clustering semi-supervisé : • Entrée : • Un ensemble d'objets sans labels, chacun est décrit par un ensemble d'attributs (numériques ou catégoriels) • Une faible connaissance du domaine • Sortie : • Partitionnement des objets en k classes • Objectif : • Similarité intra-cluster maximum • Similarité inter-cluster minimum • Une grande consistance entre partition et connaissances du domaine

  16. Pourquoi clustering semi-supervisé ? • Pourquoi clustering seul insuffiant ? • Les classes obtenues peuvent ne pas être ceux demandées • Parfois, il y a plusieurs choix de groupements • Pourquoi discrimination seule insuffisante ? • Parfois on n'a pas assez de données avec labels • Applications potentielles • Bioinformatique (clustering gêne et protéine) • Construction de hiérarchies de documents • Catégorisation de News/email • catégorisation d'Images

  17. Classification semi-supervisée c'est quoi ? • Utilise un faible nombre de données avec labels pour labelliser un grand nombre de données sans labels • Labelliser est coûteux • Idée de base • Données similaires doivent avoir le même label de classe • Exemples • Classification pages Web • Classification de documents • Classification de protéines

  18. K-Means Semi-Supervisé • Seeded K-Means: • Labeled data provided by user are used for initialization: initial center for cluster i is the mean of the seed points having label i. • Seed points are only used for initialization, and not in subsequent steps. • Constrained K-Means: • Labeled data provided by user are used to initialize K-Means algorithm. • Cluster labels of seed data are kept unchanged in the cluster assignment steps, and only the labels of the non-seed data are re-estimated.

  19. Seeded K-Means Use labeled data to find the initial centroids and then run K-Means. The labels for seeded points may change.

  20. Constrained K-Means Use labeled data to find the initial centroids and then run K-Means. The labels for seeded points will not change.

  21. Constrained K-Means Example

  22. Constrained K-Means ExampleInitialize Means Using Labeled Data x x

  23. Constrained K-Means ExampleAssign Points to Clusters x x

  24. x x Constrained K-Means ExampleRe-estimate Means and Converge

  25. COP K-Means • COP K-Means [Wagstaff et al.: ICML01] is K-Means with must-link (must be in same cluster) and cannot-link (cannot be in same cluster) constraints on data points. • Initialization: Cluster centers are chosen randomly, but as each one is chosen any must-link constraints that it participates in are enforced (so that they cannot later be chosen as the center of another cluster). • Algorithm: During cluster assignment step in COP-K-Means, a point is assigned to its nearest cluster without violating any of its constraints. If no such assignment exists, abort.

  26. Illustration Determine its label Must-link x x Assign to the red class

  27. Illustration Determine its label x x Cannot-link Assign to the red class

  28. Illustration Determine its label Must-link x x Cannot-link The clustering algorithm fails

  29. COP K-Means Algorithm

  30. PC K-Means, Basu, et al. w is the penalty matrix Other search-based algorithms Kernel-based semi-supervised clustering, Kulis, et al. Kernel K-Means reward

  31. Overview of spectral clustering • Compute the similarity matrix W and D. • Form • Form the matrix Y consisting of the first K eigenvectors of • Normalize Y so that all the rows have unit lengths. • Run K-Means on the rows to get the K clusters. (Ng, Jordan, and Weiss , NIPS’02) or • Apply an iterative optimization to get the partition matrix. (Yu and Shi, ICCV’03)

  32. Semi-supervised spectral clustering • Compute the similarity matrix W and D. • For each pair of must-link (i,j), assign • For each pair of cannot-link (i,j), assign • Form the matrix • Form the matrix Y consisting of the first K eigenvectors of • Normalize Y so that all the rows have unit lengths. • Run K-Means on the rows to get the K clusters. (Ng, Jordan, and Weiss , NIPS’02) or • Apply an iterative optimization to get the partition matrix. (Yu and Shi, ICCV’03)

  33. Harmonic approach • Paper: Semi-Supervised Learning Using Gaussian Fields and Harmonic functions. Zhu and et al. • Basics • Build the weighted graph • The labels on the labeled data are fixed • Determine the labels of the unlabeled data based on the cluster Assumption

  34. Define a real-valued function f: V  R on G with certain properties. Goal: determine the label of unlabeled data by f. Intuition: Nearby points in the graph have the same label. is small Large weight Intuition Optimization problem: Compute optimal f such that E(f) is minimized, subject to the constraint that the values of f on labeled data are fixed.

  35. Intuition Non-differentiable f: discrete Determine the labels via thresholding The values of f on labeled data are fixed.

  36. Define a real-valued function f: V  R on G with certain properties. Goal: determine the label of unlabeled data by f. Intuition: Nearby points in the graph have the same label. is small Large weight Main idea Optimization problem: Compute optimal f such that E(f) is minimized, subject to the constraint that the values of f on labeled data are fixed.

  37. The optimization problem: The optimal solution f is harmonic: is the combinatorial laplacian. where Harmonic function on unlabeled points

  38. Optimal solution in matrix form

  39. Conclusion • Domaine assez vaste : • Clustering : K-means, Mixture, HMRF, Kernel K-means • Projection : LLE, ISOMAP, Kernel PCA, ... • On doit se consacrer à un champ particulier selon sa sensibilité • Passer aux applications pour mettre en exergue la validité des approches

More Related