1 / 81

Complexité et Classification

Complexité et Classification. Richard Nock DSI-GRIMAAG Université Antilles-Guyane, Campus de Schoelcher, Schoelcher, Martinique, France rnock@martinique.univ-ag.fr http://www.martinique.univ-ag.fr/~rnock. Quelques aspects algorithmiques de problèmes de classification.

neil
Download Presentation

Complexité et Classification

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Complexité et Classification Richard Nock DSI-GRIMAAG Université Antilles-Guyane, Campus de Schoelcher, Schoelcher, Martinique, France rnock@martinique.univ-ag.fr http://www.martinique.univ-ag.fr/~rnock Quelques aspects algorithmiques de problèmes de classification Département Scientifique Interfacultaire Groupe de Recherche en Informatique et Mathématiques Appliquées des Antilles-Guyane

  2. Background • Ingénieur Agronome (1993) • DEA Informatique (1993) • Doctorat Informatique (1998) directeur: O. Gascuel • Mcf UAG Guadeloupe (1998-2000) • Mcf UAG Martinique (2000-)

  3. Thèmes de recherche actuels Algorithmes d’apprentissage/classification Théorie (Complexité, stats/probas) Analyse d’images

  4. Thèmes de recherche actuels - Résultats d’inapproximabilité « appliqués » en ML/C NP-Complétude Concentration de v.a. + Bornes d’erreur sur algorithmes d’apprentissage

  5. Résumé Apprentissage et classification Complexité algorithmique Application à l’apprentissage Conclusion

  6. Apprentissage et classification Introduction

  7. Apprendre ? • Apprendre = capacité pour une entité d’améliorer ses capacités de manière automatique, par l’expérience. • Valiant (1984): 2 contraintes:Algorithmique: apprendre  rapideStatistique: apprendre  fiable

  8. Apprendre ?? • Qu’apprends-t’on d’un point de vue informatique ? • Détail des contraintes du modèle de Valiant ?

  9. Apprentissage et classification Le modèle PAC de L. Valiant

  10. y x Observations et Exemples Concept « cible » Domaine Un exemple <(x,y), > Exemples tirés selon D 2 classes

  11. Grandes étapes y 1- Collecte des exemples 2- Construction d’une hypothèse 3- Qualité de l’hypothèse ? x

  12. Evaluation y B Prob. Err.= ? A Problème ? C x

  13. Evaluation y 1- Pas d’accès à Prob. Err. ! 2- Uniquement Freq. Err. 3- Comment « assurer » qualité ? 4- Et si distrib. quelconque ?? Freq. Err. =0 5- Et si distrib. inconnue ??? Problème ! x

  14. Solution: modèle PAC I y 1- Requérir Prob. Err. limitée avec une forte probabilité 2- Sachant la distribution quelconque inconnue … mais fixe 3- Tirer suffisamment d’exemples x

  15. Modèle PAC II 1- A partir de là, comment trouver la meilleure formule ? Indép. du nb d’exemples 2- Il suffirait de disposer d’un algorithme énumérant toutes les formules possibles Problème ? 3- Enumération souvent exponentielle donc inutilisable Problème !

  16. Solution 1- Exiger que l’algorithme fonctionne rapidement 2- Exiger un algorithme polynomial Rectangles en 2D: facile

  17. Modèle de Valiant (1984) • Une classe de représentation de concepts C est apprenable au sens du modèle PAC ssi il existe un algorithme A vérifiant les deux conditions suivantes:

  18. Modèle de Valiant • cC, A a accès à un Oracle rétribuant des exemples selon c et une distribution D inconnue, quelconque, mais fixée, et, étant donnés deux paramètres 0<e,d<1, renvoie une hypothèse h de C telle que

  19. Modèle de Valiant • A fonctionne en temps polynomial Taille du concept cible # Variables de description Confiance Fiabilité

  20. Prouver que C n’est pas PAC • Trop d’exemples nécessairespour satisfaire à la première condition • Temps de calcul rhédibitoirepour satisfaire à la deuxièmecondition

  21. Complexité algorithmique Introduction

  22. Les problèmes de décision Problème de décision: Instance Ensemble d’exemples Question Formule de C consistante ? ? Oui

  23. Les problèmes de décision Problème de décision: Instance Ensemble d’exemples Question Formule de C consistante ? ? Non

  24. Classes de complexité P Classe des problèmes de décision admettant un algorithme de résolution de temps polynomial en la taille de l’instance NP Classe des problèmes de décision admettant un algorithme non déterministe de résolution de temps polynomial en la taille de l’instance ?

  25. Hypothèse(s) fondamentale(s) P NP P =P +temps P=

  26. Hypothèse(s) fondamentale(s) QP NP QP= P QP QP …et bien sur

  27. Hypothèse(s) fondamentale(s) NP …pour un P QP …et bien sur

  28. Hypothèse(s) fondamentale(s) NP ??? …Qu’y a-t’il ici ? P QP …et bien sur

  29. Problèmes « difficiles » A B poly instances NP-Complets Oui Oui Hyp. de comp. Tous difficiles ! solutions Un est Poly Tous sont Poly

  30. Complexité algorithmique Décision et optimisation

  31. Problème d ’optimisation Définition: Instance Ensemble d’exemples LS Ens. Solutions Formules de C consistantes avec LS Fonction de Coût Taille de la formule Objectif Trouver une sol. min. (max.) la fonct. de coût Décision vs Optimisation: La plupart des problèmes de décision admettent (au moins) une version d ’optimisation « naturelle »

  32. Un problème de minimisation est approximable à moins de ssi il existe un algorithme poly permettant, pour une instance de coût de trouver une solution de coût au plus Problème d ’optimisation Le coût d ’une instance est le coût optimal d ’une solution pour cette instance Problèmes d ’optimisation difficiles Existence ? Procédure ?

  33. Difficulté d ’approximation I Coût des instances Prob. déc. NP-Complet Prob. Minimisation Non « gap » Oui Réduction

  34. Difficulté d ’approximation II Hypothèse: le problème de minimisation admet un algorithme d’approximation de ratio Comment arriver à une contradiction ?

  35. Difficulté d ’approximation II Etapes A B C Non Non On résoud le problème NP-Complet !! Algorithme hypothétique Oui d ’approximation Oui Instances Solutions

  36. Difficulté d ’approximation III Si il existe une réduction de temps polynomial depuis un prob. NP-Complet vers un problème de minimisation, t.q. Les instances « Oui » sont transformées en inst. de coût Les instances « Non » sont transformées en inst. de coût Alors, sous l ’hypothèse le prob. de minimisation n ’est pas approximable à moins de

  37. Remplacement de P par QP Si on remplace l ’exigence polynomiale par une exigence Quasi-Polynomiale Définition de l ’approximabilité Temps de la réduction Temps de l ’algorithme d ’approximation hypothétique Alors, sous l ’hypothèse le prob. de minimisation n ’est pas approximable à moins de

  38. Pourquoi remplacer P par QP ? Avantage direct: Les ratios d ’inapproximabilité peuvent être bcp + grands Inconvénient: Hypothèse bcp plus forte, et donc « moins » réaliste devient Avantage indirect: On peut aussi remplacer par …et (espérer) des ratios encore + grands !

  39. Application à l ’apprentissage Réductions « traditionnelles »

  40. Preuves directes • On part d’un problème difficile (NP-Complet) traditionnel • On construit une instance difficile d ’un problème de classification, formulé comme un problème de décision, ou d ’optimisation

  41. Exemple • Kearns, Li, Pitt, Valiant (STOC ’87++) • Problèmes: Consistance (DNF): Instance Ensemble d’exemples, entier k>0 Question k-term-DNF consistante ? Optimisation (DNF): Instance Ensemble d’exemples Ens. Solutions DNF consistantes Fonction de Coût Nb de monomes de la DNF

  42. (k-term-)DNF Un monome (Booléen): conjonction de littéraux: Une DNF: disjonction de monomes: Une k-term-DNF: disjonction d ’au plus k monomes 2 classes: exemples positifs et négatifs (10110110,1) (0101010,0)

  43. Représentation du problème LS 2-term-DNF cons. ?? « OUI »

  44. La réduction Instance G=(X,E), entier k>0 Instance Ech. d’ex., k>0 Question k-coloration de G ? Question k-term-DNF ? k=3 « Oui » « Oui »

  45. La réduction Propriété: Le nombre minimal de couleurs = taille minimale de la DNF consistante

  46. Résultat d’inapproximabilité Colorabilité minimale SAT Feige, Kilian ’96 Non « gap » Oui Réduction Nombre de couleurs

  47. Théorème En utilisant Kearns & al. ’87 + Feige & Kilian ’96, on obtient: Théorème: La DNF minimale consistante pas approximable à moins de Renvoie Oui, Non, ? (Pr(?)=cst<1) Problème ?

  48. Commentaires Sachant que la colorabilité est (trivialement) approximable à un ratio On ne peut donc pas obtenir de ratio d ’inapproximabilité pour la DNF consistante minimale De plus, on n ’obtient rien d ’intéressant en replaçant l ’hypothèse de complexité par une hypothèse plus forte

  49. Application à l ’apprentissage Réductions « self-improving »

  50. Notre Solution • A) Faire des réductions directement « à l’intérieur » du problème d’apprentissage. d fois Réduction ordinaire A B B B B Problèmes

More Related