1 / 66

Introduction à l'Apprentissage Artificiel

Introduction à l'Apprentissage Artificiel. Laurent Orseau AgroParisTech laurent.orseau@agroparistech.fr EFREI 2010-2011 A partir des transparents d'Antoine Cornuéjols. Plan Général. Introduction à l'Induction (Laurent Orseau) Réseaux de Neurones Séparatrices à Vastes Marges

asis
Download Presentation

Introduction à l'Apprentissage Artificiel

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Introduction à l'Apprentissage Artificiel Laurent Orseau AgroParisTech laurent.orseau@agroparistech.fr EFREI 2010-2011 A partir des transparents d'Antoine Cornuéjols

  2. Plan Général • Introduction à l'Induction (Laurent Orseau) • Réseaux de Neurones • Séparatrices à Vastes Marges • Arbres de Décision • Introduction au Data-Mining (Christine Martin) • Règles d'Association • Clustering • Algorithmes Génétiques

  3. Plan • Introduction à l'Induction • Exemples d'applications • Types d'apprentissage • Apprentissage Supervisé • Apprentissage par Renforcement • Apprentissage Non-supervisé • Théorie de l'Apprentissage (Artificiel) • Quelles questions se pose-t-on ?

  4. Introduction

  5. Introduction Qu'est ce que l'apprentissage ? • Mémoire • Acquisition de connaissance • Neurosciences • A court terme (de travail) • rétention de 7±2 objets à la fois(exemple du joueur d'échec professionnel, plateau aléatoire, plateau structuré) • A long terme • Mémoire procédurale • les enchaînements d'actions • Mémoire déclarative • sémantique (concepts) • épisodique (faits) • Types d'apprentissage • Par coeur • Par règles • Par imitation / démonstration • Par essais-erreurs • Réutilisation de la connaissance • Dans des situations similaires

  6. Introduction Qu'est-ce que l'Apprentissage Artificiel ? • "Donner la capacité aux machines d'apprendre sans les programmer explicitement" Arthur Samuel, 1959 Samuel's Checkers > Schaeffer 2007 (résolution) + TD-Gammon, Tesauro 1992

  7. Introduction Qu'est-ce que l'Apprentissage Artificiel ? Etant donné : • de l'expérience E, • une classe de tâchesT • une mesure de performanceP, On dit d'un ordinateur qu'il apprend si sa performance sur une tâche de T mesurée par P augmente avec l'expérience E Tom Mitchell, 1997

  8. Introduction Termes associés à l'Apprentissage Artificiel • Robotique • Automatic Google Cars, Nao • Prédiction / prévision • Bourse, pics de pollution, … • Reconnaissance • faciale, parole, écriture, mouvements, … • Optimisation • vitesse du métro, voyageur de commerce, • Régulation • Chauffage, trafic, température du frigo, … • Autonomie • Robots, prothèses de main • Résolution automatique de problèmes • Adaptation • préférences utilisateur, Robot sur terrain accidenté, … • Induction • Généralisation • Découverte automatique • …

  9. Quelques applications

  10. Applications Apprendre à cuisiner • Apprentissage par imitation / démonstration • Apprentissage procédural (précision motrice) • Reconnaissance d'objets

  11. Applications DARPA Grand challenge (2005)

  12. Applications > DARPA Grand Challenge 200km de désert Dangers naturels et artificiels Sans conducteur Sans télécommande

  13. Applications > DARPA Grand Challenge 5 Finalistes

  14. Applications > DARPA Grand Challenge Reconnaissance de la route

  15. “Face Recognition: Component-based versus Global Approaches” (B. Heisele, P. Ho, J. Wu and T. Poggio), Computer Vision and Image Understanding, Vol. 91, No. 1/2, 6-21, 2003. Applications Apprendre à étiqueter des images:Reconnaissance de visages

  16. Applications > Reconnaissance d'images Combinaisons de composantes

  17. Applications Prothèse de main • Reconnaissance des signaux pronateurs et supinateurs • capteurs imparfaits • bruit des signaux • incertitude

  18. Applications Robot autonome sur Mars

  19. 1. 1- Des scénarios Apprendre par coeur ? INEXPLOITABLE • Généraliser Comment coder les formes ? Apprentissage supervisé

  20. Introduction à la théorie del'Apprentissage Artificiel

  21. Introduction à la théorie de l'apprentissage • Apprentissage supervisé • Apprentissage par renforcement • Apprentissage non-supervisé (CM) • Algorithmes Génétiques (CM)

  22. Apprentissage supervisé • Ensemble d'exemples xiétiquetés ui • Trouver une hypothèse h tq: h(xi) = ui ? h(xi) : étiquette prédite • Meilleure hypothèse h* ?

  23. Apprentissage supervisé Apprentissage Supervisé : 1er Exemple • Maisons : Prix / m² • Recherche de h • Plus proches voisins ? • Régression linéaire, polynomiale ? • Plus d'information • localisation (x, y ? ou variable symbolique ?), age du batiment, voisinage, piscine, impots locaux, évolution temporelle ?

  24. Apprentissage Supervisé Problème Prédiction du prix du m² pour une maison donnée. • Modélisation • Collecte des données • Apprentissage • Validation (dans 3) ??) • Utilisation en cas réel Idéal Pratique

  25. Apprentissage Supervisé 1) Modélisation • Espace d'entrée • Quelles sont les informations pertinentes ? • Variables • Espace de sortie • Que cherche-t-on à prédire ? • Espace des hypothèses • Entrées –(calcul) Sorties • Quel (genre de) calcul?

  26. Apprentissage Supervisé > 1) Modélisation 1-a) Espace d'entrée : Variables • Quelles sont les informations pertinentes ? • Doit-on récupérer tout ce qu'on peut ? • Qualité des informations ? • Bruit • Quantité • Coût de la collecte d'une information ? • Economique • Temps • Risque (invasif ?) • Ethique • Droit (CNIL) • Domaine de définition de chaque variable ? • Symbolique, numérique borné, non bornée, etc.

  27. Apprentissage Supervisé > 1) Modélisation > a) Variables Prix au m² : Variables • Localisation • Continu : (x, y) longitude latitude ? • Symbolique : nom de la ville ? • Age du bâtiment • Années • relatif au présent ou année de création ? • Nature du terrain • Piscine ?

  28. Apprentissage Supervisé > 1) Modélisation 1-b) Espace de sortie • Que veut-on en sortie ? • Classes symboliques ? (classification) • Booléennes Oui/Non (apprentissage de concept) • Multi-valuées A/B/C/D/… • Valeur numérique ? (régression) • [0 ; 1] ? • [-∞ ; +∞] ? • Combien de sorties ? • Multi-valué  Multi-classe ? • 1 sortie pour chaque classe • Apprendre un modèle pour chaque sortie ? • Plus "libre" • Apprendre un modèle pour toutes les sorties ? • Chaque "modèle" peut utiliser des informations des autres

  29. Apprentissage Supervisé > 1) Modélisation 1-c) Espace des hypothèses • Phase cruciale • Dépend de la méthode d'apprentissage utilisée ! • Régression linéaire : espace = ax + b • Régression polynomiale • nombre de paramètres = degré du polynôme • Réseaux de neurones, SVM, Algo Gen, … • …

  30. Choix de l'espace des hypothèses

  31. Apprentissage Supervisé > 1) Modélisation > c) Espace des hypothèses Choix de l'espace des hypothèses • Espace trop "pauvre"  Solutions inadaptées • Ex: modéliser sin(x) avec une seule droite y=ax+b • Espace trop "riche"  risque de sur-apprentissage • Ex: cf. tableau • Défini par ensemble de paramètres • Plus grand nb param  app. plus difficile • Préférer cependant un espace plus riche ! • Utilisation de méthodes génériques • Ajouter de la régularisation

  32. Apprentissage Supervisé 2) Collecte des données • Collecte • Capteurs électroniques • Par simulation • Sondages • Récupération automatique sur internet • … • Obtenir la plus grande quantité d'exemples • Coût de la collecte • Obtenir les données les plus "pures" possibles • éviter tout bruit • bruit dans les variables • bruit dans les étiquettes ! • Un exemple = 1 valeur pour chacune des variables • valeurs manquantes = exemple inutilisable ?

  33. Apprentissage Supervisé > 2) Collecte des données Données collectées Sortie / Classe / Etiquette mesurée Entrées / Variables Mais véritable étiquette y inaccessible !

  34. Apprentissage Supervisé > 2) Collecte des données Prétraitements des données • Nettoyer les données • ex: Réduire le bruit de fond • Transformer les données • Format final adapté à la tâche • Ex: Transformée de Fourier d'un signal audiotemps/amplitude  fréquence/amplitude

  35. Apprentissage Supervisé 3) Apprentissage • Choix des paramètres du programme • Choix du critère inductif • Lancement du programme d'apprentissage • Test des performances Si mauvais, retour en a)…

  36. Apprentissage Supervisé > 3) Apprentissage a) Choix des paramètres du programme • Temps max de calcul alloué • Erreur maximale acceptée • Paramètres d'apprentissage • Spécifiques au modèle • Introduction de connaissance • Initialiser les paramètres à des valeurs correctes ? • …

  37. ò ( ) R ( h ) = l h ( x ), y dP ( x , y ) ´ X Y Apprentissage Supervisé > 3) Apprentissage b) Choix du critère inductif Objectif : trouver une hypothèse hH minimisant le risque réel(espérance de risque, erreur en généralisation) Loi de probabilité jointe sur XY Fonction de perte Étiquette prédite Étiquette vraie y (ou désirée u)

  38. ò ( ) R ( h ) = l h ( x ), y dP ( x , y ) ´ X Y Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif Risque réel • Objectif : Minimiser le risque réel • On ne connaît pas le risque réel, en particulier pas la loi de probabilité P(X,Y). • Discrimination • Régression

  39. Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif Minimisation du risque empirique • Le principe ERM (minimisation du risque empirique) prescrit de chercher l’hypothèsehH minimisant le risque empirique • Plus faible erreur sur l'ensemble d'apprentissage

  40. "Erreur" Courbe d'apprentissage Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif > Risque empirique Courbe d'apprentissage • La quantité de données d'apprentissage est importante ! Taille échantillon d'apprentissage

  41. Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif > Risque empirique Test / Validation • Mesurer le sur-apprentissage • GENERALISATION • la connaissance acquise est-elle utilisable dans des circonstances nouvelles? • Ne pas valider sur l'ensemble d'apprentissage ! • Validation sur ensemble de test supplémentaire • Validation Croisée • utile quand peu de données • leave-p-out

  42. Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif > Risque empirique Sur-apprentissage

  43. Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif > Risque empirique Régularisation • Limiter le sur-apprentissage avant de le mesurer sur le test • Ajout d'une pénalisation dans le critère inductif • Ex: • Pénaliser l'utilisation de grands nombres • Pénaliser l'utilisation de ressources • …

  44. Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif Maximum a posteriori • Approche bayésienne • On suppose qu’il existe une distribution de probabilités a priori sur l’espace H : pH(h) Principe du Maximum A Posteriori(MAP): • On cherche l’hypothèse h la plus probable après observation des données S • Ex: Observation de la couleur des moutons • h = "Un mouton est blanc"

  45. Apprentissage Supervisé > 3) Apprentissage > b) Critère inductif Principe de Description de Longueur Minimale • Rasoir d'Occam "Les hypothèses les plus simples sont les meilleures" • Simplicité : taille de h  Compression maximale • Maximum a posteriori avec pH(h) = 2-d(h) • d(h) : longueur en bits de l'hypothèse h • Compression  généralisation

  46. Apprentissage Supervisé > 3) Apprentissage c) Moulinette • Recherche de h • Utilise les exemples d'un ensemble d'apprentissage • Un par un • Tous ensemble • Minimiser le critère inductif

  47. Apprentissage Supervisé > 3) Apprentissage > c) Moulinette Découverte des paramètres du modèle • Explorer l'espace des hypothèses H • Quelle meilleure hypothèse selon le critère inductif ? • Dépend fondamentalement de H • Exploration Structurée • Exploration Locale • Pas d'exploration

  48. Apprentissage Supervisé > 3) Apprentissage > c) Moulinette > Exploration de H Exploration structurée • Structuré par une relation de généralité (ordre partiel) • Espace des versions • PLI (Programmation Logique Inductive) • EBL, reformulation en général et révision de théorie • Inférence grammaticale • Enumération de programmes

  49. Apprentissage Supervisé > 3) Apprentissage > c) Moulinette > Exploration de H Représentation de l'espace des versions Observation fondamentale : L'espace des versions structuré par une relation d'ordre partiel peut être représenté par : • sa borne supérieure : le G-set • sa borne inférieure : le S-set • G-set = Ensemble de toutes les hypothèses les plus générales cohérentes avec les exemples connus • S-set = Ensemble de toutes les hypothèses les plus spécifiques cohérentes avec les exemples connus

  50. Apprentissage Supervisé > 3-c) > Exploration de H > Espace des versions Apprentissage… … par mise à jour de l'espace des versions Idée : maintenir le S-set et le G-set après chaque nouvel exemple Algorithme d'élimination des candidats • Exemple des rectangles (au tableau…)

More Related