1 / 20

Recherche et optimisation

Recherche et optimisation. Introduction - terminologie. Les éléments constitutifs d’une tâche à optimiser. Fonction objective (FO) (à minimiser) (Exemple: minimiser C = dtL * coût/unité de poids ) Contraintes (Exemple: t  0.005 m)

donagh
Download Presentation

Recherche et optimisation

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Recherche et optimisation Introduction - terminologie

  2. Les éléments constitutifs d’une tâche à optimiser • Fonction objective (FO) (à minimiser) • (Exemple: minimiser C = dtL * coût/unité de poids ) • Contraintes (Exemple: t  0.005 m) • Formules d’accompagnement (Exemple:  = Q/dt ) • Concepts de l’optimisation: • Faisabilité (Feasibility) (pas de domaine possible) • Frontière de domaine (Boundedness) (les contraintes délimitent les domaines possibles) • Activité des contraintes (Constraint activity) (si une contrainte influence la location de l’optimum, elle est considérée comme « active »

  3. Méthodes analytiques Méthode du gradient Méthode « Branch and Bound » Programmation linéaire (méthode du simplex) Méthodes déterministes Méthodes numériques (informatiques) Programmation non-linéaire Etc. Les algorithmes génétiques (GA) Méthodes non-déterministes (stochastiques) La simulation recuite (SA) L’algorithme du PGSL Etc. Les différentes méthodes pour la recherche d’optima Rem: Les méthodes numériques sont à proscrire si des méthodes analytiques peuvent être utilisées dans la tâche à optimiser

  4. Les champs d’application de certaines méthodes de recherche

  5. La méthode du gradient pour l’optimisation F(x) F( x) xx0 0 O0 x x • Marche à suivre • Commencement à un point initial (x0) • Evaluation de la condition d’optimisation. C’est la fonction objective F(x) • Identification de la direction d’amélioration (dk = +1 or -1) en utilisant les gradients. (*) • Prendre un pas (xk+1= xk + kdk) dans la nouvelle direction qui minimise la fonction objective (F(x)). La valeur pour k est déterminée suffisament petite de façon à ce que la convergence soit assurée. (**) • Détermination d’une stratégie pour éviter les phénomènes perturbateurs (oscillations, divergence) (*): Ceci est une façon de déterminer dk . dk peut être aussi pris comme étant égal au gradient (Cf exercice) (**): Il existe différentes variations de la méthode du gradient: Exemple : k peut varier en fonction du gradient (Plus le gradient est élevé (en valeur absolu), plus k est petit. Ceci étant fait dans l’optique d’avoir une convergence assurée.

  6. L’optimisation multi-critère • Approche par: • Facteurs de poids : F(x) = w1 f1(x) + w2 f2(x) • Fonctions de valeurs • Prise en compte du critère le plus important et traitement des autres critères comme contraintes • L’optimisation de Pareto • Pas de facteurs de poids • Méthode de filtration • Surface de Pareto

  7. Les méthodes stochastiques méthodes utilisées lorsque: • La fonction objective possède une multitude de minima (ou maxima) • La topologie de l’espace de solution est compliquée exemples de méthodes stochastiques: • La simulation recuite (Simulated Annealing) • Les algorithmes génétiques (Genetic algorithms) • L’algorithme du PGSL (Probabilistic Global Search Lausanne) • - développé à l’EPFL par Dr. Benny Raphael (2000)

  8. L’algorithme du PGSL caractéristiques de la méthode • technique de recherche basée sur les probabilités (courbes PDF). • L’algorithme est basé sur les 4 cycles suivants: • 1°. L’échantillonage (Sampling) • 2°. La mise à jour des probabilités (Probability updating) • 3°. La focalisation (focusing) • 4°. La focalisation en sous-domaine (sub-domain focusing)

  9. L’algorithme du PGSL Input Output La meilleure solution parmi toutes les itérations

  10. L’algorithme du PGSL:exemple fonction de Griewank Exemple: la fonction de Griewank à une dimension

  11. L’algorithme du PGSL:exemple fonction de Griewank Les inputs (exemple) REM: les paramètres de l’algorithme sont à définir par l’utilisateur. Dans cet exemple, il y a au total 2*2*2*2 = 16 itérations ou évaluations

  12. L’algorithme du PGSL:exemple fonction de Griewank • La densité de probabilité (PDF) pour le 1er sous-domaine • Probability density (prob./width) for Probability Updating Cycle 1, Focusing Cycle 1, Sub Domain Cycle 1 • cycle d’échantillonage (2 itérations) L’évaluation 1 (intervalle 11) offre le meilleur résultat (1.66). La probabilité de l’intervalle 11 est augmentée de 20% et la courbe est normalisée. (aire = 1)

  13. L’algorithme du PGSL:exemple fonction de Griewank • La mise à jour des probabilités • Probability density (prob./width) for Probability Updating Cycle 2, Focusing Cycle 1, Sub Domain Cycle 1 • cycle d’échantillonage (2 itérations) L’évaluation 3 (intervalle 11) offre le meilleur résultat (0.26). Le cycle de focalisation se fait autour de l’intervalle 11.

  14. L’algorithme du PGSL:exemple fonction de Griewank • La focalisation (focusing cycle) • Probability density (prob./width) for Probability Updating Cycle 1, Focusing Cycle 2, Sub Domain Cycle 1 • Principe: • le meilleur intervalle est subdivisé en 4 intervalles réguliers • 50 % de l’aire de la PDF est répartie dans le meilleur intervalle • le 50 % restant est répartie proportiellement (selon le nombre d’intervalles) de part et d’autre du meilleur intervalle (aire à droite et aire à gauche) • L’intervalle qui se situe juste à droite du meilleur intervalle reçoit la moitié de l’aire à droite, le deuxième intervalle reçoit le quart de l’aire et ainsi de suite. (idem pour les intervalles situés à gauche)

  15. L’algorithme du PGSL:exemple fonction de Griewank • cycle d’échantillonage (2 itérations) L’évaluation 5 offre le meilleur résultat (1.99). C’est l’intervalle 10 qui va se voir augmenter l’aire de son intervalle de 20%.

  16. L’algorithme du PGSL:exemple fonction de Griewank • La mise à jour des probabilités • Probability density (prob./width) for Probability Updating Cycle 2, Focusing Cycle 2, Sub Domain Cycle 1

  17. L’algorithme du PGSL:exemple fonction de Griewank • cycle d’échantillonage (2 itérations) L’évaluation 8 offre certes le meilleur résultat (1.72) de ce cycle, mais c’est l’évaluation 3 qui reste la meilleure. Pour entrer dans le deuxième sous-domaine, on considère la meilleure évaluation (n°3). • La densité de probabilité pour le deuxième sous-domaine • Probability density (prob./width) for Probability Updating Cycle 1, Focusing Cycle 1, Sub Domain Cycle 2 La valeur x=7 a fourni le meilleur résultat. La PDF pour le deuxième sous-domaine est centrée autour de x=7 et les valeurs min. et max. correspondent à 0.7 fois la largeur de l’intervalle de départ (=100)

  18. L’algorithme du PGSL:exemple fonction de Griewank • La procédure se répète pour le deuxième sous-domaine de la même manière que pour le premier sous-domaine. (de façon à avoir les 16 évaluations)

  19. Remarques exercices série 5 • Les fichiers sources (fichier zip) pour l’utilisation de l’algorithme du PGSL se trouvent sous: http://imacpc21.epfl.ch:8080/IF • Enregistrez le fichier PGSLexample.zip dans un répertoire de votre disque (Exemple:c/Temp/Dupont) • Cliquez 2 fois sur ce fichier zip et appuyez ensuite sur « extract ». On vous demande l’endroit où vous voulez placer le contenu. (laissez le dans le même répertoire: Exemple c/Temp/Dupont )

  20. Contenu du fichier PGSLexample.zip pour l’utilisation de l’algorithme du PGSL

More Related