1 / 16

5. Algorithme à estimation de distribution

5. Algorithme à estimation de distribution. KHODJA Mohamed. 5. Algorithme à estimation de distribution. 5.1 Définition. Les algorithmes à estimation de distribution forment une famille de métaheuristiques inspirée des algorithmes génétiques .

bandele
Download Presentation

5. Algorithme à estimation de distribution

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 5. Algorithme à estimation de distribution KHODJA Mohamed

  2. 5. Algorithme à estimation de distribution 5.1 Définition • Les algorithmes à estimation de distribution forment une famille de métaheuristiques inspirée des algorithmes génétiques. • À l'inverse des algorithmes évolutionnaires "classiques", le cœur de la méthode consiste à estimer les relations entre les différentes variables d'un problème d'optimisation, grâce à l'estimation d'une distribution de probabilité, associée à chaque point de l'échantillon.

  3. 5. Algorithme à estimation de distribution 5.1 Définition • Le vocabulaire lié aux algorithmes à estimation de distribution est emprunté à celui des algorithmes évolutionnaires, on parlera donc de « population d'individus » plutôt que d'« échantillon de points », ou de « fitness » plutôt que de « fonction objectif », néanmoins, tous ces termes ont la même signification.

  4. 5. Algorithme à estimation de distribution 5.2 Algorithme • Afin d’optimiser la fonction objectif , par l’AED on applique l’algorithme suivant : • Tirer au hasard M individus, pour former une population D0. • i = 0 • Tant qu'un critère d'arrêt n'est pas vérifié : • i = i + 1 • Sélectionner N individus (avec N < M) dans la population précédente (Di − 1), pour former la population : • Estimer une distribution de probabilité , décrivant la répartition de la population . • Tirer au hasard M individus dans . • Fin de la boucle.

  5. 5. Algorithme à estimation de distribution 5.2 Algorithme • Avec: • P : la population. • PS : les points sélectionné • PDe : Distribution de PS. • PDu : Distribution de P. Dans cet exemple, on optimise une fonction objectif continue f(X), ayant un seul optimum O. Au fur et à mesure du déroulement de l'algorithme, l'échantillonnage (suivant une loi normale N) se concentre autour de l'optimum.

  6. 5. Algorithme à estimation de distribution 5.3 Exemple « one max » • Dans le problème du « one max », on cherche à maximiser le nombre de 1 sur un nombre de dimensions donné. • Pour un problème à 3 dimensions, une solution aura donc une meilleure qualité qu'une solution • On cherche donc à maximiser une fonction , où peut prendre la valeur 0 ou 1. • Etape 1: • Tirer au hasard les individus, avec pour chaque variable, une chance sur deux de tirer un 1 ou un 0. • Avec : et est la probabilité que chaque élément soit égal à 1

  7. 5. Algorithme à estimation de distribution 5.3 Exemple « one max » • Population de 6 individus • la dernière ligne indique la probabilité pour chaque variable • Etape 2: • la sélection des meilleurs individus, pour former Dans notre exemple, il s'agit simplement de ne garder que les 3 meilleurs individus.

  8. 5. Algorithme à estimation de distribution 5.3 Exemple « one max » • Population de 6 individus • la dernière ligne indique la probabilité pour chaque variable • Etape 2: • la sélection des meilleurs individus, pour former Dans notre exemple, il s'agit simplement de ne garder que les 3 meilleurs individus.

  9. 5. Algorithme à estimation de distribution 5.3 Exemple « one max » • Les trois paramètres () caractérisant la distribution de probabilité ( ) ont changé après la sélection. • En utilisant cette nouvelle distribution, on peut tirer une nouvelle population.

  10. 5. Algorithme à estimation de distribution 5.3 Exemple « one max » • On obtient la nouvelle population : • Et ainsi de suite jusqu'à vérifier un critère d'arrêt (par exemple quand tous les individus sont à l'optimum, comme l'individu 1 ).

  11. 5. Algorithme à estimation de distribution 5.4 Comportement • Le graphique représente les distributions des valeurs des optimums trouvés (sur un grand nombre d'exécutions) : l'algorithme passe d'une population de solution très dispersée (A) à une population plus centrée sur l'optimum trouvé (B).

  12. 5. Algorithme à estimation de distribution 5.4 Comportement • Il a été démontré (généralement à l'aide de modèles de Markov ou de systèmes dynamiques) que la plupart des versions pour l'optimisation combinatoire sont convergentes (c’est-à-dire qu'elles peuvent trouver l'optimum en un temps fini).

  13. 5. Algorithme à estimation de distribution 5.5 Modèles de distributions • Le comportement des algorithmes à estimation de distribution repose en grande partie sur le choix du modèle de distribution utilisé pour décrire l'état de la population. • Les modèles sont classifiés en fonction de leur degré de prise en compte des dépendances entre les variables : • Modèles sans dépendances, • Modèles avec dépendances bi-variantes, • Modèles avec dépendances multi-variantes. • Dans le cas des modèles sans dépendances, la distribution de probabilité est construite à partir d'un ensemble de distributions définies sur une seule variable. Dis autrement, la distribution est factorisée à partir de distributions univariantes, indépendantes sur chaque variable.

  14. 5. Algorithme à estimation de distribution 5.6 Variantes • Les variantes les plus connues de l'estimation de distribution sont : • l'apprentissage incrémental à population (« Population BasedIncremental Learning », PBIL) • l'algorithme à distribution marginale univariée (« Univariate Marginal Distribution Algorithm », UMDA) • l'algorithme génétique compact (« Compact GeneticAlgorithm », CGA).

  15. 5. Algorithme à estimation de distribution 5.6 Variantes • Il existe également des variantes utilisant des mécanismes de partitionnement de données pour l'optimisation multimodale, des adaptations au calcul parallèle, etc. • De par la place centrale du côté probabiliste, l'estimation de distribution partage de nombreux points communs avec les stratégies d'évolution, une des premières métaheuristiques proposées, et les algorithmes de colonie de fourmis. Mais on peut également pointer les similarités avec le recuit simulé (qui utilise la fonction objectif comme distribution de probabilité pour construire un échantillon) et les algorithmes génétiques, dont les algorithmes à estimation de distribution sont issues, et dont ils utilisent toujours les opérateurs de sélection.

  16. 5. Algorithme à estimation de distribution 5.7 Bibliographie • fr.wikipedia.org • Métaheuristiques d'optimisation vues sous l'angle de l'échantillonnage de distribution - Johann Dré, Patrick Siarry

More Related