1 / 54

Optimización basada en cúmulo (enjambre) de partículas

Optimización basada en cúmulo (enjambre) de partículas. Hugo Jair Escalante. Seminario de optimización multi -objetivo. Tonantzintla , Puebla. Noviembre 23, 2012. Contenido. Introducción Heurísticas inspiradas en metáforas Comentario al margen

ilori
Download Presentation

Optimización basada en cúmulo (enjambre) de partículas

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Optimización basada en cúmulo (enjambre) de partículas Hugo Jair Escalante Seminario de optimización multi-objetivo Tonantzintla, Puebla Noviembre 23, 2012

  2. Contenido • Introducción • Heurísticas inspiradas en metáforas • Comentario al margen • PSO: Optimización basada en cúmulo de partículas • Relevancia/presencia de PSO • Algoritmo base • Parámetros de PSO • PSO Multi-objetivo • Comentarios finales

  3. Heuristics!, Patient rules of thumb, so often scorned: Sloppy! Dumb! Yet, slowly, common sense become. [Judea Pearl 1984]

  4. Optimización heurística • Métodos exactos:Proporcionan el óptimo pero suelen ser muy costosos • Métodos heurísticos:Son rápidos pero no garantizan encontrar el óptimo • Métodos heurísticos son adecuados para abordar problemas: • Complejos, que son difíciles de resolver con métodos tradicionales/exactos • Donde la función objetivo no es derivable • Donde la función objetivo es no convexa, presenta muchos mínimos locales o esta dominada por valles En lo posible, siempre es preferible usar métodos exactos

  5. Heurísticas inspiradas en metáforas

  6. Heurísticas inspiradas en metáforas • Métodos de optimización heurística inspirados en metáforas son muy comunes hoy en día (e.g., GA, SA, ACO, PSO, TS, GRASP, SS) • Cada día se publican artículos con mejoras a heurísticas establecidas, o bien, nuevas heurísticas para optimización • Este tipo de métodos ha contribuido de manera importante al área de optimización

  7. Heurísticas inspiradas en metáforas • Métodos de optimización heurística inspirados en metáforas son muy comunes hoy en día (e.g., GA, SA, ACO, PSO, TS, GRASP, SS) • Cada día se publican artículos con mejoras a heurísticas establecidas, o bien, nuevas heurísticas para optimización • Este tipo de métodos ha contribuido de manera importante al área de optimización

  8. Heurísticas “novedosas” • Desde hace algún tiempo, nuevas heurísticas se proponen con base en procesos que a primera vista tienen muy poco que ver con optimización • No se toma en cuenta en tipo de problema que se aborda, su estructura o la forma en que un humano inteligente resolvería el problema • Aunque de algunas estás técnicas han obtenido resultados aceptables y han avanzado el estado del arte en optimización, existen muchas otras heurísticas “novedosas” que podrían representar un retroceso para el área de optimización heurística (SIN GENERALIZAR) K. Sorensen. Metaheuristics – TheMethaporExposed. 2012 (Draft, tutorial - Euro2012)

  9. Heurísticas inspiradas en metáforas • Nuevos métodos toman a otros procesos como analogía: • A new fruitflyoptimizationalgorithm • Shuffledfrogleapingalgorithm • Thereincarnationalgorithm • Intelligentwaterdrop • Flyalgorithm • Batalgorithm • Bees & honey-beematingalgorithms • Harmonysearch • ….. Este es el problema

  10. Theimperialistcompetitivealgorithm http://en.wikipedia.org/wiki/Metaheuristics Atashpaz-Gargari, E.; Lucas, C (2007). "ImperialistCompetitiveAlgorithm: Analgorithmforoptimizationinspiredbyimperialisticcompetition". IEEE CongressonEvolutionaryComputation. 7. pp. 4661–4666

  11. Thereincarnationalgorithm A. Sharma, A new optimizing algorithm using reincarnation concept. 11th International Symposium on Computational Intelligence and Informatics (CINTI), pp. 281--288, IEEE, 2010

  12. Thereincarnationalgorithm A. Sharma, A new optimizing algorithm using reincarnation concept. 11th International Symposium on Computational Intelligence and Informatics (CINTI), pp. 281--288, IEEE, 2010

  13. Heurísticas inspiradas en metáforas • Algunas heurísticas “novedosas”: • son refritos de otros métodos; • se basan en metáforas “raras”; • no se siguen los principios de la metáfora adoptada; • no se realiza una experimentación seria. • Lo raro es que siempre presentan mejores resultados que otras alternativas y eventualmente se publican K. Sorensen. Metaheuristics – TheMethaporExposed. Submitted, 2012 (Keynote Euro2012)

  14. Heurísticas “novedosas” (mejoradas) • Las mejoras a heurísticas usualmente son del tipo: • HC + CA para X • Se reportan resultados en algunas instancias (sin análisis de significancia) y se mejoran resultados obtenidos por otros métodos (muy básicos o ad-hoc) • SIN GENERALIZAR • Donde: • HC: heurística conocida • CA: Mecanismo exitoso en otras heurísticas • X: problema específico K. Sorensen. Metaheuristics – TheMethaporExposed. 2012 (Draft, tutorial - Euro2012)

  15. Consejos para un buen diseño de heurísticas K. Sorensen. Metaheuristics – TheMethaporExposed. 2012 (Draft, tutorial - Euro2012)

  16. Consejos para un buen diseño de heurísticas K. Sorensen. Metaheuristics – TheMethaporExposed. 2012 (Draft, tutorial - Euro2012)

  17. Consejos para un buen diseño de heurísticas K. Sorensen. Metaheuristics – TheMethaporExposed. 2012 (Draft, tutorial - Euro2012)

  18. ParticleSwarmOptimization

  19. Presencia de PSO Algunos números: • PSO fue introducido en 1995 por J. Kennedy (sociología) & R. Eberhart (cómputo) ~3000 citas en 2012 J. Kennedy, R. Eberhart. Particleswarmoptimization. Proceedings., IEEE International Conferenceon Neural Networks, pp. 1942--1948, IEEE, 1995.

  20. Presencia de PSO Algunos números: Distribución de publicaciones (ISI web of knowledge) en cuanto a diversas meta-heurísticas Número de publicaciones sobre PSO ente 2001-2011 M. Eslami. A survey of thestate of the art in particleswarmoptimization. ResearchJournal of AppliedSciencesEngineering and Technology, 4(9):1181—1197, 2012

  21. PSO: Optimización basada en cúmulos de partículas A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.

  22. PSO: Optimización basada en cúmulos de partículas • Método de optimización heurística inspirado en el comportamiento de sociedades biológicas, donde los individuos comparten objetivos y presentan tanto comportamientos individuales como sociales • Parvadas de aves • Bancos de peces • Enjambres de abejas

  23. PSO: Optimización basada en cúmulos de partículas • Método de optimización heurística inspirado en el comportamiento de sociedades biológicas, donde los individuos comparten objetivosy presentan tanto comportamientos individuales como sociales • Parvadas de aves • Bancos de peces • Enjambres de abejas

  24. PSO: Optimización basada en cúmulos de partículas • Las partículas son atraídas hacia la comida • Cada partícula recuerda su posición más cercana con respecto a la comida • Las partículas comparten información con partículas vecinas sobre cuál ha sido su posición más cercana a la comida

  25. PSO: la analogía • Las partículas están asociadas a las soluciones del problema a abordar • La distancia entre la comida y cada partícula se representa por la función que se desea optimizar • El cúmulo de partículas es la población de soluciones que explorará el espacio de búsqueda • Las soluciones se representan por las posiciones de las partículas en el espacio de búsqueda Idea: Las soluciones tienen una posición en el espacio de búsqueda (el óptimo tiene una posición también). El objetivo es que las soluciones exploren el espacio de búsqueda para llegar al óptimo del problema. No se sabe donde está el óptimo pero se sabe que tan lejos esta cada solución del óptimo. * Asumiendo que existe un óptimo y que es único.

  26. PSO: la analogía ¿Es PSO un método de cómputo evolutivo? No*: la población inicial se mantiene durante todo el proceso de optimización

  27. PSO: el algoritmo • En cada instante de tiempo t, cada individuo i tiene una posición (xit) en el espacio de búsqueda así como una velocidad asociada (vit) • El tamaño de xit= vit= d, las dimensiones del problema a abordar • Al inicio PSO solo trabajaba en espacios continuos, hay extensiones que permiten trabajar en problemas de combinatoria o incluso mixtos Discrete PSO, binary PSO, Geometric PSO

  28. PSO: el algoritmo • El algoritmo es un proceso iterativo en cada instante de tiempo cada partícula: • Sabe cuál ha sido su mejor posición con respecto al objetivo (personal-best) • Sabe cuál ha sido la mejor posición de sus vecinos (global-best)

  29. PSO: el algoritmo • Las partículas actualizan su posición en el espacio de búsqueda de acuerdo a: Inercia Info. local Info. global

  30. PSO: el algoritmo • Inicializar aleatoriamente la población de individuos (swarm) • Repetir el siguiente proceso iterativo hasta que un criterio de parada se cumpla: • Evaluar la aptitud de cada partícula • Determinar las soluciones personal-best(pi), para cada partícula, y global-best(pg) • Actualizar la posición y la velocidad de las partículas • Regresa la partícula mejor evaluada Fitness value ... ... Init t=1 t=2 t=max_it

  31. PSO en acción Función: Rosenbrock Brian Birge’s PSO demo formatlab

  32. PSO en acción Función: Rastrigin Brian Birge’s PSO demo formatlab

  33. PSO en acción Función: Ackley Brian Birge’s PSO demo formatlab

  34. Parámetros de PSO • Los principales parámetros de PSO son: φ0, φ1, φ2 el tipo de vecindario, número de soluciones, criterio de parada Inercia Info. local Info. global

  35. Parámetros de PSO • Los principales parámetros de PSO son: φ0, φ1, φ2 el tipo de vecindario, número de soluciones, criterio de parada

  36. PSMS sin influencia local • c1=0; c2=2 Hugo Jair Escalante, Manuel montes, Enrique Sucar. ParticleSwarmModelSelection. JMLR, Vol. 10, pp. 405—440, 2009

  37. PSMS sin influencia global • c1=2; c2=0 Hugo Jair Escalante, Manuel montes, Enrique Sucar. ParticleSwarmModelSelection. JMLR, Vol. 10, pp. 405—440, 2009

  38. PSMS igual influencia local y global • c1=2; c2=2 Hugo Jair Escalante, Manuel montes, Enrique Sucar. ParticleSwarmModelSelection. JMLR, Vol. 10, pp. 405—440, 2009

  39. Parámetros de PSO • Si hacemos • con • Valores de garantizan la convergencia* de PSO * Note that in PSO we say that the swarm converges iff limt→inf pgt= p, where p is an arbitrary position in the search space and t indexes iterations of PSO. Since p refers to an arbitrary position, this definition does not mean either convergence to local or global optimum, but convergence to the global best position in the swarm (van den Bergh, 2001; Reyes and Coello, 2006; Engelbrecht, 2006). F. van den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, University of Pretoria, Sudafrica, November 2001.

  40. Parámetros de PSO • Sobre la inercia: • Uno de los métodos más usados es un peso de inercia adaptativo • Se fija al inicio φ0 = wstart, y este valor es disminuido linealmente durante k-iteraciones hasta un valor φ0 = wend • Valores grandes de φ0 permiten moverse en pasos más grandes mientras que valores pequeños de φ0 permiten explorar intensivamente ciertas zonas

  41. Parámetros de PSO • Vecindario: El esquema más usado es el esquema totalmente conectado, aunque hay diversas variantes

  42. Más allá de PSO • Extensiones: • Existe un gran número de variantes de PSO (muchas del tipo Frankenstein) • Desde hace algún tiempo se han propuesto métodos híbridos • Aplicaciones: • La primera aplicación de PSO fue en el entrenamiento de redes neuronales (optimización de los pesos) • Hoy en día PSO se ha aplicado en infinidad de problemas

  43. PSO: Optimización basada en cúmulos de partículas A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.

  44. MOPSO: Versión multi-objetivo A. Rosales. Optimización Multi-Objetivo. Seminario de Optimización Multi-objetivo, 2012.

  45. MOPSO: Versión multi-objetivo • Frente de Pareto:

  46. MOPSO: Versión multi-objetivo • Cuando se intenta resolver un problema de MOOP se tienen, en general, tres objetivos: • Maximizar el número de elementos en el FP • Minimizar la distancia del FP producido por el método de MOOP con respecto al FP real • Maximizar la dispersión de soluciones encontradas

  47. MOPSO: Versión multi-objetivo • De acuerdo a lo anterior, PSO debe ser modificado tomando en cuenta lo siguiente: • Cómo seleccionar partículas lideres dando preferencia a soluciones no-dominadas • Cómo retener soluciones no-dominadas encontradas durante el proceso de búsqueda de manera que se reporten soluciones no-dominadas con respecto a todas las soluciones anteriores, es deseable que dichas soluciones se posicionen dispersamente en el FP • Cómo mantener diversidad en la población a fin de evitar convergencia hacia una única solución

  48. MOPSO: el algoritmo • En cada instante de tiempo t, cada individuo i tiene una posición (xit) en el espacio de búsqueda así como una velocidad asociada (vit) • El tamaño de xit= vit= d, las dimensiones del problema a abordar

  49. MOPSO: el algoritmo • Las partículas actualizan su posición en el espacio de búsqueda de acuerdo a: Entonces, ¿qué cambia? Inercia Info. local Info. global

  50. MOPSO: Versión multi-objetivo PSO Margarita Reyes-sierra , Carlos A. CoelloCoello . Multi-Objective particle swarm optimizers: A survey of the state-of-the-art, INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE RESEARCH, 2006 MOPSO

More Related