1 / 20

Sesión Especial basada en la funciones de la

M. Lozano, D. Molina, A.M. Sánchez, F. Herrera. Sesión Especial basada en la funciones de la Special Session on Real-Parameter Optimization at CEC-05, Edinburgh, UK, 2-5 Sept. 2005. 1.

basil
Download Presentation

Sesión Especial basada en la funciones de la

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. M. Lozano, D. Molina, A.M. Sánchez, F. Herrera Sesión Especial basada en la funciones de la Special Session on Real-Parameter Optimization at CEC-05, Edinburgh, UK, 2-5 Sept. 2005 1

  2. Sesion 1. MAEB para Problemas de Optimización Continua. I. Algoritmos Genéticos y Algoritmos Distribuidos (Miércoles 11-02-2009, 10:00 – 11:30) T1. Aprendizaje por reforzamiento aplicado al operador de cruce en algoritmos genéticos con codificación real (BLXRL, CIXL2RL, CIXL1RL, SBCRL) Domingo Ortiz, A. de Haro-García, R. del Castillo-Gomariz T2. Algoritmos Genéticos para Codificación Real con Operador de Cruce Híbrido con Múltiples Descendientes: 2BLX0.5-2FR0.5-2PNX3-2SBX0.01 (BFPS) A.M. Sánchez, M. Lozano, F. Herrera T3. Implementación de un algoritmo genético distribuido para optimización de problemas reales (GDGA) I.Robles, J.M. Benitez, M. Lozano, F. Herrera T4. Algoritmos Distribuidos Heterogéneos para problemas de Optimización Continua (GADEDIST) S. Muelas, J.M. Peña, A. La Torre y V. Robles 2

  3. Sesion 2 . MAEB para Problemas de Optimización Continua. II. Algoritmos Evolutivos (PSO, DE, DMO, AEF) (Miércoles 11-02-2009, 12:00 – 13:30) T5. Algoritmo Basado en Cúmulos de Partículas y Evolución Diferencial para la Resolución de Problemas de Optimización Continua (DEPSO) José García-Nieto, Javier Apolloni y Enrique Alba T6. Optimización basada en Mallas Dinámicas Su aplicación en la solución de problemas de optimización continuos (DMO) Amilkar Yudier Puri, Rafael Bello, T7. Comportamiento de un Algoritmo Evolutivo Flexible Para Problemas de Optimización continua (AEF) Silvia Alonso, Juan I. Jiménez, Himar Carmona, Blas Galván, Gabriel Winter, Begoña González T8. MOS como Herramienta para la Hibridación de Algoritmos Evolutivos (MOS1,2,3,4) La Torre, J. M. Peña, J. Fernández, y S. Muelas 3

  4. Sesion 3. MAEB para Problemas de Optimización Continua. III. Modelos Híbridos (Miércoles 11-02-2009, 15:00 – 16:30) T9. ACOR híbrido con múltiples colonias para problemas de optimización continua (ACOR, ACOR+SW, ACOR+SIMPLEX) C. Blum, P. Cardoso, F. Herrera T10. Adaptive Memory Programming for Global Optimization (STS) Abraham Duarte, Rafael Marti, Fred Glover T11. Algoritmo Memético Basado en Encadenamiento de Búsquedas Locales para Problemas de Optimización Continua (MALSChainCMAES) D. Molina, M. Lozano, F. Herrera Presentación de un análisis global de resultados: F. Herrera (5 Minutos) Debate: Nuevos retos en el desarrollo de modelos MAEB para optimización continua: (20 minutos) 4

  5. Análisis de Resultados – MAEB 2009 Debate: Nuevos retos en el desarrollo de modelos MAEB para optimización continua Nota: Herrera2000 es un antiguo nombre del algoritmo GDGA 5

  6. Análisis de Resultados Ranking medio asociado al test de No-paramétrico Friedman D10- f6-f25 D10- f15-f25 D30- f6-f25 D30- f15-f25 6

  7. Análisis de Resultados D10- f6-f25 D10- f15-f25 7

  8. Análisis de Resultados Ranking medio asociado al test de No-paramétrico Friedman D10- f6-f25 D10- f15-f25 D30- f6-f25 D30- f15-f25 8

  9. Análisis de Resultados D30- f6-f25 D30- f15-f25 9

  10. Análisis de Resultados 10 Tabla 3: Resultados, usando el test de Holm, de los algoritmos presentados respecto al mejor (STS), D10, f6-25

  11. Análisis de Resultados Identificación de los algoritmos con mejores resultados Dimensión 10 Para dimensión 10, el mejor algoritmo identificado es el STS, y los únicos algoritmos no catalogados como estadísticamente peores son el DEPSO, GADE-DIST y G-CMA-ES. Para determinar si el STS es la opción con mejor fitness aplicamos el test de Wilcoxon, que nos permite comparar dos algoritmos entre sí, con p=0.05. Tabla 7: Resultados, usando el test de Wilcoxon, de los algoritmos presentados respecto al mejor (STS), D10, f6-25 11

  12. Análisis de Resultados 12 Tabla 5: Resultados, usando el test de Holm, de los algoritmos presentados respecto al mejor (MA-LS-Chain-CMAES), D30, f6-25

  13. Análisis de Resultados Identificación de los algoritmos con mejores resultados Tabla: Resultados, usando el test de Wilcoxon, de los algoritmos presentados respecto al mejor (MA-LS-Chain-CMAES), D30, f6-25 13

  14. Análisis de Resultados Identificación de los algoritmos con mejores resultados Tabla 9: Resultados, usando el test de Wilcoxon, de comparar STS y MA-LS-Chain-CMAES, D30 14

  15. Análisis de Resultados Tabla 10: Resultados de STS y MA-LS-Chain-CMAES para dimensión 30 15

  16. Análisis de Resultados Análisis de Resultados – Bibliografía Demsar, J., Statistical comparisons of classifiers over multiple data sets. Journal of Machine Learning Research. Vol. 7. pp. 1–30. 2006. S. García, F. Herrera, An Extension on "Statistical Comparisons of Classifiers over Multiple Data Sets" for all Pairwise Comparisons. Journal of Machine Learning Research 9 (2008) 2677-2694. S. García, D. Molina, M. Lozano, F. Herrera, A Study on the Use of Non-Parametric Tests for Analyzing the Evolutionary Algorithms' Behaviour: A Case Study on the CEC'2005 Special Session on Real Parameter Optimization. Journal of Heuristics, doi: 10.1007/s10732-008-9080-4 in press (2009). 16

  17. Debate Nuevos retos en el desarrollo de modelos MAEB para optimización continua Tenemos muchos algoritmos. ¿Cuál es el siguiente paso? Estudios sobre eficiencia versus eficacia – Convergencia en funciones F1-F15 con un mínimo de evaluaciones. Estudios sobre funciones complejas: F14-F25. Escalabilidad de los algoritmos: Large Scale Optimization (100, 500, 1000 variables o más) Búsqueda Local versus Búsqueda Global: Hibridación 17

  18. Sesión Reciente Large Scale Global Optimization CEC2008 Special Session on Large Scale Global Optimization 2008 IEEE World Congress on Computational Intelligence (CEC@WCCI-2008) June 1 - 6, 2008, Hong Kong Reference: K. Tang, X. Yao, P. N. Suganthan, C. MacNish, Y. P. Chen, C. M. Chen, and Z. Yang, "Benchmark Functions for the CEC'2008 Special Session and Competition on Large Scale Global Optimizatio," Technical Report, Nature Inspired Computation and Applications Laboratory, USTC, China http://nical.ustc.edu.cn/cec08ss.php, 2007. 18

  19. 19

  20. 20

More Related