1 / 58

Otimização

Otimização. Otimização . Otimização e uma área ubíqua . Presente em processo de tomada de decisão Investimentos Eficiência de processos produtivos Custos, lucros, Materiais, etc …. Modelo. Modelagem : Funções objetivos (f(x)) Variáveis (x) Restrições (R)

lucas
Download Presentation

Otimização

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Otimização

  2. Otimização • Otimização e uma área ubíqua. • Presente em processo de tomada de decisão • Investimentos • Eficiência de processos produtivos • Custos, lucros, Materiais, etc…

  3. Modelo • Modelagem: • Funções objetivos (f(x)) • Variáveis (x) • Restrições (R) • Processo de otimização -> Solução • Programação matemática • Heurísticas • Meta- Heuristicas

  4. Metaheurísticas • Otimização Estocástica é uma classe de algoritmos e técnicas que utilizam algum grau de aleatoriedade para encontrar um ótimo (o mais perto do ótimo) para problemas difíceis. • Essentials ofMetaheuristics (Sean Luke)

  5. Metaheurísticas • Iterativamente melhorar um conjunto de soluções • Pouco conhecimento do problema • Precisa poder distinguir boas soluções • Geralmente encontra boas soluções possivelmente não o ótimo • Adaptáveis : parâmetros ajustáveis

  6. Quandoaplicar • Algoritmos usados em problemas nos quais existe pouca informação : • não se conhece a forma de uma solução ótima , • Não se sabe como encontrar ela • Uma exploração completa e impossível devido ao tamanho do espaço • Porem se você tem uma solução candidata , ela pode ser avaliada

  7. Otimização Baseada em Gradiente • Método matemático clássico

  8. Particle Swarm OptimizationEnxame de Paticulas

  9. A União faz a forca

  10. A União faz a forca

  11. Nuvem de PartículasPSO - Particle Swarm Optimization (1995) • Desenvolvida por James Kennedy (psicólogo) e Russell Eberhart (engenheiro), com base no comportamento de pássaros em revoadas modelado pelo biólogo Frank Heppner. • Inspirado no comportamento e na dinâmica dos movimentos dos pássaros, insetos e peixes; • Originalmente desenvolvido para problemas de otimização com variáveis contínuas; • Desempenho similar ao dos Algoritmos Genéticos;

  12. Osinventores Russell Eberhart eberhart@engr.iupui.edu

  13. Osinventores James Kennedy Kennedy_Jim@bls.gov

  14. Exemplo de Cooperação

  15. Inicialização: No inicio as partículas voam aleatoriamente.

  16. PSO • Elementos do algoritmo: • A : população de agentes. • xi: posição do agente ai no espaço de soluções. • f : função de avaliação. • vi: velocidade do agente ai. • V(ai) : conjunto fixo de vizinhos do agente ai. • Todos os agentes estão conectados, direta ou indiretamente

  17. Otimização Nuvem de Partículas • Vantagens • Insensível a mudança de escala das variáveis; • Implementação simples; • Adaptável a computadores paralelos; • Não requer cálculo de derivadas; • Poucos parâmetros para serem definidos pelo usuário; • Bom para encontrar o mínimo global; • Desvantagens • Rápido para localizar a bacia de atração das boas soluções, mas lento no ajuste fino da solução (como nos algoritmos genéticos).

  18. Baseia-se no comportamento social dos pássaros em revoadas, cardumes de peixes e enxames de abelhas • Algoritmicamente, tem-se um conjunto de partículas que percorrem o espaço de busca apresentando comportamentos aleatórios em relação à individualidade e à sociabilidade • A individualidade de uma partícula está relacionada à ênfase dada, em seus movimentos, à melhor solução já encontrada por ela mesma, enquanto sua sociabilidade reflete o grau de importância dado por ela à melhor solução já encontrada por seus vizinhos • O conceito de vizinhança em PSO não é o mesmo utilizado pelas meta-heurísticas de busca por entornos, pois cada partícula, associada a uma solução que evolui, é vizinha de um conjunto de partículas que nunca é alterado • A estrutura de vizinhanças é construída de forma que os progressos obtidos em cada região tenham influência, potencialmente, em todas as partículas

  19. Aplicações de PSO • Aplicações comuns: • Evolução de redes neurais artificiais • Extração de regras de RNAs • Escalonamento de tarefas (Multi-objective Job shop scheduling) • Roteamento de veículos (Capacitated Vehicle Routing) • Aplicação recente: • Bandwidth Minimization Problem - BMP (2003). • Algumas aplicações recentes (2004): • Caminho ótimo para operações de perfuração automatizadas. • Mineração de dados para tarefas de classificação. • Posicionamento de bases em computação móvel. • Aproximação poligonal ótima de curvas digitais.

  20. Imitando a natureza Separação: usada para evitar aglomerações de partículas Alinhamento: encaminhar a busca para a partícula “representante” do grupo Coesão: uma partícula movimenta-se na “média” dos seus vizinhos

  21. PSO é um método baseado em população, como o Algoritmo Genético • Entretanto, o conceito básico é cooperação em vez da rivalidade • Apesar da semelhança com AG, esta técnica não usa operadores genéticos (crossover, mutação, etc) • Uma partícula movimenta-se com velocidade • Usando a própria experiência • Além da experiência de todas as partículas • A idéia é similar ao bando de pássaros (ou cardume de peixes ou enxame de abelhas) procurando comida • Habilidade de troca de informações entre vizinhos • Habilidade de memorizar uma posição anterior • Habilidade de usar informações para tomada de decisões

  22. Notação

  23. Notação

  24. 1. Termo de inércia 2. Termo cognitivo 3. Termo de aprendizado social Atualização da velocidade Três termos definem uma nova velocidade para uma partícula: • Força a partícula a mover-se na mesma direção • Tendência para seguir a própria direção com a mesma velocidade • Melhora o indivíduo • Força a partícula a voltar a uma posição anterior que seja melhor do que a atual • Tendência conservativa • Força a partícula a seguir a direção de seus melhores vizinhos • Como em todo rebanho, mas seguindo os melhores

  25. comida: 10 comida: 8 comida: 5 Idéia básica: comportamento cognitivo Qual a melhor direção? Um indivíduo lembra do conhecimento passado

  26. pássaro 1 comida: 1 pássaro 2 comida: 3 pássaro 3 comida: 2 pássaro 4 comida: 4 Idéia básica: comportamento social Qual a melhor direção? Um indivíduo adquire conhecimento dos demais membros do grupo

  27. Atualização de velocidade e posição PSO tradicional – Eberhart, R. C. and Kennedy, J. (1995) Para cada agente ai : vi = wvi + η1.rand().(pbesti - xi) + η2.rand().(gbesti - xi) xi = xi + vi onde: pbesti é a melhor posição em que a partícula ai já esteve gbestié a melhor posição em que algum vizinho de ai já esteve. w é o peso de inércia aprendizado social inércia cognitivo

  28. Início Inicialize as partículas com posições aleatórias e velocidades nulas Calcular os valores fitness Compare os fitness com os melhores valores do indivíduo (pbest) e dos demais (gbest) O critério de parada está satisfeito? SIM Fim NÃO Atualize velocidades e posições

  29. Exemplo: 1ª Iteração Problema de minimização 2 3 1 • Inicialização as posições • Criando o vetor de velocidades melhor partícula outra partícula

  30. Exemplo: 2ª Iteração Problema de minimização 2 3 1 1 • Atualizando as posições • Modificando o vetor de velocidades melhor partícula outra partícula

  31. Termo de inércia

  32. Posição atual (x) Melhor posição do indivíduo (pbest) Melhor posição individual (pbest)

  33. Posição atual (x) Melhor posição do indivíduo (pbest) Melhor posição global (gbest) Melhor posição global (gbest)

  34. Melhoramentos e Variantes • Redução linear da ponderação de inércia; • Fator de constrição; • Modelos com Vizinhanças.

  35. Fator de Constrição • Fator de Constrição foi introduzido por Clerc e Kennedy (2002). • Tornou-se muito popular nos algoritmos recentes de nuvem de partícula.

  36. Modelos com Vizinhanças • A cada partícula é atribuído uma vizinhança; • As vizinhanças tornam mais lento a transmissão da melhor posição atráves da nuvem; • Converge mais lentamente, mas melhora a diversificação.

  37. Armadilhas da técnica PSO • As partículas tendem a se agrupar, ou seja, devido a uma convergência rápida demais, a solução fica presa em um ponto ótimo local • O movimento de alguma partícula pode ser levado a um ponto de solução infactível • As partículas poder mapear um espaço inapropriado de soluções factíveis

More Related