1 / 33

UPE – Caruaru – Sistemas de Informação Disciplina: Redes Neurais Prof.: Paulemir G. Campos

UPE – Caruaru – Sistemas de Informação Disciplina: Redes Neurais Prof.: Paulemir G. Campos. Aprendizado em Redes Neurais (Parte 2). Roteiro da Aula. Algoritmos de Aprendizado; Referências. Algoritmos de Aprendizado em RNA. Introdução. Algoritmos de Aprendizado

Download Presentation

UPE – Caruaru – Sistemas de Informação Disciplina: Redes Neurais Prof.: Paulemir G. Campos

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. UPE – Caruaru – Sistemas de InformaçãoDisciplina: Redes NeuraisProf.: Paulemir G. Campos Aprendizado em Redes Neurais (Parte 2) RN - Prof. Paulemir Campos

  2. Roteiro da Aula • Algoritmos de Aprendizado; • Referências. RN - Prof. Paulemir Campos

  3. Algoritmos de Aprendizado em RNA RN - Prof. Paulemir Campos

  4. Introdução • Algoritmos de Aprendizado • Aprendizado por Correção de Erro; • Aprendizado Hebbiano; • Aprendizado Competitivo; • Aprendizado de Boltzmann. RN - Prof. Paulemir Campos

  5. Aprendizado porCorreção de Erro • Regra Delta (Widrow e Hoff, 1960) • Erro: ek(t) = dk(t) – yk(t) • Minimizar função de custo baseada em ek(t) RN - Prof. Paulemir Campos

  6. Aprendizado porCorreção de Erro • Função de custo • C(t) = -1/2Σ(ek(t))2 • Minimização de c(t) utiliza método de gradiente descendente; • Aprendizado atinge solução estável quando os pesos não precisam mudar muito. RN - Prof. Paulemir Campos

  7. Aprendizado porCorreção de Erro • Após seleção da função de custo, aprendizado torna-se um problema de otimização • RNA é otimizada pela minimização de c(t) com respeito aos pesos da rede. • Modelo matemático • Δwik(t) = ηek(t)xi(t) RN - Prof. Paulemir Campos

  8. Aprendizado porCorreção de Erro • Superfície de erro: superfície multi-dimensional representando gráfico da função de custo versus peso • Unidades lineares: superfície é uma função quadrática dos pesos (mínimo global único) • Unidades não-lineares: superfície tem mínimos locais e mínimo global RN - Prof. Paulemir Campos

  9. Aprendizado porCorreção de Erro • Superfície de erro: superfície multi-dimensional representando gráfico da função de custo versus peso (Continuação) • Iniciando de um ponto qualquer da superfície mover em direção a um mínimo global. RN - Prof. Paulemir Campos

  10. Aprendizado porCorreção de Erro • Taxa de aprendizado (η) • 0 < η ≤ 1 • Taxas pequenas • Taxas grandes • Taxas variáveis • Média das entradas anteriores • Estimativas estáveis de pesos • Aprendizado lento • Aprendizado rápido • Captação de mudanças no processo • Instabilidade RN - Prof. Paulemir Campos

  11. Aprendizado Hebbiano • Regra mais antiga e famosa (Hebb, 1949) • Dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser fortalecida RN - Prof. Paulemir Campos

  12. Aprendizado Hebbiano • Regra modificada (Sinapse Hebbiana) • Se dois neurônios em lados diferentes de uma sinapse são ativados sincronamente, então a força da sinapse entre eles deve ser aumentada; • Se dois neurônios em lados diferentes de uma sinapse são ativados assincronamente, então a força da sinapse entre eles deve ser reduzida. RN - Prof. Paulemir Campos

  13. Aprendizado Hebbiano • Sinapse anti-Hebbiana • Enfraquecimento de sinapses com atividades pré e pós-sinápticas correlacionadas e reforço em caso contrário. • Sinapse não Hebbiana • Não envolve mecanismos Hebbianos. RN - Prof. Paulemir Campos

  14. Aprendizado Hebbiano • Propriedades da sinapse Hebbiana • Dependência do tempo: • Mudanças dependem do tempo de ocorrência dos sinais pré e pós-sinápticos; • Localidade: • Informações localmente disponíveis são usadas para produzir modificações sinápticas; RN - Prof. Paulemir Campos

  15. Aprendizado Hebbiano • Propriedades da sinapse Hebbiana (Continuação) • Interatividade: • Modificações sinápticas têm que considerar sinais dos dois lados da sinapse; • Correlação entre sinais pré e pós-sinápticos: • A ocorrência simultânea entre tais sinais é suficiente para modificar a força sináptica. RN - Prof. Paulemir Campos

  16. Aprendizado Hebbiano • Depressão sináptica: enfraquecimento de uma sinapse com o passar do tempo • Atividades nas membranas pré e pós-sinápticas não correlacionadas ou negativamente correlacionadas; • Ausência de atividades coincidentes entre as membranas pré e pós-sinápticas. RN - Prof. Paulemir Campos

  17. Aprendizado Hebbiano • Modelos matemáticos • Um peso sináptico wik(t) entre as unidades de processamento xi e yk é ajustado no tempo t usando a seguinte expressão Δwik(t) = f(xi(t),yk(t)) onde f(.,.) é a função dos sinais pré e pós-sinápticos. RN - Prof. Paulemir Campos

  18. Aprendizado Hebbiano • Modelos matemáticos (continuação) • Hipótese de Hebb: Regra do produto de atividades Δwik(t) = η xi(t) yk(t) onde η é a taxa de aprendizado. RN - Prof. Paulemir Campos

  19. Aprendizado Hebbiano • Modelos matemáticos (continuação) • Hipótese da Covariância: Regra que considera a diferença dos sinais pré e pós-sinápticos de suas médias (xiM e ykM) Δwik(t) = η (xi(t) – xiM) (yk(t) – ykM) onde η é a taxa de aprendizado. RN - Prof. Paulemir Campos

  20. Aprendizado Competitivo • A idéia é, dado um padrão de entrada, fazer com que as unidades de saída disputem entre si para serem ativadas. RN - Prof. Paulemir Campos

  21. Aprendizado Competitivo • Ou seja, neurônios competem entre si para serem ativados • Apenas um neurônio ou grupo de neurônios vizinhos torna-se ativo. • Adequado para descobrir características estatisticamente salientes • Podem agrupar conjuntos de entradas RN - Prof. Paulemir Campos

  22. Aprendizado Competitivo • Elementos básicos • Conjunto de neurônios iguais (exceto por alguns pesos randomicamente distribuídos) • Limite imposto na força de cada neurônio RN - Prof. Paulemir Campos

  23. Aprendizado Competitivo • Elementos básicos (continuação) • Mecanismo que permita neurônios competirem pelo direito de responder a um dado subconjunto de entradas (winner-takes-all) • Neurônios individuais especializam-se em conjuntos de padrões semelhantes. RN - Prof. Paulemir Campos

  24. Aprendizado Competitivo • Algoritmo mais simples • Uma camada de neurônios completamente ligada à entrada por conexões excitatórias; • Conexões laterais inibitórias entre neurônios na camada de processamento • Normalização dos pesos excitatórios de i: Σ(wik(t))2 = 1 RN - Prof. Paulemir Campos

  25. Aprendizado Competitivo • Algoritmo mais simples (continuação) • Ativação da vencedora onde vi é o campo local induzido para todo i diferente de k. O vencedor inibe as outras unidades. • Modelo matemático (nodo vencedor) Δwik(t) = η (xi(t) + wik(t)) RN - Prof. Paulemir Campos

  26. Aprendizado de Boltzmann • Algoritmo de aprendizagem estocástico cuja concepção foi inspirada na mecânica estatística. RN - Prof. Paulemir Campos

  27. Aprendizado de Boltzmann • Deu origem ao modelo de rede neural máquina de Boltzmann • Estrutura recorrente com dois estados de ativação: 1 ou -1; • Função de energia: E=-1/2ΣΣwijxixj (i≠j) RN - Prof. Paulemir Campos

  28. Aprendizado de Boltzmann • Deu origem ao modelo de rede neural máquina de Boltzmann (continuação) • Mudança de estado: onde P é a probabilidade de mudança de estado de um neurônio xj, ΔEj é a mudança de energia resultante e T é a pseudo temperatura. RN - Prof. Paulemir Campos

  29. Aprendizado de Boltzmann • Operação do Algoritmo de Boltzmann • Escolhe-se um neurônio xj aleatoriamente; • Muda-se seu estado de ativação de xj(t) para –xj(t) com probabilidade P a uma pseudo temperatura T até rede atingir o equilíbrio térmico. RN - Prof. Paulemir Campos

  30. Aprendizado de Boltzmann • Tipos de neurônios • Visíveis; • Escondidos. RN - Prof. Paulemir Campos

  31. Aprendizado de Boltzmann • Modos de operação • Ativação mantida • Estado de ativação das unidades visíveis são mantidos constantes nos valores determinados pelo ambiente • Ativação livre • Todas as unidades têm estado de ativação livre. RN - Prof. Paulemir Campos

  32. Aprendizado de Boltzmann • Modelo matemático • Δwik(t) = η(ρmik - ρlik), com i ≠ k onde ρmik e ρlik são as correlações dos neurônios i e k na condição de ativação mantida e livre, respectivamente. • As correlações consideram todos os estados possíveis para o equilíbrio térmico. RN - Prof. Paulemir Campos

  33. Referências • Braga, A. P.; Ludermir, T. B. e Carvalho, A. C. P. L. F. Redes Neurais Artificiais: Teoria e Aplicações. Editora LTC, 2000. • Notas de aulas da Profa. Teresa B. Ludermir e do Prof. Aluízio Araújo, ambos do CIn/UFPE. RN - Prof. Paulemir Campos

More Related