330 likes | 453 Views
UPE – Caruaru – Sistemas de Informação Disciplina: Redes Neurais Prof.: Paulemir G. Campos. Aprendizado em Redes Neurais (Parte 2). Roteiro da Aula. Algoritmos de Aprendizado; Referências. Algoritmos de Aprendizado em RNA. Introdução. Algoritmos de Aprendizado
E N D
UPE – Caruaru – Sistemas de InformaçãoDisciplina: Redes NeuraisProf.: Paulemir G. Campos Aprendizado em Redes Neurais (Parte 2) RN - Prof. Paulemir Campos
Roteiro da Aula • Algoritmos de Aprendizado; • Referências. RN - Prof. Paulemir Campos
Algoritmos de Aprendizado em RNA RN - Prof. Paulemir Campos
Introdução • Algoritmos de Aprendizado • Aprendizado por Correção de Erro; • Aprendizado Hebbiano; • Aprendizado Competitivo; • Aprendizado de Boltzmann. RN - Prof. Paulemir Campos
Aprendizado porCorreção de Erro • Regra Delta (Widrow e Hoff, 1960) • Erro: ek(t) = dk(t) – yk(t) • Minimizar função de custo baseada em ek(t) RN - Prof. Paulemir Campos
Aprendizado porCorreção de Erro • Função de custo • C(t) = -1/2Σ(ek(t))2 • Minimização de c(t) utiliza método de gradiente descendente; • Aprendizado atinge solução estável quando os pesos não precisam mudar muito. RN - Prof. Paulemir Campos
Aprendizado porCorreção de Erro • Após seleção da função de custo, aprendizado torna-se um problema de otimização • RNA é otimizada pela minimização de c(t) com respeito aos pesos da rede. • Modelo matemático • Δwik(t) = ηek(t)xi(t) RN - Prof. Paulemir Campos
Aprendizado porCorreção de Erro • Superfície de erro: superfície multi-dimensional representando gráfico da função de custo versus peso • Unidades lineares: superfície é uma função quadrática dos pesos (mínimo global único) • Unidades não-lineares: superfície tem mínimos locais e mínimo global RN - Prof. Paulemir Campos
Aprendizado porCorreção de Erro • Superfície de erro: superfície multi-dimensional representando gráfico da função de custo versus peso (Continuação) • Iniciando de um ponto qualquer da superfície mover em direção a um mínimo global. RN - Prof. Paulemir Campos
Aprendizado porCorreção de Erro • Taxa de aprendizado (η) • 0 < η ≤ 1 • Taxas pequenas • Taxas grandes • Taxas variáveis • Média das entradas anteriores • Estimativas estáveis de pesos • Aprendizado lento • Aprendizado rápido • Captação de mudanças no processo • Instabilidade RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Regra mais antiga e famosa (Hebb, 1949) • Dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser fortalecida RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Regra modificada (Sinapse Hebbiana) • Se dois neurônios em lados diferentes de uma sinapse são ativados sincronamente, então a força da sinapse entre eles deve ser aumentada; • Se dois neurônios em lados diferentes de uma sinapse são ativados assincronamente, então a força da sinapse entre eles deve ser reduzida. RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Sinapse anti-Hebbiana • Enfraquecimento de sinapses com atividades pré e pós-sinápticas correlacionadas e reforço em caso contrário. • Sinapse não Hebbiana • Não envolve mecanismos Hebbianos. RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Propriedades da sinapse Hebbiana • Dependência do tempo: • Mudanças dependem do tempo de ocorrência dos sinais pré e pós-sinápticos; • Localidade: • Informações localmente disponíveis são usadas para produzir modificações sinápticas; RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Propriedades da sinapse Hebbiana (Continuação) • Interatividade: • Modificações sinápticas têm que considerar sinais dos dois lados da sinapse; • Correlação entre sinais pré e pós-sinápticos: • A ocorrência simultânea entre tais sinais é suficiente para modificar a força sináptica. RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Depressão sináptica: enfraquecimento de uma sinapse com o passar do tempo • Atividades nas membranas pré e pós-sinápticas não correlacionadas ou negativamente correlacionadas; • Ausência de atividades coincidentes entre as membranas pré e pós-sinápticas. RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Modelos matemáticos • Um peso sináptico wik(t) entre as unidades de processamento xi e yk é ajustado no tempo t usando a seguinte expressão Δwik(t) = f(xi(t),yk(t)) onde f(.,.) é a função dos sinais pré e pós-sinápticos. RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Modelos matemáticos (continuação) • Hipótese de Hebb: Regra do produto de atividades Δwik(t) = η xi(t) yk(t) onde η é a taxa de aprendizado. RN - Prof. Paulemir Campos
Aprendizado Hebbiano • Modelos matemáticos (continuação) • Hipótese da Covariância: Regra que considera a diferença dos sinais pré e pós-sinápticos de suas médias (xiM e ykM) Δwik(t) = η (xi(t) – xiM) (yk(t) – ykM) onde η é a taxa de aprendizado. RN - Prof. Paulemir Campos
Aprendizado Competitivo • A idéia é, dado um padrão de entrada, fazer com que as unidades de saída disputem entre si para serem ativadas. RN - Prof. Paulemir Campos
Aprendizado Competitivo • Ou seja, neurônios competem entre si para serem ativados • Apenas um neurônio ou grupo de neurônios vizinhos torna-se ativo. • Adequado para descobrir características estatisticamente salientes • Podem agrupar conjuntos de entradas RN - Prof. Paulemir Campos
Aprendizado Competitivo • Elementos básicos • Conjunto de neurônios iguais (exceto por alguns pesos randomicamente distribuídos) • Limite imposto na força de cada neurônio RN - Prof. Paulemir Campos
Aprendizado Competitivo • Elementos básicos (continuação) • Mecanismo que permita neurônios competirem pelo direito de responder a um dado subconjunto de entradas (winner-takes-all) • Neurônios individuais especializam-se em conjuntos de padrões semelhantes. RN - Prof. Paulemir Campos
Aprendizado Competitivo • Algoritmo mais simples • Uma camada de neurônios completamente ligada à entrada por conexões excitatórias; • Conexões laterais inibitórias entre neurônios na camada de processamento • Normalização dos pesos excitatórios de i: Σ(wik(t))2 = 1 RN - Prof. Paulemir Campos
Aprendizado Competitivo • Algoritmo mais simples (continuação) • Ativação da vencedora onde vi é o campo local induzido para todo i diferente de k. O vencedor inibe as outras unidades. • Modelo matemático (nodo vencedor) Δwik(t) = η (xi(t) + wik(t)) RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Algoritmo de aprendizagem estocástico cuja concepção foi inspirada na mecânica estatística. RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Deu origem ao modelo de rede neural máquina de Boltzmann • Estrutura recorrente com dois estados de ativação: 1 ou -1; • Função de energia: E=-1/2ΣΣwijxixj (i≠j) RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Deu origem ao modelo de rede neural máquina de Boltzmann (continuação) • Mudança de estado: onde P é a probabilidade de mudança de estado de um neurônio xj, ΔEj é a mudança de energia resultante e T é a pseudo temperatura. RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Operação do Algoritmo de Boltzmann • Escolhe-se um neurônio xj aleatoriamente; • Muda-se seu estado de ativação de xj(t) para –xj(t) com probabilidade P a uma pseudo temperatura T até rede atingir o equilíbrio térmico. RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Tipos de neurônios • Visíveis; • Escondidos. RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Modos de operação • Ativação mantida • Estado de ativação das unidades visíveis são mantidos constantes nos valores determinados pelo ambiente • Ativação livre • Todas as unidades têm estado de ativação livre. RN - Prof. Paulemir Campos
Aprendizado de Boltzmann • Modelo matemático • Δwik(t) = η(ρmik - ρlik), com i ≠ k onde ρmik e ρlik são as correlações dos neurônios i e k na condição de ativação mantida e livre, respectivamente. • As correlações consideram todos os estados possíveis para o equilíbrio térmico. RN - Prof. Paulemir Campos
Referências • Braga, A. P.; Ludermir, T. B. e Carvalho, A. C. P. L. F. Redes Neurais Artificiais: Teoria e Aplicações. Editora LTC, 2000. • Notas de aulas da Profa. Teresa B. Ludermir e do Prof. Aluízio Araújo, ambos do CIn/UFPE. RN - Prof. Paulemir Campos