1 / 22

Reti Neurali Ricorrenti

Reti Neurali Ricorrenti. TLFN focused. RETI NEURALI RICORRENTI. RR-1. Elaborazione di informazione temporale. TLFN focused. Semplice addestramento. La memoria è portata dentro la rete. TLFN distribuite. Sono presenti connessioni ricorrenti tra neuroni diversi. Reti ricorrenti. m. 1.

makana
Download Presentation

Reti Neurali Ricorrenti

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Reti Neurali Ricorrenti

  2. TLFN focused RETI NEURALI RICORRENTI RR-1 Elaborazione di informazione temporale • TLFN focused Semplice addestramento La memoria è portata dentro la rete • TLFN distribuite Sono presenti connessioni ricorrenti tra neuroni diversi • Reti ricorrenti

  3. m 1 Context Input SEMPLICI TOPOLOGIE RICORRENTI RR-2 Le TLFN focused sono mappatori universali MA potrebbe essere necessaria una memoria di dimensione enorme ELMAN JORDAN 1 m Context Input • Parametri di feedback fissi • Non c’e ricorrenza I/O (gli output dello strato Context sono come input esterni controllati dalla rete

  4. y(n) x(n) m2 Z-1 + m1 RR-3 ADATTARE IL PARAMETRO DI FEEDBACK m1 controlla la profondità della memoria Adattare m1 per minimizzare l’MSE (m1 =1-m) L’effetto di una variazione di m2si ripercuote solo sul campione corrente L’effetto di una variazione di m1dura per sempre BP statica La BP statica calcola i gradienti per ogni topologia ordinata, secondo una lista di dipendenze topologica che NON considera la dipendenza temporale tra le variabili.

  5. y(n) x(n) m2 Z-1 + m1 RR-4 Effetto della ricorsione: L’effetto di un cambiamento di m1dura persempre

  6. RR-5 CRITERIO DI ERRORE Learning di traiettorie Criterio di performance in un intervallo di tempo (T campioni) (analogo al batch mode) Learning di un punto fisso Criterio di performance istantaneo

  7. RR-6 SVOLGERE UNA RETE RICORRENTE NEL TEMPO Rete ricorrente Rete feedforward con coefficienti ripetuti BP statica Mappaggio tempo-spazio Ad ogni istante viene creata una porzione della rete svolta e viene posta in cascata con la porzione precedente. La rete opera per un tempo finito T campioni = T+1 porzioni

  8. y1(n) y2(n) x(n) Z-1 + m1 y2(0)=0 w1 + w1 y1(0)=0 + Esempio RR-7 y1(0)=0 y2(0)=f(w1y1(0))

  9. y2(T) y2(1) w1 w1 w1 y1(T) y1(1) + + + m x(T) m x(1) RR-8 y2(0) y2(1) w1 y1(1) y1(0)=0 + m x(1) • Rete feedforward • T+1 input • T+1 output

  10. RR-9 Lista della dipendenze L = m,w1, y1(0) , y2(0), y1(1) , y2(1), …, y1(T), y2(T) • pesi • variabili di stato ordinate secondo la topologia Ora si può applicare la BackPropagation

  11. RR-10 BACKPROPAGATION THROUGH TIME (BPTT) Variabile di stato yh(k) In questo caso h=1,2; k=0,…T Compare il tempo e l’informazione topologica t> n dipendenze delle variabili a destra della variabile considerataj>1 nella lista ordinata d contributo diretto alla derivata Gli altricontributi alla derivata sono indiretti (attraverso la topologia)

  12. RR-11 Derivando rispetto ai pesi w = (w1,m) Sommatoria estesa a tutti gli istanti e a tutti gli stati

  13. Osservazioni RR-12 t> n Il calcolo del gradiente è ANTICIPATORIO Un sistema anticipatorio risponde prima che l’input sia applicato; NON E’ FISICAMENTE REALIZZABILE Un sistema anticipatorio è IMPLEMENTABILE in sistemi digitali con memoria. VANTAGGIO Nel calcolo del gradiente compaiono solo dipendenze DIRETTE di yj(t) da yi(n)

  14. RR-13 CALCOLO DEL GRADIENTE Dipendenze dirette Nel tempo e nella topologia

  15. RR-14

  16. RR-14 BackpropagationThrough Time la lista ordinata è invertita non solo nella topologia ma anche nel tempo • Non è locale nel tempo: compare piu’ di un indice temporale nel gradiente • Ha un alto costo computazionale • Ha un’elevata occupazione di memoria • E’ necessaria • se il segnale desiderato è noto solo alla fine della sequenza di learning • se sono presenti feedback.

  17. RR-15 REAL TIME RECURRENT LEARNING (RTRL) Dalla regola a catena applicata alla funzione costo la regola a catena otteniamo: sia: Calcolando il gradiente ad ogni time-step:

  18. RR-15 Il RTRL è locale nel tempo consente IMPLEMENTAZIONE ON LINE Il RTRL non è locale nello spazio compaiono le derivate rispetto a tutti i pesi

  19. w1 + RR-16 y1(n) y2(n) x(n) Z-1 + m1 y2(n)=f( w1m y1(n-1)+w1x(n) ) 1 uscita w1 , ,m 2 pesi f’<1

  20. RR- Rete costituita da N neuroni totalmente connessi; T campioni N2 pesi N3 gradienti a campione O(N) operazioni/gradiente O(N4) operazioni a campione O(TN4) operazioni O(N3) variabili da immagazzinare E’ applicabile solo a reti piccole

  21. RETI RICORRENTI I modelli dinamici visti finora si generalizzano con le reti ricorrenti completamente interconnesse. Una possibile regola per implementare queste reti è quella di attribuire un ritardo a tutte le connessioni in retroazione

  22. RETI DI HOPFIELD Non c'è addestramento! Attratori della funzione energia

More Related