1 / 11

perceptron

perceptron. è la somma effettuata sul nodo i-esimo dello strato j. n è il numero di nodi dello strato j-1. è l'output proveniente dal nodo k-esimo dello strato j-1, che è anche uno degli input (pesati) del nodo i,j . è il peso attribuito alla connessione tra i nodi k,j-1 e i,j.

ryu
Download Presentation

perceptron

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. perceptron

  2. è la somma effettuata sul nodo i-esimo dello strato j nè il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello strato j-1, che è anche uno degli input (pesati) del nodo i,j è il peso attribuito alla connessione tra i nodi k,j-1 e i,j

  3. Addestramento della rete neurale Un insieme rappresentativo di casi conosciuti è il set di addestramento. Per un nodo di output i e per un membro p del set di addestramento, si ha un errore del segnale: dove o è l'output registrato e t è l'output desiderato (target). Si può valutare il comportamento complessivo della rete tramite la funzione di errore: dove la S è estesa a tutti i nodi dello strato di output. Si variano i pesi delle connessioni al fine di ridurre la funzione d'errore. Il procedimento è iterativo.

  4. Il procedimento più utilizzato è quello del gradiente (steepest descent): t indica il ciclo dell'iterazione hè il passo, spesso compreso tra 0.001 e 1 è l'output che si ha dal nodo i dello strato j quando viene sottoposto alla rete il membro p del set di addestramento. viene calcolato diversamente a seconda che il nodo [i,j] sia un nodo di output o faccia parte di uno strato intermedio: 1) nel caso si tratti di nodo di output (j è lo strato di output): 2) nel caso si tratti di nodo intermedio (j è uno strato intermedio): dove la S è estesa a tutti i nodi dello strato j+1 se si utilizza la funzione logistica:

  5. è il peso tra il nodo i dello strato j e il nodo k dello strato j+1 Esempio, per una connessione particolare, di modifica dei pesi riguardanti lo strato di output: dove p è l'indice di un elemento dell'insieme di addestramento. Modifica dei pesi riguardanti lo strato di output, in generale:

  6. Per la modifica dei pesi riguardanti lo strato interno a contatto con lo stato di output, cambia la valutazione del d: I d così calcolati saranno utilizzati per il calcolo delle variazioni dei pesi per lo strato m-2 e così via in un processo di back propagation.

  7. L'addestramento può essere fatto con un membro alla volta del set di addestramento, scelto a caso (metodo stocastico), oppure contemporaneamente su tutto il set ad ogni ciclo (metodo standard, più efficace). In tal caso va sostituito con: dove la S è estesa a tutti i membri del set e I è il loro numero complessivo. Si può partire con una scelta casuale dei valori iniziali dei pesi Il procedimento di addestramento richiede spesso giorni di calcolo. Il metodo del gradiente può avere come risultato un minimo locale e non il minimo assoluto.

  8. Caratteristiche delle reti neurali • Hanno una propria logica non connessa alla natura del problema, da cui consegue una vasta • applicabilità • Sono in grado di interpolare e non di estrapolare rispetto al campo di valori delle variabili • presenti nel set di addestramento • Hanno una struttura parallela che consente il calcolo su processori o computer in parallelo, • con una riduzione notevole del tempo di calcolo • Mostrano tolleranza ai danneggiamenti, per cui un danno limitato a uno o pochi perceptron, • induce generalmente una riduzione nell’attendibilità e non una perdita completa di • operatività Applicazioni delle reti neurali in campo chimico • Interpretazione automatica di spettri complessi • Previsione della struttura secondaria delle proteine globulari • Valutazione di indicatori QSAR (quantitative structure-activityrelationship)

More Related