html5-img
1 / 82

Modulo 3: Reti neurali - naturali ed artificiali

09/04/2012. 2. Sintesi della lezione. Neuroni, sinapsi, cervelloReti neuronali artificialiMcCullough

michel
Download Presentation

Modulo 3: Reti neurali - naturali ed artificiali

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


    1. 10/04/2012 1 Modulo 3: Reti neurali - naturali ed artificiali

    2. 10/04/2012 2 Sintesi della lezione Neuroni, sinapsi, cervello Reti neuronali artificiali McCullough & Pitts Il perceptrone Limiti del Perceptrone Hopfield Back-Propagation Reti senza supervisione Lezioni e limiti delle reti neurali

    3. 10/04/2012 3 Origini filosofiche dell’intelligenza artificiale Origini filosofiche del cognitivismo L’uomo come animale razionale (aristotele) La razionalità come applicazione della logica Cartesio La formalizzazione della logica Russell/Wittgenstein Logica come manipolazione formale di simboli Il sistema MIU La macchina di Turing come computer universale

    4. 10/04/2012 4 Problem Solving Regole di produzione Creazione di una lista di possibili scenari/strategie Rappresentazione simbolica delle singole strategie Valutazione delle singole strategie Scelta della strategia migliore

    5. 10/04/2012 5 Conseguenze dell’approccio razionalistico Intelligenza come manipolazione di rappresentazioni linguistiche del mondo esterno Intelligenza come sistema di elaborazione delle informazioni Intelligenza “senza cervello” Intelligenza senza storia (senza evoluzione) Intelligenza “senza corpo” Intelligenza asociale

    6. 10/04/2012 6 Un’ipotesi alternativa Intelligenza come sistema, biologicamente evoluto per vivere nel mondo Ruolo fondamentale del cervello dell’evoluzione biologica del corpo dei “desideri del corpo” delle interazioni fra corpo e ambiente La logica/le lingue umane come prodotti recenti di meccanismi più generali condivisi da altri organismi

    7. 10/04/2012 7 Livelli di descrizione del cervello Le singole molecole e i loro ricettori Funzionamento elettro-chimico del singolo neurone/singola sinapsi Funzionamento di piccoli reti di neuroni Funzionamento di singoli sistemi percettivi ad es. i primi stadi della visione Macro-funzionamento del cervello

    8. 10/04/2012 8 Fonti di conoscenza sul cervello Fisiologia Anatomia Genetica Neurologia Registrazione dell’attività di: “Brain imaging” Psicologia Simulazione

    9. 10/04/2012 9 Il neurone Tutti i sistemi nervosi animali sono costituiti da neuroni Fondamentalmente simili in tutti gli animali Nematode c. 600 Essere umano c. 10.000.000.000.000 (10 12) Forma del neurone Dendriti Soma Assona

    10. 10/04/2012 10 Il neurone - funzione Riceve input da altri neuroni sui dendriti Genera impulsi che vengono trasmessi lungo l’assone Molto lento rispetto a componenti elettronici Comportamento influenzato da ormoni/neurotrasmettitori Modifica della soglia per la generazione di un impulso

    11. 10/04/2012 11 Codifica dell’informazione da parte del neurone Non è pienamente capito 50 anni fa si pensava che il neurone fosse un dispositivo binario accesso/spento Ma oggi sappiamo che: Una parte dell’informazione trasmessa dal neurone dipende dalla frequenza degli impulsi Il neurone genera impulsi anche quando sta a riposo Sotto stimolo aumenta/riduce la frequenza degli impulsi Intervallo fra un impulso e il prossimo come portatore di informazione?

    12. 10/04/2012 12 La sinapsi Spazio fra terminazione di un assone e i dendriti di un altro neurone Trasmissione di informazione Unidirezionale Trasmissione elettrica Trasmissione con neuro-trasmettitori Sinapsi eccitanti Sinapsi inibitorie Nel cervello umano circa 1015

    13. 10/04/2012 13 Ruolo della sinapsi nella memoria Legge di Hebb Modifica della capacità di trasmissione dell’informazione A breve termine (reversibile) A lungo termine (LTP) Collegato a processi di apprendimento Blocco farmacologico del LTP blocca l’apprendimento Creazione/distruzione di sinapsi Nel corso dell’ontogenesi Elasticità cerebrale

    14. 10/04/2012 14 Reti neuronali (naturali) Connettività estremamente ricca alcuni neuroni ricevono input da pià di 10.000 altri neuroni Connessioni prevalentemente a breve distanza Alcune connessioni a lunga distanza

    15. 10/04/2012 15 Piccolo mondo Ogni neurone è connesso ad ogni altro con relativamente pochi passi

    16. 10/04/2012 16 Funzionamento di una rete neurale Metodo di studio Esporre rete ad uno stimolo Studiare attività dei neuroni Registrazione da singoli neuroni Registrazione simultanea da diversi neuroni Identificazione del stimolo/dei stimoli che massimizza la risposta del neurone

    17. 10/04/2012 17 Architettura dei primi stadi della visione Neuroni nella primo stadio del sistema della visione Studi su gatti/primati (Hubel & Wiesel) I neuroni formano una mappa della retina Ogni neurone risponde massimamente quando si stimola una certa area della retina campo ricettivo Secondo la propria collocazione i neuroni rispondono a diversi tipi di stimolo

    18. 10/04/2012 18 I neuroni center-surround Cellule bipolari/ Cellule gangliari della retina Rispondono massimamente a punti di luce circondati da un’area oscura o vice/ versa

    19. 10/04/2012 19 Il meccanismo di funzionamento di un neurone bipolare center-surround

    20. 10/04/2012 20 Le tecniche di rappresentazione dei neuroni center-surround Codifica non accessibile alla coscienza Codifica distribuita Le caratteristiche dell’immagine sulla retina vengono codificate dall’attività di grandi numeri di neuroni Codifica difficilmente rappresentabile in linguaggio simbolico (naturale)

    21. 10/04/2012 21 Flusso dell’informazione nel sistema visivo del gatto Architettura assai complessa Feature detectors a diversi livelli di astrazione Center surround Barre (sensibile alla lunghezza) Barre (end-stopping) Barre con un determinato orientamento Barre in movimento …. Oggetti particolari Facce La Cellula della nonna

    22. 10/04/2012 22 Macro-architettura del sistema visivo Non esiste nel cervello un solo sistema visivo Blind sight Test della doppia disassociazione Se due funzionalità possono essere lesionati/risparmiati indipendentemente esse dipendono da diverse aree del cervello Moduli separati per: colore, moto ecc. “Sentieri separati per: Localizzazione di un oggetto Identità di un oggetto Nessuna equivalente del primal sketch di Marr

    23. 10/04/2012 23 Rappresentazione della mano Mappe topologiche della mano Riorganizzazione delle mappe in caso di amputazione di un dito Ubiquità delle mappe ad es. mappe della retina

    24. 10/04/2012 24 Macro-architettura del cervello Visione modulare Frenologia Brocca Visione olistica Lashley Lesioni focali portava ad una graduale diminuzione della capacità di memorizzazione Studi moderni Effetto di lesioni puntuali Il cervello è sicuramente modulare

    25. 10/04/2012 25 Lo studio anatomico del cervello (macrostruttura) Divisione in due emisferi Vecchi componenti del cervello Ippocampo Amigdala Corteccia (6 strati) Diverse aree del cervello sono connesse a diversi sensori, apparati motori Connessioni ricorrenti Connessioni a lunga distanza

    26. 10/04/2012 26 Studi neurologici Lesioni/disfunzioni agnosia faciale disfunzioni del cervello disfunzioni delle emozioni Doppia disassociazione

    27. 10/04/2012 27 Imaging CT MRI fMRI PET

    28. 10/04/2012 28 PET/MRI Diverse aree del cervello “si illuminano” nel corso di diverse operazioni cognitive Esempio Studio del linguaggio “Imaging” in quattro dimensioni Il cervello come sistema dinamico

    29. 10/04/2012 29 Psicologici Studi dei tempi di reazione Possibile calcolare numero di passaggi per una determinata operazione cognitiva Esempio: Il problema: identificare se due oggetti, con un diverso grado di rotazione sono identici Il tempo di calcolo è proporzionale ai gradi di rotazione dell’oggetto Legge dei dieci passi

    30. 10/04/2012 30 Sintesi I componenti base del cervello (neuroni/sinapsi) sono uniformi Per tutte le specie Per tutte le diverse funzioni Potenza dipende dalle dimensioni e dalla micro-architettura Il cervello come sistema per l’apprendimento/adattamento Dinamico: mappe in continua riorganizzazione Modifiche delle sinapsi Creazione/distruzione di sinapsi/neuroni

    31. 10/04/2012 31 Struttura modulare del cervello Il cervello è sicuramente modulare diversi componenti svolgono diverse funzioni MA Organizzazione assai complessa I moduli non corrispondono necessariamente a quelli identificati dai cognitivisti Moduli a doppia funzione Zona di Wernicke (percezione di ordine/linguaggio) Mappe mobili

    32. 10/04/2012 32 Limiti della sperimentazione diretta I dati che ricaviamo dal cervello sono raramente sufficiente per consentire una vera comprensione dei meccanismi di funzionamento Comprensione come capacità di ricostruzione/simulazione Estrema complessità Limiti tecnici della registrazione neuronale dell’imaging del metodo dei lesioni dei metodi psicologici pratici Limiti etici

    33. 10/04/2012 33 Il metodo simulativo Creazione al computer di modelli di alcuni funzioni cerebrali Il modello riproduce quegli aspetti del funzionamento del cervello che lo sperimentatore ritiene fondamentali Questi elementi possono essere diversi per diversi sperimentatori Estrema semplificazione Studio del comportamento del modello Confronto con i dati sperimentali

    34. 10/04/2012 34 Reti Neurali artificiali Tentativo di creare dei modelli che riproducano la struttura base di una rete neurale all’interno del cervello ad es. nel sistema visivo Componenti base Neuroni Sinapsi Calcolo distribuito Ogni neurone contribuisce al calcolo Rappresentazioni distribuite Le rappresentazioni di una rete neurale sono contenute nei pesi delle sinapsi Modello alternativo al modello di Van Neumann Difficoltà di implementazione tecnologica

    35. 10/04/2012 35 Il modello di McCullough & Pitts Il neurone artificiale Connessioni/pesi Funzione di soglia Output binario Rete neurale come calcolatore universale La macchina di Van Neumann non è l’unica possibile implementazione di un calcolatore universale

    36. 10/04/2012 36 Le reti neurali e l’apprendimento Problema di acquisizione della conoscenza Suggerimento di Van Neumann Un calcolatore efficace deve poter imparare come un bambino Legge di Hebb Stimolazione simultanea (o quasi) di due neuroni interconnessi provoca rafforzamento della sinapsi

    37. 10/04/2012 37 Se S1=S2 allora W:=W+?W Altrimenti W:=W - ?W Implementazione della Legge di Hebb su un neurone artificiale

    38. 10/04/2012 38 Implicazioni della Legge di Hebb Una volta che si è stabilita una forte connessione fra due neuroni è sufficiente un input ad un solo neurone per attivare il neurone al quale è collegato Funzioni (esempi) Condizionamento Ricostituzione dati parziali

    39. 10/04/2012 39 Il perceptrone Rosenblatt (1958) Ispirati a studi sul sistema di visione del cervello Hardwired feature detectors Ognuno vede solo una parte dell’input Analoghi a “Feature detectors” nel cervello Neurone di output Connessioni da ogni feature detector al neurone di output “Peso” variabile delle connessioni fra feature detectors e neurone di output

    40. 10/04/2012 40 “Perceptron learning procedure” Procedura di apprendimento che consente di apprendere qualsiasi mapping teoricamente acquisibile da parte di un perceptrone Algoritmo Presentare input (in ordine casuale) Se output giusto Non fare nulla Se output ON quando dovrebbe essere OFF Ridurre forza connessioni a FD che sono ON Se output OFF quando dovrebbe essere ON Aumentare forza connessioni a FD che sono ON

    41. 10/04/2012 41 I perceptroni e l’intelligenza biologica Numero limitato di feature detector Una parte del cervello è geneticamente determinata Feature detectors Una parte è modificabile attraverso l’esperienza Connessioni fra feature detector e neurone di output Capacità di generalizzazione Robusto nei confronti del rumore “Graceful degradation”

    42. 10/04/2012 42 Applicazioni dei perceptroni Auto-associazione La stessa immagine in input e in output Apprendimento Recupero immagine da immagine parziale e/o rumoroso Hetero-associazione/categorizzazione Riconoscimento di caratteri (OCR) Riconoscimento di caratteristici astratti

    43. 10/04/2012 43 Esercitazione 1 Progettazione (a mano) di una rete per il calcolo della funzione AND

    44. 10/04/2012 44 Esercitazione 2 Progettazione della funzione OR

    45. 10/04/2012 45 Esercitazione 3 Apprendimento automatico Utilizzo del simulatore TLearn Definizione dell’architettura della rete Definizione dell’input di addestramento Definizione dell’output desiderato Studio di diverse coefficienti di apprendimento

    46. 10/04/2012 46 Esercitazione 4 Apprendimento della funzione XOR

    47. 10/04/2012 47 Limiti dei perceptroni Limiti già noti a McCullough & Pitts, Rosenblatt Separabilità lineare L’attacco di Minsky & Pappert Problemi non risolvibili con connettività locale Il problema del credit assignment

    48. 10/04/2012 48 La separabilità lineare Un perceptrone con un solo livello può solo imparare problemi che sono linearmente separabili ad es: AND,OR,NOT Non può imparare problemi non separabili ad es: XOR

    49. 10/04/2012 49 Problemi non risolvibili con la connettività locale Nel perceptrone i feature detectors hanno connessioni locali Nessun feature detector è connesso a tutti i neuroni di input Minsky e Pappert hanno dimostrato che esistono problemi che non possono essere risolti senza feature detector con connessioni a tutti gli input Il problema della parità

    50. 10/04/2012 50 Il problema dei perceptroni a più livelli Un sistema a due (o più) livelli può risolvere problemi di complessità arbitraria MA Problema del credit assignment Non è possibile identificare quali neuroni/sinapsi sono responsabili per il buono/cattivo comportamento del sistema Non è possibili calcolare la correzione ai pesi delle sinapsi

    51. 10/04/2012 51 Effetti dell’attacco di Minsky e Pappert Abbandono delle ricerche sulle reti neurali per molti anni Trionfo (temporaneo) dell’Intelligenza Artificiale classica

    52. 10/04/2012 52 Critica alla critica Ma molti dei problemi che non possono essere risolti da un Perceptrone XOR Parity Sono molto difficili anche gli esseri umani e gli animali Gli stessi punti di debolezza del perceptrone sono un indizio che il cervello potrebbe funzionare in modo analogo Il cervello come sistema di pattern matching con limitata capacità di calcolo I perceptroni possono comunque essere utilizzate per la creazione di modelli complessi

    53. 10/04/2012 53 Passato del verbo inglese La maggior parte dei verbi inglesi formano il passato con il suffisso “-ed” “I walk/I walked” I verbi più comuni sono irregolari “I have/I had” Assenza di regole chiare e semplici Difficoltà di formalizzazione delle regole Apprendimento dei bambini: tre fasi Risposte corrette (pochi verbi comuni) “Iperregolarizzazione ( “I have”/”I haved”) Risposta corretta

    54. 10/04/2012 54 Sistema a reti neurali per la generazione del tempo passato Rumenlhart & Mcclelland (1986) Input: rappresentazione fonetica del radice del verbo (stringa caratteri) Output effettivo/desiderato: rappresentazione fonetica (stringa caratteri) Pattern associator Senza neuroni nascosti Senza connessioni ricorrenti Apprendimento in due fasi 10 verbi comuni 410 verbi

    55. 10/04/2012 55 Risultati Tre fasi di apprendimento Errori simili a quelli dei bambini Generazione di risposte corrette per verbi non compresi nel “Training set”

    56. 10/04/2012 56 Confronto con un sistema esperto classico Rete neurale Modello parsimonioso Resistente a rumore/errori Riproduce le fasi di apprendimento con un meccanismo unitario Sistema esperto Grande complessità delle regole Fragile nel confronto di rumore/errori Distinti meccanismi per diverse fasi di apprendimento Sistema di regole Apprendimento a memoria

    57. 10/04/2012 57 Il modello di rappresentazione della conoscenza La conoscenza della rete neurale è implicito nei valori assegnati alle connessioni Non vi è una rappresentazione esplicita, linguiforma delle regole della sintassi Conclusione: è possibile riprodurre un comportamento linguistico tipicamente umano senza rappresentazioni/manipolazioni simbolico-linguistiche

    58. 10/04/2012 58 Limiti del modello Due fasi di apprendimento 10 verbi 410 verbi comuni Il problema non è linearmente separabile Errori residui/ necessità di unità nascoste

    59. 10/04/2012 59 Plunkett & Marchman (1991) Crescita naturale del vocabolario Frequenza d’uso realistica Reti multi-livello Riproduzione degli errori dei bambini

    60. 10/04/2012 60 Hopfield e la riabilitazione delle reti neurali Reticolo di neuroni Immagine in input Apprendimento Hebbsiano Input parziale Iterazione Recupero immagine Generazione di prototipi

    61. 10/04/2012 61 Hopfield e la riabilitazione (2) Analisi matematica del comportamento della rete Analogo ad un Spin-Glass Matematica ben conosciuto Possibile addestrare una rete con più livelli Riabilitazione delle reti neurali

    62. 10/04/2012 62 Lezioni/problemi del modello di Hopfield Il cervello come sistema dinamico Modello di memoria distribuita Non simbolico Il cervello come sistema per la generazione di prototipi MA lunghi tempi di risposta Incompatibilità con i risultati della ricerca psicologica

    63. 10/04/2012 63 Back-propagation Apprendimento per reti a più livelli La strategia Creare rete feed-forward con ogni livello connesso al livello precedente Presentare input Calcolare output Confrontare output effettivo e output desiderato Correggere ultimo livello di connessioni Calcolare output desiderato per penultimo strato di neuroni Confrontare con output effettivo ecc.

    64. 10/04/2012 64 Impatto del back-propagation Possibilità (teorica) di insegnare qualsiasi mapping fra input e output anche linearmente non-separabile Applicazione a molti domini diversi Identificazione mine/roccia ecc.

    65. 10/04/2012 65 NetTalk - il problema Sintesi della voce (inglese) Ortografia altamente irregolare Input Testo inglese Output Rappresentazione fonetica del discorso Output sonoro via DecTalk

    66. 10/04/2012 66 NetTalk - architettura 7 gruppi di 29 neuroni in input Input presentata come stringa Gruppi di neuroni di input Ogni gruppo rappresenta un carattere 80 unità nascoste 26 unità di output (features)

    67. 10/04/2012 67 NetTalk - apprendimento Discorso informale continuo di bambini Dizionario di singole parole Apprendimento tramite Back-Prop

    68. 10/04/2012 68 NetTalk - risultati 95% di risposte corrette dopo 50.000 cicli di apprendimento Ancora in fase di miglioramento Sequenza di apprendimento simile a quello dei bambini Distinzione vocali/consonanti Ma sistema utilizza un solo vocale Babble Apprendimento corretto Generalizzazione Resistenza a lesioni

    69. 10/04/2012 69 Il significato del back-propagation “Dimostrazione di esistenza” Esistono delle reti multi-strato con competenze interessanti Obiezioni neurologiche Non conosciamo alcun meccanismo neurologico capace di implementare il back-prop. Il back-prop non consente l’utilizzo di connessioni ricorrenti Obiezioni ecologiche In natura gli animali non conoscono “le risposte corrette” Per capire un insegnante occorre un apparato cognitivo complesso

    70. 10/04/2012 70 Apprendimento “senza supervisore” - il sistema visivo Il sistema visivo Livelli crescenti di astrazione Center-surround Barre di diverso orientamento Barre in movimento Sistema sotto-determinato a livello genetico Capacità acquisita attraverso l’apprendimento Inconscio

    71. 10/04/2012 71 Modello di Linsker - architettura 7 strati (A,B,C,D,E,F,G) Ogni neurone prende input da c. 100 neuroni nello strato superiore Neuroni vicini prendono in parte gli stessi input Modifica delle connessioni con legge di Hebb

    72. 10/04/2012 72 Modello di Linsker - risultati A - input B - livello medio di input nei neuroni sovrastanti C - Center-Surround D e strati superiori: cellule sensibili all’orientamento I strati si formano anche nell’assenza di input strutturato

    73. 10/04/2012 73 Le Reti di Kohonen Strato di neuroni Ogni neurone connesso all’input Multidimensionale Misurare attivazione di ogni neurone Per il neurone più attivo Rafforzare risposta all’input Rafforzare risposta per tutti i neuroni vicini Formazione di “mappe neuronali” Simili alle mappe riscontrate nel cervello Riduzione di input multidimensionale ad input a bassa dimensionalità

    74. 10/04/2012 74 Dettatura automatizzata Problema a più livelli fonemico Formazione di parole Formazione di frasi Ambiguità ad ogni livello Il problema fonetico Finlandese, giapponese, italiano, tedesco

    75. 10/04/2012 75 Il “neural phonetic typewriter” Input: discorso parlato Pre-processing: 15 canali di frequenza Rete di Kohonen con 15 input Auto-organizzazione in mappa bi-dimensionale Ogni “zona” della mappa rappresenta un fonema Una parola rappresentata come una traiettoria sulla mappa

    76. 10/04/2012 76 Mappe e traiettorie fonetiche

    77. 10/04/2012 77 Reti neurali e intelligenza artificiale classica (1) Differenze Le reti neurali apprendono - si tratta quindi di reti adattivi Questo è particolarmente importante nel caso dell’apprendimento senza supervisore Le reti neurali generalizzano - l’esempio dei verbi inglesi Le reti neurali sono resistenti al rumore Le reti neurali sono resistenti alle lesioni Rappresentazioni distribuiti/rappresentazioni simboliche Le reti neurali sono più vicini all’intelligenza biologica

    78. 10/04/2012 78 Reti neurali e intelligenza artificiale classica (2) Punti di contatto Le reti neurali come calcolatore universale (McCullough & Pitts) Modello “information processing” input/ elaborazione informazione/ output Le reti neurali non hanno un corpo Le reti neurali non hanno “valori” da mantenere Le reti neurali non hanno autonomia Le reti neurali non vivono in un ambiente fisico

    79. 10/04/2012 79 Applicazioni delle reti neurali In alcuni campi è diventato una tecnologia standard ad es. OCR Analisi di spettri (controllo esplosivi, droga) MA Nella maggior parte dei campi vince la tecnologia standard ad es. gioco dei scacchi Non da risposte per cognizione complessa

    80. 10/04/2012 80 Reti neurali e evoluzione Problema della complessità In una rete, ad architettura fissa, il tempo di addestramento cresce esponenzialmente con la complessità del problema NP-completeness Possibile solo addestrare reti piccoli Biologicamente realistico Macro-architettura dev’essere fissato dal progettista Per problemi complessi il compito può rilevarsi impossibile Evoluzione artificiale

    81. 10/04/2012 81 Esercitazione Creazione di una rete per il riconoscimento delle persone Funzionalità Imparare delle descrizioni di un certo numero di persone Restituire la descrizione completa di una persona in base ad una descrizione parziale

    82. 10/04/2012 82 Codifica dell’input e dell’output Sesso M: 0 F: 1 Altezza <1,60:0 >=1,60:1 Capelli: corti:0 Lunghi:1 Capelli Scuri:0 Altro:0 Robusto Meno della media:0 Media o più della media:1

    83. 10/04/2012 83 Architettura della rete

    84. 10/04/2012 84 Una rete autoassociativa

    85. 10/04/2012 85 Fasi del progetto Addestramento con dati pieni Creazione file di dati incompleti Test con dati incompleti Modifica/miglioramento architettura

More Related