1 / 39

I ntelligens R endszerek E lmélete

I ntelligens R endszerek E lmélete. 8. : Mesterséges neurális hálózatok felügyelt tanítása hiba visszaterjesztő „ Back error Propagation” algoritmussal. A felügyelt tanítás paraméterei Versengéses tanulás Klasszikus példák tanulságai Kohonen paradigma Hopfield paradigma.

autumn-tate
Download Presentation

I ntelligens R endszerek E lmélete

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Intelligens Rendszerek Elmélete 8 Óbudai Egyetem, NIK Dr. Kutor László

  2. : Mesterséges neurális hálózatok felügyelt tanítása hiba visszaterjesztő „Back error Propagation” algoritmussal • A felügyelt tanítás paraméterei • Versengéses tanulás • Klasszikus példák tanulságai • Kohonen paradigma • Hopfield paradigma http://nik.uni-obuda.hu/mobil Óbudai Egyetem, NIK Dr. Kutor László

  3. A tanító adatok összeállítása. Feladatspecifikus neurális hálózat (paradigma) kiválasztása. A hálózat jellemzőinek (a processzorok átviteli függvényének, a processzorok számának, a tanítási módszereknek és paramétereknek, valamint a kezdeti súlymátrix értékeinek) kiválasztása. Teljesítmény mérő módszer kiválasztása Tanítás és tesztelés, amíg a hálózat a kívánt viselkedést nem mutatja. Neurális hálózatok alkalmazásának menete Óbudai Egyetem, NIK Dr. Kutor László

  4. Reprezentatív tapasztalati adat gyűjtése (bemeneti adatok és elvárt válaszok) Megfelelő neurális paradigma kiválasztása Rendszer paraméterek kiválasztása Teljesítmény mérő módszer kiválasztása A rendszer tanítása és tesztelése, amíg az elvárt eredményhez nem jutunk. A neurális hálózat tervezésének lépései Óbudai Egyetem, NIK Dr. Kutor László

  5. Processzor szinten: - a processzor átviteli függvénye - a bemenő jelek típusa Hálózat szinten: - a hálózat topológiája - rétegelt struktúránál a rétegek száma - processzorok száma a különböző rétegekben - processzorok típusa a különböző rétegekben Tanítási szinten - tanító algoritmus - tanítási paraméterek (pl.: α, β,….) - a tanítás megállásának feltételei Eldöntendő jellemzők a neurális hálózatok tervezésénél Óbudai Egyetem, NIK Dr. Kutor László

  6. Mottó: Addig hangoljuk a súlytényezőket, amíg a bemenetre a hálózat megfelelő-, előre kiszámított választ nem ad. Algoritmusa: Kezdeti súlytényezők beállítása A tanítóminta bemeneti értéke alapján a hálózat kimeneti értékének kiszámítása. A tanítóminta célértékének összehasonlítása a hálózat célértékével. Szükség esetén a hálózat súlytényezőinek módosítása. A tanítás folytatása mindaddig, amíg a hálózat az összes tanítómintára – egy előre rögzített hibahatárnál kisebb hibávala célértéknek megfelelő kimeneti értéket nem tudja előállítani. A felügyeletes tanítás lényege, algoritmusa(ism.) Óbudai Egyetem, NIK Dr. Kutor László

  7. A perceptron jellemzői Frank Rosenblatt (1957) Vetített nyomtatott betűk felismerése tanítás alapján • 20 x 20 fotóérzékelő • Mc. Culloch-Pitts neuronok • Előrecsatolt egyrétegű hálózat I1 O1 O36 I400 Óbudai Egyetem, NIK Dr. Kutor László

  8. I – ingerfelvevők (bemenet) wjisúlytényezők T – Árviteli (Transzfer) függvény Oj = 0 ha Sj<=0 Oj = +1 ha Sj>0 ha Ojk = 0 és Cjk = 1 akkor wji(t+1) = wji(t) + Iik(t) ha Ojk = 1 és Cjk = 0 akkor wji(t+1) = wji(t) - Iik(t) A perceptron processzora „ W. Mc Culloch és W. Pitts „) I1 j wj1 wj2 I2 Oj Sj T wjn IB In-1 In Óbudai Egyetem, NIK Dr. Kutor László

  9. Kezdeti súlytényezők beállítása (random !?) Tanítás iter amíg a hiba el nem éri a hibahatárt (Hi <= Hh) k= 0, Hi= 0 Minták iter amíg k = p nem teljesül (ahol p = tanító minták száma) A k.-ik tanítóminta bemeneti vektora alapján processzoronként az aktiváció kiszámítása Sjk= ∑Ijk * Wji A köszöb átviteli függvény alapján processzoronként a kimeneti értékek kiszámítása. (Oj) A hálózat súlytényezőinek módosítása. ha Ojk = Cjk akkor wji(t+1) = wji(t) ha Ojk = 0 és Cjk = 1 akkor wji(t+1) = wji(t) + Iik(t) ha Ojk = 1 és Cjk = 0 akkor wji(t+1) = wji(t) - Iik(t) A hálózat hibájának kiszámítása Hjk=Cjk-Ojk A hibák összesítése Hi=Hi+Hj k:=k+1 Minták end Tanítás end A perceptron tanító algoritmusa Óbudai Egyetem, NIK Dr. Kutor László

  10. Csak egy réteg tanítását teszi lehetővé Csak lineárisan elválasztható csoportokat tud osztályozni. A perceptron jellemzői(„Perceptrons” M. Minsky – S. Pappert, 1969) I1 *I2 O 0 0 0 0 1 0 1 0 0 1 1 1 I1 I1 + I2 O 0 0 0 0 1 1 1 0 1 1 1 0 1 I2 1 I1 +I2 O 0 0 0 0 1 1 1 0 1 1 1 1 I1 I1 1 1 I2 I2 1 1 Óbudai Egyetem, NIK Dr. Kutor László

  11. A perceptron értékelése Óbudai Egyetem, NIK Dr. Kutor László

  12. Többrétegű neurális hálózatok tanítása (D.E Rummelhart, G.E. Hinton, R.J.Williams, 1986) (David Parker, Yann Le Cun) +…… Hálózat topológia Oi Oj Ok Tk i k j i j k M H N Processzor: Oj Oi Oj=f(S)= 1/(1+e-S) Sj f(s) j Óbudai Egyetem, NIK Dr. Kutor László

  13. Két (tanítható) rétegű előrecsatolt hálózat Kimenetek Bemenetek bemeneti réteg „rejtett” réteg kimeneti réteg „súlytényező” Óbudai Egyetem, NIK Dr. Kutor László

  14. A súlytényezők változását leíró egyenletek Súlytényező változtatás a kimeneti rétegben Wkj(t+1) = Wkj(t) + αΔkOj = Δk Wkj(t) + α*(Tk-Ok)*f(Sk)*(1-f(Sk))*Oj Súlytényező változtatás a „rejtett” rétegben Δj M Wji(t) + α*∑(Δk*Wkj)*f(Sj)*(1-f(Sj))*Oi k=1 Óbudai Egyetem, NIK Dr. Kutor László

  15. A hálózat hibája felügyelt tanítás esetén Egy tanító mintánál: E = ½ ∑(Tk-Ok)2 A teljes tanító mintára: E = ½ ∑∑ (Tk-Ok)2 k p k A tanítás (súlytényező változtatás) mottója: „hiba visszaterjesztés = Back error Propagation” „ A hálózat súlytényezőit a hiba létrehozásában játszott szerepükkel arányosan változtatjuk.” = A súlytényezőket a hibafüggvény parciális deriváltja szerint változtatjuk! Óbudai Egyetem, NIK Dr. Kutor László

  16. A delta szabály matematikai értelmezése Sj= ∑wji * Ii ; Oj = Sj ; E = ½ *∑ ( Tj – Oj)2 I1 I2 Ii In i j Oj Tj Lineáris átviteli függvény esetén E S j Wji(t+1)=wji(t)- α*Oj*δE/δwji Wi+1 wi δE/δwji= δE/δOj *δOj/δSj*δSj/δwj Δw δE/δOj = ½* 2 * (Tj-Oj) * -1= - (Tj-Oj) δOj/δSj=1 δSji/δwji= δ(wj1*I1+…wji*Ii…+ wjn*In)= Ii i j Oi wji Oj Tj Delta szabály wji(t+1) = wji (t) + α* Ii*Δw ahol α= tanítási tényező, 0 <= α <= 1, Δw= -Tj – Oj Óbudai Egyetem, NIK Dr. Kutor László

  17. Tanítást leíró összefüggések a többrétegű hálózatoknál Általánosított delta szabály: (deriválás a lánc szabály alapján) δE/δwkj = δE/δOk * δOk/δSk * δSk/δwkj Súlytényező változtatás a kimeneti rétegben Wkj(t+1) = Wkj(t) + αΔkOj = Δk Wkj(t) + α*(Tk-Ok)*f(Sk)*(1-f(Sk))*Oj Súlytényező változtatás a „rejtett” rétegben Δj M Wji(t) + α*∑(Δk*Wkj)*f(Sj)*(1-f(Sj))*Oi k=1 (A levezetés a javasolt olvasmányok között található) Óbudai Egyetem, NIK Dr. Kutor László

  18. Célja: Angol betűk kiejtésének kiszámolása Módszere: 2 tanítható rétegű, előrecsatolt neurális hálózat 7 egymást követő betű közül a középsőt kellett kiejteni Eredménye: Minden korábbi megoldásnál jobb eredményt mutatott NetTalk neurális hálózat jellemzői Óbudai Egyetem, NIK Dr. Kutor László

  19. A NETTALK tapasztalatai 1. Fonémák, hangsúlyok tanulása Óbudai Egyetem, NIK Dr. Kutor László

  20. A NETTALK tapasztalatai 2. C és K tanulása Óbudai Egyetem, NIK Dr. Kutor László

  21. A NETTALK tapasztalatai 3. A súlytényezők megváltoztatásának hatása Óbudai Egyetem, NIK Dr. Kutor László

  22. A NETTALK tapasztalatai 4. Az újratanulás jellemzői Óbudai Egyetem, NIK Dr. Kutor László

  23. Momentum Csökkenő hibahatár („descending epsilon”) módszere Kis súlytényezők kiszűrése („Metszés”) Inkrementális hálózat építás „kaszád korreláció” Algoritmus gyorsító megoldások Óbudai Egyetem, NIK Dr. Kutor László

  24. Benenő adatok Elvárt kimenő adatok „célértékek” A tanító adatok szerkezete c1 Bemenetek 1-n C1 Cm NH cm n m Tanító minták 1-k Teszt adatok Óbudai Egyetem, NIK Dr. Kutor László

  25. „Kaszkád korreláció” (KK) Scott E. Fahlman Christian Lebierre Lépésről-lépésre épülő hálózat Óbudai Egyetem, NIK Dr. Kutor László

  26. Kettős spirál tanulása „KK” algoritmussal 2. Óbudai Egyetem, NIK Dr. Kutor László

  27. Kettős spirál tanulása „KK” algoritmussal 2. Óbudai Egyetem, NIK Dr. Kutor László

  28. Processzor Versengéses (competitive) tanulásCarpenter, Grossberg 1988 I1 Oj = f (Sj) f (Sj) Ii 1 Sj f IN Sj= ∑ Ii* wji Sj Topológia: egy rétegű előrecsatolt, teljesen összekötött Megkötések: 1.) ∑ wji= 1 2.)Súly értékek: 0<Wj<1 3.) A bemenő vektor bináris Óbudai Egyetem, NIK Dr. Kutor László

  29. Mottó: A győztes visz mindent Kezdeti súlytényezők beállítása (inicializálás, véletlenszerű) 0<Wj<1 A tanítóminta i-ik értéke (vektora) alapján, a processzorok kimeneti értékeinek kiszámítása. A legnagyobb kimeneti értékű processzor kiválasztása. A győztes visz mindent elv alapján, a győztes kimeneti értéket 1-re, az összes többi kimeneti értéket 0-ra változtatjuk A győztes elem súlytényezőit megváltoztatjuk (csak azokat!) Δ Wji (t+1) = Wji (t) + Δ wji, Δwji = α (Oi/m-wji(t)) ahol α = tanulási együttható, 0 < α << 1 (tipikusan 0.01-0.3) m = az aktív bemenetek száma A 2. 3. 4. pont ismétlése amíg a kimenetek két egymást követő tanítási ciklus során nem változnak. A versengéses tanító algoritmus(Grossberg) Sj= ∑ Oi* wji, Oj = f (Sj) Óbudai Egyetem, NIK Dr. Kutor László

  30. Versengéses tanulás folyamata Óbudai Egyetem, NIK Dr. Kutor László

  31. Versengés oldalirányú gátlással Óbudai Egyetem, NIK Dr. Kutor László

  32. Processzor: Kohonen önszervező hálózata(Teuvo Kohonen, 1982) f (Sj) 1 Oj = f (Sj) Sj f 1 Sj Sj= ∑ Ii* wji + társ processzorok aktivációja Hálózat topológia: egy rétegű, teljesen összekötött, előrecsatolt Óbudai Egyetem, NIK Dr. Kutor László

  33. 1.) Kezdeti súlytényezők beállítása Kezdeti környezet beállítása 2.) A bemeneti vektor (tanító minta) rákapcsolása a bemenetekre 3.) Minden processzor elemnél a bemenő vektor és a súlyvektor egyezésének (távolságának) kiszámítása dj = ║I-Wj║ = ∑ (Ii-Wji)2 ahol N = a bemeneti vektor elemeinek száma Ii = a bemeneti vektor (I) i-ik elemének értéke Wji= a j –ik processzor elemhez tartozó, az i-ik bemenettől érkező összeköttetés súlytényezője A Kohonen tanító algoritmus j 4.) A legkisebb eltérést mutató processzor kiválasztása (pl. j) 5.) A kiválasztott elem (j) környezetében (Nj) a súlytényezők módosítása 6.) A 2., 3., 4., 5.-ik lépés ismétlése amíg a kimenetek nem változnak Óbudai Egyetem, NIK Dr. Kutor László

  34. A súlytényező megváltoztatása a Kohonen tanuló algoritmusban Wji (t+1) = Wji (t) + ΔWji (t) Ahol ΔWji (t) = α(Ii –Wji) α (t) = α (0)(1 – t/T), t = az adott tanulási iteráció száma T= a teljes tanulási ciklusok száma A tanulás során módosított környezet nagysága csökken! Nj (t) = N(0)(1-t/T) Óbudai Egyetem, NIK Dr. Kutor László

  35. Az „önszerveződés” folyamata a Kohonen hálózatban A véletlenszerűen beállított súlytényezők a tanulás során egyre inkább felveszik a tanítóminta statisztikai eloszlását. Óbudai Egyetem, NIK Dr. Kutor László

  36. Példák 3D-s tárgyak leképezésére 2D-be Bemenetek száma: 3 Kimenetek száma: 20 Tanítóminta: 1000 Tanítási ciklus: 15-30 Óbudai Egyetem, NIK Dr. Kutor László

  37. Kohonen fonetikus írógépe Jellemzői: 5.4 KHz aluláteresztő szűrő, 12 bit A/D, 13.03 KHz mintavétel, 256 pontos Fourier transzformáció (FFT) Fonémák kézi azonosítása a tanításhoz, Szabály alapú következtetés (15-20 ezer szabály) TMS 32010 digitális processzor Közel folyamatos beszéd feldolgozás 92-97%- os pontosság Óbudai Egyetem, NIK Dr. Kutor László

  38. Nincs tudás-hozzáférési probléma Nehéz a tudás megszerzése Dinamikus tudásábrázolás Statikus(abb) tudásábrázolás Minta kiegészítő képesség Feltételezzük az adatok (általánosítás = generalizás) hibátlanságát és ellentmondás mentességét Robusztus (nem érzékeny az adatvesztésre) Érzékeny az adatvesztésre Interpolálni képes Nincs intuitív képessége Többet „tudhat” mint ami az Legfeljebb olyan jó lehet mint a adatokból látszik szakértő Nincs magyarázatadás Részletes magyarázat kérhető Nincs igazoló képessége A döntéseket viszonylag könnyű igazolni. Neurális hálózatok Szakértői rendszerek Óbudai Egyetem, NIK Dr. Kutor László

  39. A neurális hálózatok tanítása során változik a hálózat szerkezete? Miért nem vezet garantáltan jó megoldáshoz a hiba visszaterjesztő algoritmus, és hogyan lehet megkerülni a problémát? Mi a neurális hálózatok „önszerveződésének” alapja? Kérdések Óbudai Egyetem, NIK Dr. Kutor László

More Related