1 / 10

Back-Propagation Pertemuan 5

Back-Propagation Pertemuan 5. Matakuliah : T0293/Neuro Computing Tahun : 2005. Konsep Dasar BP Solusi dari keterbatasan single-layer network Penemuan algoritma BP merupakan kebangkitan kembali paradigma “ neural computing “.

adrian-hahn
Download Presentation

Back-Propagation Pertemuan 5

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Back-Propagation Pertemuan 5 Matakuliah : T0293/Neuro Computing Tahun : 2005

  2. Konsep Dasar BP • Solusi dari keterbatasan single-layer network • Penemuan algoritma BP merupakan kebangkitan kembali paradigma “ neural computing “. • Nama-nama scientist yang memberi kontribusi terhadap pengembangan BP  • Rumelhart, Hinton dan Williams (1986) • Parker (1982) • Werbos (1974)

  3. OUT = 1 / ( 1 + e -NET ) W1 O1 OUTET W2  F O2 Wn On NET NET = O1 W1 + O2 W2 + ... + On Wn =  Oi Wi OUT = F ( NET ) Konfigurasi Networks (BP) • Model Neuron Artificial Neuron with Activation Function

  4. OUT 0.5 0 NET OUT = F(NET)1 / ( 1 + e -NET ) F’ (NET) = OUT = OUT (1-OUT)  NET Activation Function Sigmoidal Activation Function Ada beberapa fungsi yang dapat digunakan; Algoritma BP memerlukan fungsi yang bersifat ‘differentiable’

  5. Model Multilayer Networks • Model berikut adalah contoh multilayer networks yang sesuai untuk diterapkan dengan algoritma BP

  6. HIDDEN LAYER j OUT1 INPUT LAYER k INPUT LAYER W11 TARGET1 W12 ERROR1 OUT2 W22 TARGET2 ERROR2 OUTn W2m W3m TARGETn ERRORn Two-Layer Backpropagation Network

  7. Network Training Langkah-langkah Training • Pilih “ training pair “ ( berikutnya ); aplikasikan vektor input ke dalam network • Hitung output dari networks. • Hitung error antara “ actual output “ dengan ‘target output’. • Sesuaikan bobot dengan cara meminimumkan error. • Ulangi 1 sampai dengan 4 untuk setiap vektor dalam ‘ trainingset ’.

  8. Forward Pass O = F ( X W ) dimana O adalah vektor output. Vektor output dari suatu layer merupakan vektor input dari layer berikutnya. Dengan demikian perhitungan output akhir dari networks dilakukan perhitungan dengan rumus di atas pada setiap layer

  9. Reverse Pass Penyesuaian bobot pada ‘ output layer ’ :  = OUT (1-OUT) (Target-OUT)  Wpq,k = q,k OUTp,j Wpq,k (n+1) = Wpq,k (n) +  Wpq,k

  10. dimana Wpq,k (n) = nilai bobot dari neuron p pada ‘hidden layer’ ke neuron q pada ‘output layer’ pada langkah ke-n; subscript k menunjukkan bahwa bobot berkaitan dengan ‘destination layer’ Wpq,k (n+1) = nilai bobot pada langkah ke n+1 q,k = nilai  untuk neuron q pada ‘output layer’ ke k OUTp,,j = nilai OUT untuk neuron p pada ‘hidden layer’ j Catatan: Penyesuaian bobot pada hidden layer p,,j = OUTp,,j (1- OUTp,,j) (q,k Wpq,k)

More Related