1 / 9

Jaringan Saraf Tiruan

Jaringan Saraf Tiruan. Supervised Learning Process dengan Backpropagation of Error. Andre Tampubolon – 1204000114 Arawinda D. – 1205000169 Bernadia Puspasari – 1205000223 Bobby Alexander – 1205000231 Clara Vania – 1205000266 Dyta Anggraeni - 1205000304. Latar Belakang.

lilika
Download Presentation

Jaringan Saraf Tiruan

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Jaringan Saraf Tiruan Supervised Learning Process dengan Backpropagation of Error Andre Tampubolon – 1204000114 Arawinda D. – 1205000169 Bernadia Puspasari – 1205000223 Bobby Alexander – 1205000231 Clara Vania – 1205000266 Dyta Anggraeni - 1205000304

  2. Latar Belakang Kebutuhan akan teknologi pengenalan wajah untuk mendukung kegiatan sehari-hari manusia, misalnya dalam hal keamanan dan identifikasi.

  3. Tujuan Umum Melakukan pembelajaran agar suatu input citra dapat dikenali. Khusus Menghitung error dari hasil keluaran dan target untuk digunakan sebagai bahan pembelajaran agar dapat mencapai hasil yang mendekati target

  4. Experimental Design Layer dibagi menjadi tiga, yaitu input layer, hidden layer, dan output layer. Input layer terdiri dari 900 neuron dari sebuah data yang berukuran 30x30 pixel. Hidden layer terdiri dari 100 neuron, dan output layer terdiri dari 5 neuron sebagai target. Langkah-langkah yang dilakukan: • Inisialisasi bobot dengan metode Nguyen-Widron. • Selama nilai error belum mencapai batas toleransi error atau epoch belum mencapai 104, lakukan proses FeedforwarddanBackpropagation.

  5. Feedforward • Setiap input yang diterima dikirimkan ke semua unit layer di atasnya (hidden layer). • Pada setiap unit hidden, 1. Semua sinyal input dengan bobotnya dihitung sebagai input dari hidden layer. 2. Nilai aktivasi sebagai output unit hidden dihitung. 3. Nilai aktivasi dikirim sebagai input untuk unit output. • Pada setiap unit output, 1. Semua sinyal input dengan bobotnya dihitung sebagai input dari output layer. 2. Nilai aktivasi sebagai output jaringan dihitung.

  6. Backpropagation • Pada setiap unit output: 1. Menerima pola target yang bersesuaian dengan pola input. 2. Menghitung informasi error. 3. Menghitung besarnya koreksi bobot unit output. 4. Menghitung besarnya koreksi bias output. 5. Mengirimkan informasi error ke unit-unit yang ada pada layer di bawahnya.

  7. Backpropagation • Pada setiap unit hidden: 1. Menghitung semua koreksi error. 2. Menghitung nilai aktivasi koreksi error. 3. Menghitung koreksi bobot unit hidden. 4. Menghitung koreksi error bias unit hidden. • Setelah itu, setiap unit output dan hidden masing-masing meng-update bobot dan biasnya.

  8. Experimental Result Dari hasil penelitian yang kelompok kami lakukan, error paling minimum didapatkan ketika dipilih alpha dan momentum yang paling kecil, yaitu masing-masing bernilai 0.1. Sebanyak 10.000 iterasi dilakukan dan kemudian didapatkan error yang turun naik, namun akhirnya konvergen menurun.

  9. Experimental Result

More Related