1 / 12

Uczenie w Sieciach Rekurencyjnych

Uczenie w Sieciach Rekurencyjnych. Inteligentne Systemy Autonomiczne. W oparciu o wykład Prof. Geoffrey Hinton University of Toronto. Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie. Sieci rekurencyjne. W układach biologicznych neurony mają silne sprzężenia zwrotne.

shalom
Download Presentation

Uczenie w Sieciach Rekurencyjnych

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Uczenie w Sieciach Rekurencyjnych Inteligentne Systemy Autonomiczne W oparciu o wykład Prof. Geoffrey Hinton University of Toronto Janusz A. Starzyk Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie

  2. Sieci rekurencyjne W układach biologicznych neurony mają silne sprzężenia zwrotne. Najprostsze modele sieci z rekurencją: • sieci Hopfielda, • sieci uczone regułą Hebba, • sieć Hamminga. Modele bardziej złożone: • RTRN - Real Time Recurrent Network, przetwarzająca sygnały w czasie rzeczywistym; • sieć Elmana i inne o uproszczonej strukturze rekurencji • RCC - Recurrent Cascade Correlation

  3. Sieci rekurencyjne • Jeśli połączenia tworzą skierowane obwody w grafie sieci, taka sieć jest w stanie zrobić więcej niż tylko obliczać ustalone sekwencje przekształceń nieliniowych: • Może oscylować. Nadaje sie do kontroli motorów? • Może zbiegać się do atraktorów punktowych. • Przydatne do klasyfikacji • Może zachować się chaotycznie • Przydatne do poszukiwania wielu rozwiązań • Ale z reguły nie jest korzystne do przetwarzania informacji. • Może pamiętać rzeczy przez długi czas. • Sieć ma stany wewnętrzne. • Może zdecydować się na zignorowanie sygnału wejścia. • Może modelować sekwencje w naturalny sposób. • Nie ma potrzeby użycia elementów opóźnienia do dyskretyzacji czasowej.

  4. Zaleta modelowania sekwencji • Możemy uzyskać sygnał uczenia próbując przewidzieć następny składnik szeregu. • Wydaje sie to bardziej naturalnym niż przewidywanie jednego piksela obrazu na podstawie innych. • Korelacja czasowa w przeciwieństwie do korelacji przestrzennej • Wykorzystanie sekwencji operacji do planowania akcji • Przypisywanie nagrody za udane akcje

  5. Równoważność miedzy wielowarstwowa siecią propagacji wprzód i siecią rekurencyjną w1 w2 czas=3 w1 w2 w3 w4 w3 w4 czas=2 w1 w2 w3 w4 Załóżmy że użycie każdego połączenia ma opóźnienie czasowe 1. Sieć rekurencyjna jest siecią wielowarstwową która ciągle używa te same wagi. czas=1 w1 w2 w3 w4 czas=0

  6. Backpropagation w czasie • Propagacja wprzód buduje stos aktywności wszystkich jednostek w każdym przedziale czasu. • Propagacja wstecz zdejmuje ze stosu aktywności żeby obliczyć pochodne błędu w każdym przedziale czasu. • Po propagacji wstecznej sumujemy pochodne ze wszystkich przedziałów czasowych dla każdej wagi. • Jest dodatkowy irytujący problem: • Musimy określić stan początkowy wszystkich nie wejściowych jednostek. • Moglibyśmy propagować wstecz do tych początkowych aktywności i nauczyć się ich najlepszych wartości.

  7. Możemy określić cele w różny sposób: Określamy pożądane końcowe aktywności wszystkich jednostek Określamy pożądane aktywności wszystkich jednostek w kilku ostatnich krokach czasowych Określamy pożądane aktywności podzbioru jednostek. Inne jednostki sa “ukryte” Sygnały uczenia dla sieci rekurencyjnych w1 w2 w3 w4 w1 w2 w3 w4 w1 w2 w3 w4

  8. Możemy nauczyć sieć propagacji wprzód dodawania binarnego, ale nie jest ona w stanie określić: Maksymalnej ilości cyfr w każdej liczbie. Proces zastosowany dla dużej liczby nie prowadzi do wyniku. Tak że sieć nie uczy się dobrze zadania dodawania binarnego. Przykład dla sieci rekurencyjnej 11001100 jednostki ukryte 00100110 10100110

  9. Algorytm dodawania binarnego 1 0 0 1 1 1 0 0 no carry print 1 carry print 1 0 0 0 0 1 1 1 0 0 1 1 0 0 1 1 1 no carry print 0 carry print 0 0 0 1 1 0 1 1 0 • Jest to automat skończony (finite state machine FSM). • Decyduje jaki jest następny stan przez analizę następnej kolumny bitów. • Drukuje wynik po przejściu do następnego stanu. • Postępuje od prawej do lewej obydwu wejściowych liczb binarnych.

  10. Siec ma dwa neurony wejściowe i jeden wyjściowy. Siec otrzymuje dwa bity wejściowe w każdej jednostce czasu. Pożądanym wyjściem jest wyjcie dla bitów wejściowych dwie jednostki czasowe wstecz. Jedna jednostka czasu potrzebna jest do uaktualnienia warstwy ukrytej w oparciu o bity wejścia. Druga jednostka czasu potrzebna jest do obliczenia wyjścia przez jednostki ukryte. Siec rekurencyjna dodawania binarnego 0 0 1 1 0 1 0 0 0 1 0 0 1 1 0 1 1 0 0 0 0 0 0 1 czas

  11. 3 jednostki ukryte są w pełni połączone. Pozwala to na użycie aktywności warstwy ukrytej w jednym czasie do obliczenia aktywności warstwy ukrytej w czasie następnym. Jednostki wejściowe maja połączenia wprzód które pozwalają im na obliczanie aktywności warstwy ukrytej w czasie następnym. Binarne opóźnione wyjście 3 w pełni połączone jednostki ukryte 0 1 1 1 . . Binarne dane wejściowe Połączenia w sieci

  12. Czego sieć się uczy? • Sieć uczy się 4 rożnych wzorców aktywności 3 jednostek ukrytych. Te wzorce odpowiadają stanom automatu skończonego (FSM). • Nie mylcie neuronów z węzłami stanów w FSM. • Neurony są wektorami aktywizacji. • Automat może być tylko w jednym określonym stanie w danej chwili. • Jednostki ukryte mogą mięć tylko jeden wektor aktywności w danej chwili. • Sieć rekurencyjna może emulować FSM, ale jest ona ekspotencjalnie bardziej potężna. • Sieć mająca N neuronów ukrytych ma 2N możliwych binarnych wektorów aktywności neuronów ukrytych. • Jest to ważne gdy dane wejściowe mają kilka jednoczesnych oddziaływań. • FSM nie może tego odpowiednio reprezentować.

More Related