1 / 33

Predykcja chaotycznych szeregów czasowych przy pomocy Algorytmów Genetycznych

Predykcja chaotycznych szeregów czasowych przy pomocy Algorytmów Genetycznych. W skrócie. Odległy cel Ambitne założenia Droga do celu Ewoluujące wzorce Karkołomna implementacja Pierwsze wyniki Dalsze problemy i prace. Cel.

ermin
Download Presentation

Predykcja chaotycznych szeregów czasowych przy pomocy Algorytmów Genetycznych

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Predykcja chaotycznych szeregów czasowych przy pomocy AlgorytmówGenetycznych mgr inż.Marcin Borkowski

  2. W skrócie • Odległy cel • Ambitne założenia • Droga do celu • Ewoluujące wzorce • Karkołomna implementacja • Pierwsze wyniki • Dalsze problemy i prace mgr inż.Marcin Borkowski

  3. Cel • Przewidywanie kolejnych wartości liczbowych szeregu czasowego na podstawie wiedzy o jego poprzednich wartościach Zastosować opracowaną metodę w praktyce Zostać bogatym ;-) mgr inż.Marcin Borkowski

  4. Założenia • Sama wartość predykcji nie wystarczy, potrzeba współczynnika zaufania • W trudnych przypadkach system może dać kilka odpowiedzi • Praca i uczenie się systemu są operacjami tożsamymi mgr inż.Marcin Borkowski

  5. Założenia • Predykcja na podstawie nie pełnych danych • Dalszy horyzont predykcji • Uwzględnianie wielu czynników podczas predykcji • Skalowalność mgr inż.Marcin Borkowski

  6. Rozwiązanie ? • Wzorce pamięci mgr inż.Marcin Borkowski

  7. Rozwiązanie ? • Odpytanie wzorca Zk mgr inż.Marcin Borkowski

  8. Rozwiązanie ? • Mała rozbieżność punktów testowych prawdopodobnie pozostaje w korelacji z prawdopodobieństwem prawidłowej predykcji • Na odpowiedź systemu składa się wypadkowa odpowiedzi wszystkich wzorców mgr inż.Marcin Borkowski

  9. Rozwiązanie ? • Odpytanie wzorców Z1-Zn Uczenie mgr inż.Marcin Borkowski

  10. Rozwiązanie ? • Wzorce mało wiarygodne (w danej chwili) nie są brane do predykcji • w razie braku dość dużej liczby wzorców system nie daje odpowiedzi • Skalowanie to podstawa • Pozostaje problem jak zdobyć i utrzymać efektywny zbiór wzorców ? mgr inż.Marcin Borkowski

  11. Rozwiązanie ewolucyjne • Wzorce mogą być osobnikami algorytmu genetycznego lub ewolucyjnego • ale: • nie chodzi o wyszukanie super osobnika, ale o skuteczną populacje. mgr inż.Marcin Borkowski

  12. Rozwiązanie ewolucyjne • Klasyczny napór ewolucyjny zawodzi • Potrzeba nowych metod oceny • Potrzeba nowej metody selekcji • bieżąca nieprzydatność o niczym nie świadczy • Potrzeba prezentacji osobnika mgr inż.Marcin Borkowski

  13. Implementacja • Wzorce przewidujące 1 krok, o stałej ilości segmentów • Reprezentacja binarna (bloki reprezentujące węzły (dystans od bieżącego pomiaru, wartość) • standardowe operatory genetyczne, selekcja ruletkowa ze skalowaniem mgr inż.Marcin Borkowski

  14. Implementacja • Ocena (fitness)kumulacyjna: • jeżeli wzorzec był przydatny i wiarygodny i się sprawdził, jego ocena zwiększa się proporcjonalnie • jeżeli wzorzec mimo wiarygodności okazał się błędny proporcjonalnie traci ocenę • mało wiarygodny wzorzec mało zmienia swoją ocenę mgr inż.Marcin Borkowski

  15. 1’sze wyniki • Początkowa populacja była losowa i algorytm musiał się nauczyć wzorców • Katastroficzne zapominanie • Zbyt silne dominowanie super osobników nad populacją mgr inż.Marcin Borkowski

  16. 1’sze wyniki • Pozytywne (sprawdzone na drodze oszustwa) • udało się wypracować skuteczne skalowanie • udało się ze zbioru wyników wydobyć poprawne odpowiedzi mgr inż.Marcin Borkowski

  17. Dalsze prace • Reasumując • brak sprawnej metody naboru do nowej populacji (metody oceny) • brak efektywnej prezentacji wzorca • i wiele dalszych prac mgr inż.Marcin Borkowski

  18. EtapII • Reprezentacja bitowa pozostaje • Zmieniono zasady naboru i oceny • Zmieniono operatory • Dodano czynnik ścisku – algorytmy niszowe • Tymczasowa eliminacja skalowania, dane z zakresu <-1,1> mgr inż.Marcin Borkowski

  19. EtapII • Nabór „rankingowy” inspirowany lepszymi niż nabór ruletkowy • Osobniki przed naborem są sortowane według przydatności • Podczas krzyżowania i mutacji powstające nowe osobniki są umieszczane na początku populacji (zastępują najsłabszych) mgr inż.Marcin Borkowski

  20. EtapII • Operator krzyżowania zostawia w populacji oboje rodziców, dzieci są umieszczane na początku populacji • Operator mutacji zostawia oryginał, nowy osobnik z maksimum 1 mutacją jest przenoszony na początek populacji mgr inż.Marcin Borkowski

  21. EtapII • Ocena osobnika • Każdy osobnik ma pewną długość n, pozwala to korzystając z dostępnych danych (seria N odczytów) sprawdzić N-n dopasowań. • Tylko dopasowania powyżej zadanego pułapu są uśredniane i uznawane za ocenę osobnika mgr inż.Marcin Borkowski

  22. EtapII • Czynnik ścisku • Uniemożliwia superosobnikom zdominowanie populacji • Pozwala utrzymać w populacji wiele efektywnych, wysoko ocenianych osobnikow mgr inż.Marcin Borkowski

  23. EtapII • Czynnik ścisku • Dla każdych 2 osobników w populacji wyliczany jest „dystans” • Jeżeli 2 osobniki są dość podobne (decyduje parametr) słabszy z nich zwiększa swój czynnik ścisku • Współczynniki ścisku dzielą wartość dopasowania mgr inż.Marcin Borkowski

  24. EtapII • Czynnik ścisku • Odległość początkowo jako dystans Haminga • Różnica jednego bitu oznacza czasem dużą różnice we wzorcu! • Podobieństwo fizyczne wzorców pod rozkodowaniu chromosomu • Fizycznie niepodobne dopasowania mogą mieć zastosowania w podobnych przypadkach, jednak nie podlegają ściskowi! mgr inż.Marcin Borkowski

  25. EtapII Prezentacja wyników testowych mgr inż.Marcin Borkowski

  26. EtapIII • Nowe zastosowanie • Data Fitting • Zmiana reprezentacji chromosomu • Zmiana metody oceny • Zmiana metody predykcji • Zmiana metody liczenia dystansu mgr inż.Marcin Borkowski

  27. EtapIII • Nowe zastosowanie • Wzorce można dopasowywać również wewnątrz szeregu i uzupełniać w ten sposób braki • Pokrywa to też poprzednie podejście predykcyjne • Umożliwia predykcje na kilka kroków w przód mgr inż.Marcin Borkowski

  28. EtapIII • Zmiana reprezentacji chromosomu • Dotychczasowa wartość predykcji staje się ustalonym węzłem zero • Węzły są poprzesuwane o jeden dalej w kierunku starszych danych • Więcej osobników może teraz brać udział w predykcji mgr inż.Marcin Borkowski

  29. EtapIII • Zmiana metody oceny • Podczas oceniania osobników pojawia się problem braku w danych • dla każdego węzła predykcji, któremu brakuje danej zakłada się maksymalne niedopasowanie • Do oceny brane są dopasowania tylko powyżej i równe średniej z danych (wyeliminowało to parametr) mgr inż.Marcin Borkowski

  30. EtapIII • Zmiana metody predykcji • Każdy osobnik (dopasowanie) jest przypasowywane każdym węzłem do brakującej danej • Czyli każdy węzeł może stanowić o wartości predykcji, lub być jak poprzednio uwzględniany przy dopasowaniu mgr inż.Marcin Borkowski

  31. EtapIII • Zmiana metody liczenia dystansu • Istotne dla dłuższych dopasowań o malej ilości węzłów • Porównuje się podobieństwo cząstkowych dopasowań (ocen) na danych uczących • Pozwala to uznać za podobne zupełnie różne fizycznie osobniki ! mgr inż.Marcin Borkowski

  32. EtapIII Prezentacja wyników testowych mgr inż.Marcin Borkowski

  33. Dziękuje za uwagę mgr inż.Marcin Borkowski

More Related