1 / 39

Metody Przetwarzania Danych Meteorologicznych Wykład 2

Metody Przetwarzania Danych Meteorologicznych Wykład 2. Krzysztof Markowicz Instytut Geofizyki UW kmark@igf.fuw.edu.pl. Dane meteorologiczne oraz pojecie skali.

marva
Download Presentation

Metody Przetwarzania Danych Meteorologicznych Wykład 2

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Metody Przetwarzania Danych MeteorologicznychWykład 2 Krzysztof Markowicz Instytut Geofizyki UW kmark@igf.fuw.edu.pl

  2. Dane meteorologiczne oraz pojecie skali • Dane mogą mieć charakter ilościowy (np. czasowy przebiegi temperatury ciśnienia) jak i jakościowy (opisywany dyskretnymi liczbami: mgła, deszcz, slaby, umiarkowany, silny, brak, itd.). • Z danymi nierozerwalnie związane jest pojęcie skali • Skala jako zdolność rozdzielcza to najmniejsza odległość pomiędzy punktami przestrzennymi lub czasowymi, które uważamy za różne • Związana jest ona z własnościami fizycznymi przyrządu jak i sposobem przetwarzania danych. • Definiowana jest ona w zależności od sytuacji z jaką mamy do czynienia. Możemy ją określić na kilka sposobów.

  3. Skala wewnętrzna L – wewnętrzna skala przestrzenna pola, f(x) pole fizyczne, Δf – amplituda zmienności pola Skala L może mieć własność izotropową jak i anizotropową. W tym przypadku maksymalna pochodna określa skalę sieci. Tak zdefiniowane pojęcie skali jest stosunkowo rzadko stosowane

  4. W innym podejściu możemy zdefiniować skalę zewnętrzną W tym przypadku skala określona jest przez odległość pomiędzy ekstremami sygnału. Skala w tym przypadku zdefiniowana jest z dokładnością do rzędu wielkości. Skale wykorzystuje się często do oceniany względnych relacji różnych członów równań. Tak zdefiniowana skala nie ma więc ścisłej, jednoznacznej wartości liczbowej, lecz dzięki temu ma bardzo szeroki zakres stosowalności gdyż prawie zawsze łatwo ja odkreślić lub oszacować.

  5. Skale można zdefiniować jako długości fali ( lub okres w przypadku skali czasowej) fourierowskiej składowej pola. • Poza klasycznym rozwinięciem fourierowskim można rozpatrywać rozwinięcia w innej bazie ortogonalnej. • Wszystkie bazy ortogonalne mają bowiem charakter oscylacyjny o gęstości oscylacji rosnącej indeksem. • Skala jest wtedy przypisana do indeksu funkcji wybranej bazie- im wyższy indeks tym mniejsza skala. Tak zdefiniowana skala może mieć określoną wartość liczbową, lecz w praktyce może być trudna do efektywnego wyznaczania.

  6. Aproksymacja • Aproksymacja– zastępowanie jednych wielkości innymi, bliskimi w ściśle sprecyzowanym sensie. W skrócie: przybliżenie jednej wartości za pomocą innych. • Aproksymowaniem funkcji nazywamy przybliżanie jej za pomocą kombinacji liniowej tzw. funkcji bazowych. • Funkcja aproksymująca – przybliżenie zadanej funkcji nie musi przechodzić przez jakieś zadane punkty, tak jak to jest w interpolacji. • Mówi się, że funkcja przybliżająca wygładza daną funkcję (gdy funkcja jest gładka jest różniczkowalna). Przybliżenie takie powoduje pojawienie się błędów, zwanych błędami aproksymacji. Dużą zaletą aproksymacji w stosunku do interpolacji jest to, że aby dobrze przybliżać, funkcja aproksymująca nie musi być wielomianem bardzo dużego stopnia (w ogóle nie musi być wielomianem – interpolacja jest szczególnym przypadkiem aproksymacji).

  7. Przybliżenie w tym wypadku rozumiane jest jako minimalizacja pewnej funkcji błędu. Prawdopodobnie najpopularniejszą miarą tego błędu jest średni błąd kwadratowy, ale możliwe są również inne funkcje błędu, jak choćby średni błąd. • Istnieje wiele sposobów aproksymacji jednymi z najbardziej popularnych są: aproksymacja średniokwadratowa i aproksymacja jednostajna oraz aproksymacja liniowa, gdzie funkcją bazową jest funkcja liniowa. • Całkiem dobrze znaną i stosowaną dosyć szeroko metodą jest także szybka transformata Fouriera. • Bardzo dobrym narzędziem aproksymacyjnym są sieci neuronowe.

  8. Interpolacja • Interpolacja jeden z rodzajów aproksymacji funkcyjnej, polegający na wyznaczaniu w określonym przedziale funkcji y = f(x), która dla konkretnych liczb z danego przedziału przyjmuje z góry zadane wartości • gdy n = 2 (oraz ) f(x) jest funkcją liniową, co prowadzi do tzw. interpolacji liniowej. • Ogólniej funkcja w jest wielomianem interpolacyjnym funkcji fstopnia n jeżeli w n+1 punktach przyjmuje ona wartości takie jak f, oraz jest wielomianem stopnia co najwyżej n. • Interpolacja jest często stosowana gdy dysponuje się skończoną liczbą danych do określenia zależności między wielkościami.

  9. Definicja • Jeśli mamy ciągnróżnych danych xk i dla każdego xkprzyporządkowaną wartość yk, wówczas szukamy funkcji f takiej, aby: • Parę xk, yk nazywamy punktem pomiarowym a funkcję finterpolacją punktów pomiarowych. k=1,2,…,N

  10. W jakim celu wykonujemy interpolację danych? • wizualizacji pola przestrzennego lub czasoprzestrzennego w postaci izolinii lub izopowierzchni • przeniesienia danych analizowanych z nieregularnej na regularną siatkę punktów (taka postać ułatwia analizy numeryczne) • wyznaczenia wartości analizowanego parametru w punkcie dla którego nie ma bezpośrednich danych (np. wyznaczenie wartości parametrów meteorologicznych dla miejscowości, w której nie ma stacji meteorologicznej)

  11. Interpolacja danych z dryfterów

  12. Schemat procedury interpolacyjnej • Mamy N punktów pomiarowych xki wartości obserwacyjne fo(xk) (k=1,2,…,N) • Wybieramy rodzinę funkcji zależnych od M parametrów: u(x,c1,…,cM). • Konkretne wartości parametrów: wybieramy na podstawie wartości obserwacyjnych, w oparciu o pewne przyjęte kryteria dobroci interpolacji. • Otrzymujemy funkcje interpolująca: Rodziny funkcji u wybierać można w różny sposób. Najczęściej stosuje się tzw. rozwinięcia spektralne, tzn. wybiera się pewną bazę funkcyjną i funkcję interpolującą zapisuje w formie kombinacji liniowej funkcji bazowych:

  13. Funkcje bazowe mogą być na przykład funkcjami liniowymi, wielomianowymi, trygonometrycznymi, etc. Szczególnie dogodne bywają bazy ortogonalne na obszarze, na którym stosuje się interpolacje. Często stosuje się funkcje różne od zera jedynie na pojedynczych podobszarach, na które podzielony został obszar poddawany analizie (tzw. elementy skończone). • Szczególną postacią rozwinięcia na funkcje bazowe jest przedstawienie funkcji interpolującej jako kombinacji liniowej wartości obserwowanych: Tworzące w tym przypadku bazę funkcje nazywane funkcjami wagowymi lub po prostu wagami (lub wagami a posteriori) mogą być wybierane lub konstruowane w oparciu o różne kryteria, najczęściej wynikające ze znajomości statystycznych (klimatologicznych) własności analizowanych pól. Zazwyczaj stosuje się funkcje wagowe dążące do zera w miarę oddalania się x do xk.

  14. Niekiedy zakłada się , (kollokacja). Teoretycznie można by również próbować uzależniać funkcje wagowe od wartości obserwowanych (mielibyśmy wtedy reprezentację nieliniową) lecz takie podejście nie znajduje dotąd szerszego zastosowania w praktyce. • Pewnym uogólnieniem powyżej omówionych metod są metody kolejnych przybliżeń, polegające na tym, że ostatecznie przyjmowana funkcja interpolująca jest (teoretycznie) granicą ciągu funkcji interpolujących tworzonych według pewnych określonych procedur. Oczywiście w praktyce jako tę granicę przyjmuje się ostatni z kilku pierwszych wyrazów tego ciągu.

  15. Rodzaje interpolacji • lokalne – wartość funkcji interpolującej w punkcie x zależy od wartości zmierzonych w pewnym bliskim otoczeniu x; W przypadku waga związana z interpolacja spełnia warunek: • globalne – wartość funkcji interpolującej w dowolnym punkcie x zależy się od danych we wszystkich punktach obserwacyjnych • Funkcja interpolująca nie musi w punktach obserwacyjnych być równa wartości tam obserwowanej (choć, jak zobaczymy dalej, w pewnych procedurach interpolacyjnych taki warunek się stawia). Odzwierciedla to w pewnym sensie fakt obciążenia danych obserwacyjnych błędami pomiarowymi i niereprezentatywności.

  16. Określoność zagadnienia interpolacji Określoność zagadnienia interpolacji zależy od stosunku liczby parametrów wyznaczanych do liczby danych pochodzących z obserwacji: • parametrów mniej niż danych – nadokreśloność, • parametrów tyle samo co danych – określoność, • parametrów więcej niż danych – niedookreśloność. • Sytuacja niedookreśloności nie pozwala w zasadzie na jednoznaczne wyznaczenie parametrów szukanej funkcji interpolacyjnej, chyba że zostaną dodane dodatkowe warunki nakładane na parametry, redukujace liczbę niezależnych parametrów do nie większej niż liczba danych. • Z taką sytuacją spotykamy się np. przy interpolacji omawianymi niżej funkcjami sklejanymi (splajnami), gdzie takimi warunkami są żądania ciągłości na granicach sympleksów dzielących analizowany obszar lub przedział. Pozornie sytuacja określoności wydaje się najbardziej pożądaną, gdyż pozwala na pełne wykorzystanie informacji dostarczanej przez obserwacje. • Przy nieodpowiednim wyborze rodziny funkcji użytej do interpolacji może się jednak okazać, że np. funkcja idealnie zgodna z obserwacją w punktach obserwacyjnych, będzie pomiędzy punktami obserwacyjnymi wykazywała zachowania bardzo nierealistyczne, niezgodne ze znanymi właściwościami analizowanego pola.

  17. Przykład takiego zachowania łatwo skonstruować np. w przypadku użycia w charakterze takiej rodziny wielomianów dostatecznie wysokiego rzędu. • Przykład: • Wielomian piątego rzędu przechodzący przez pięć punktów pomiarowych, wykazujący pomiędzy nimi znacznie większy zakres zmienności niż można by oczekiwać na podstawie znajomości fizyki zjawiska. Przy przedstawieniu spektralnym o skali funkcji interpolującej decydują skale użytych funkcji bazowych, dlatego przy wyborze ich liczby należy zachować ostrożność. Np. oscylacje szybkozmiennych funkcji fourierowskich o okresie (lub długości fali w przepadku przestrzennym) krótszym niż odległość pomiędzy punktami pomiarowymi mogą dać nierealistyczny obraz przebiegu funkcji między tymi punktami. Dlatego ogranicza się zwykle liczbę wyrazów rozwinięcia np. w oparciu o tzw. kryterium Nyquista (co najmniej dwa punkty pomiarowe na najkrótszy okres).

  18. Kryteria dobroci interpolacji • Kryteria dobroci interpolacji dostarczają reguł pozwalających wybrać konkretną funkcję interpolującą z rodziny funkcji użytej do interpolacji. • Najczęściej stosowane kryteria możemy podzielić na. • Kollokacyjne • Wariacyjne • Statystyczne

  19. Kryteria kollokacyjne Kryteria kollokacyjne wymagają by w punktach pomiarowych funkcja interpolacyjna przyjmowała wartości równe obserwowanym. Przy ścisłym rozumieniu terminu „interpolacja”, kryterium to powinno być zawsze spełnione. My jednak będziemy ten termin rozumieć szerzej, stosując go również do przypadków, w których to nie zachodzi.

  20. Kryteria wariacyjne • Kryteria wariacyjne mają zazwyczaj charakter globalny i żądają, by funkcja interpolująca minimalizowała (lub maksymalizowała) pewien funkcjonał zależny od wartości obserwowanych (tzw. funkcja kosztu, ang. cost function) ewentualnie z dodatkowymi warunkami. Dodatkowym żądaniem może być np. ograniczenie całki z sumy kwadratów pochodnych funkcji interpolującej, co prowadzi do ograniczenia z dołu skali funkcji interpolującej. • Typowym przykładem kryterium wariacyjnego (któremu w dalszym ciągu poświęcimy więcej uwagi) może być kryterium minimalizacji tzw. błędu kwadratowego (suma kwadratów odchyleń funkcji interpolującej od wartości obserwowanych w punktach obserwacji, winna być minimalna).

  21. Kryteria statystyczne Kryteria statystyczne są odmianą kryteriów wariacyjnych, w których minimalizowany funkcjonał zależy nie od pojedynczego, aktualnie analizowanego zbioru obserwacji, a od całej rodziny takich zbiorów obserwacji wykonanych w tych samych (niekiedy także w innych) punktach, stanowiącej pewną populację w sensie statystycznym. Zwykle chodzi o to, by minimalizować odpowiednio zdefiniowany przeciętny błąd interpolacji w sensie klimatologicznym.

  22. Uzgadnianie pól • W meteorologii często analizuje się kilka pól parametrów fizycznych takich jak temperatura, ciśnienie, wilgotność etc., które są niecałkiem od siebie niezależne, celem użycia ich jako warunków początkowych w numerycznych modelach prognostycznych. • Może się zdarzyć, że po osobnej analizie pola interpolujące nie będą spełniały relacji obecnych pomiędzy ich rzeczywistymi odpowiednikami, co może spowodować np. pojawienie się niestabilności rozwiązań. Dlatego konieczne bywa tzw. uzgodnienie pól (ang. adjustment), zapobiegające takim niepożądanym efektom. • Uzgodnienia dokonuje się różnymi metodami, których będziemy szerzej omawiać na następnych wykładach. Np. jedną z pierwszych prób uzgodnienia pól ciśnienia i wiatru polegała na nałożeniu na rozwiązanie odpowiedniego problemu wariacyjnego warunku geostroficzności, co miało eliminować z rozwiązań prognostycznych tak inicjowanych niestabilne fale grawitacyjne. Metoda ta okazała się jednak nie w pełni skuteczna i obecnie stosuje się techniki bardziej skomplikowane, np. kilkakrotne całkowanie równań prognostycznych “ w przód i w tył” (ze zmianą kierunku czasu), co w niektórych modelach prowadzi do stopniowej wzajemnej adaptacji, początkowo nieuzgodnionych pól.

  23. Przykłady technik interpolacyjnych • Metody interpolacji oparte na kryterium kollokacyjnym • Najczęściej stosowane metody oparte na kryterium kollokacyjnym należą do rodziny metod interpolacji tzw. funkcjami sklejanymi lub z angielskiego “splajnami” (spline). • Polega ona na tym, że punkty pomiarowe traktujemy jako wierzchołki sympleksów (odcinków, trójkątów, czworościanów – w zależności od wymiaru przestrzeni, w której pracujemy) na które dzielimy naszą przestrzeń i wewnątrz każdego sympleksu definiujemy funkcje aproksymującą tak, by w wierzchołkach spełniała kryterium kollokacyjne. • Funkcje z sąsiadujących z sobą sympleksów “sklejamy” tak, by na ścianach dzielących sąsiednie sympleksy zachodziła ciągłość funkcji wraz z pochodnymi do założonego rzędu. • Na funkcje aproksymujące najczęściej wybiera się wielomiany o liczbie zmiennych zależnej od wymiaru przestrzeni, rzędu o jeden większego niż rząd pochodnych, których ciągłość ma być zachowana.

  24. Łatwo zauważyć, że warunki kollokacji + warunki ciągłości pozwalają jednoznacznie określić współczynniki wielomianu dla każdego sympleksu. • Przy rzędzie “zerowym”, który gwarantuje jedynie ciągłość samej funkcji mamy do czynienia z popularną interpolacją przedziałami liniową. • W praktyce meteorologicznej rzadko stosuje sie wielomiany rzędu wyższego niż trzeci, ponieważ w równaniach fizyki atmosfery rzadko występują pochodne rzędu wyższego niż drugi. • Można zauważyć, że interpolacje splajnami to szczególne przypadki rozkładu spektralnego, w którym funkcje bazowe są różne od zera tylko w obszarze przypisanego im sympleksu.

  25. Przykłady - Metoda najmniejszych • Metoda najmniejszych kwadratów jest typowym przykładem metody globalnej z zastosowaniem kryterium wariacyjnego. Minimalizowanym funkcjonałem jest suma kwadratów różnic wartości funkcji interpolacyjnej i wartości obserwowanych w punktach pomiarowych. Najczęściej stosuje się ją do funkcji interpolacyjnych w postaci rozwinięć spektralnych. W takim przypadku, jeżeli: gdzie jest dodawaną czasem tzw. wagą a posteriori, stanowiącą miarę istotności danego punktu obserwacyjnego. Zazwyczaj ustala się ją na podstawie statystycznych rozważań o strukturze błędów występujących w poszczególnych punktach pomiarowych, przypisując mniejszą wagę punktom znanym z gorszej jakości pomiarów.

  26. Różniczkując funkcjonał Jkolejno po wszystkich parametrach cji przyrównując otrzymane wyrażenia do 0 (warunek konieczny dla minimum J): otrzymuje się układ algebraicznych równań liniowych ze względu na ci . Jego rozwiązanie wymaga odwrócenia tzw. macierzy Gramma, czyli macierzy postaci

  27. W pewnych przypadkach na funkcję interpolującą nakłada się dodatkowe żądania i w tym celu odpowiednio modyfikuje się funkcjonał J .Np. żądając by funkcja ta była dostatecznie dużej skali, tzn. by jej pochodne były odpowiednio ograniczone, można J zastąpić funkcjonałem J': oznacza normę gradientu funkcji fAw sensie przestrzeni L2 (tzn. sumę kwadratów współrzędnych gradientu scałkowaną po całym analizowanym obszarze) a γjest pewną, odpowiednio dobraną,

  28. Przykłady - Interpolacje funkcji wektorowych • Czasami trzeba interpolować funkcje odpowiadające - rzeczywistym wektorom (np. prędkości wiatru), - zespołom parametrów opisywanych łącznie (np. wiatr, ciśnienie, temperatura). • Wtedy może mieć sens łączne minimalizowanie funkcjonału dla wszystkich składowych pola oraz narzucenie dodatkowych warunków (ustalenie dodatkowego funkcjonału, określającego warunki zgodności pomiędzy parametrami).

  29. Metody kolejnych przybliżeń (iteracyjne) • Przykładem metody kolejnych przybliżeń może być metoda iteracyjna – SCM (Subsequenced Correction Method), a właściwie cała rodzina tych metod. Ogólna ich postać przedstawia się następująco: • Mamy dane fo(x). • Wybieramy zerową, początkową postać pola foA(x), wynikającą z naszej wiedzy o polu (wynik prognozy, dane klimatyczne). • Wprowadzamy do tej postaci poprawki w sposób iteracyjny: Funkcje wagowe mają często kształt gaussopodobny, z maksimum w punkcie x=xk

  30. Uwagi końcowe • Zastosowanie stanu prognostycznego jako wyjściowego pozwala na obserwację pewnej ciągłości modelu prognostycznego i ma szczególne znaczenie gdy procedura interpolacyjna jest elementem asymilacji nowych danych obserwacyjnych napływających w toku procesu prognozowania. • Modele numeryczne nie odzwierciedlają bowiem atmosfery ściśle, ale mają własną wewnętrzną logikę. Proste wstawienie danych pomiarowych w miejsce prognozowanych doprowadza do zakłócenia logiki modelu i jego załamania (brak wewnętrznej spójności nowych warunków początkowych). Z tego względu jest rzeczą sensowną, żeby nowe warunki początkowe uwzględniały to, co dotychczas model wyprodukował. • Szczególnym przykładem metody SCM jest tzw. algorytm Barnesa zmniejszający skale funkcji wagowych Li z kroku na krok, co pozwala na wyodrębnianie w kolejnych krokach coraz mniejszych struktur.

  31. Metoda Barnes’a i Cressmana’a –metody kolejnych przybliżeń Metoda Barnes (1964) polega na dwustopniowym poprawianiu pola interpolowanego. Jeśli pole obserwacji oznaczymy przez S(xm,ym) wówczas pierwsze przybliżenie w punkcie siatki ma postać: gdzie wm są wagami, dmjest odległością stacji od punktu siatki, R jest promieniem wpływu i określa statystyczną (klimatyczną) własność pola, N jest liczbą stacji.

  32. W wyniku drugiej korekcji pola otrzymujemy:  jest parametrem zbieżności i zmienia się od 0 do 1. Metoda bez parametru  wymaga zazwyczaj znacznie większej liczby iteracji do osiągnięcia zbieżności. Wyznaczenie S1(xm,ym) wymaga użycia ponownie interpolacji. Najczęściej używa się do tego wartość S1g z 4 sąsiednich oczkach siatki i wykorzystuje liniową interpolację.

  33. Przykłady funkcji wagowych

  34. Funkcje wagowe Cressmana Cressman 1959 Zmodyfikowana waga Cressmana

  35. Wybór promienia wpływu • Nie ma jednoznacznej teorii pozwalającej na wybór optymalnej wartości promienia wpływu R. • Zależy ona zarówno od parametru meteorologicznego (inaczej są skorelowane przestrzennie pola temperatury, ciśnienia czy opadów) jak i struktury sieci obserwacyjnej czy też od ukształtowania terenu. • Koch, 1983 zaproponował następujący wybór promienia wpływu: gdzie Δn jest gęstością stacji meteorologicznych, Area – pole powierzchni sieci obserwacyjnej, N - liczba stacji w sieci.

  36. Usłonecznienie na podstawie 3 stacji pomiarowych oraz obliczeń modelowych na podstawie obserwacji satelitarnych zachmurzenia

More Related