Fizyczne Podstawy Teledetekcji Wykład 5 - PowerPoint PPT Presentation

fizyczne podstawy teledetekcji wyk ad 5 n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
Fizyczne Podstawy Teledetekcji Wykład 5 PowerPoint Presentation
Download Presentation
Fizyczne Podstawy Teledetekcji Wykład 5

play fullscreen
1 / 56
Fizyczne Podstawy Teledetekcji Wykład 5
204 Views
Download Presentation
claudia-kidd
Download Presentation

Fizyczne Podstawy Teledetekcji Wykład 5

- - - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript

  1. Fizyczne Podstawy TeledetekcjiWykład 5 Krzysztof Markowicz Instytut Geofizyki Uniwersytet Warszawski kmark@igf.fuw.edu.pl

  2. Orbity sztucznych satelitów siłą grawitacji Fod siłą odśrodkowa v Fg równowaga sił prędkość na orbicie M-masa Ziemi, m- masa satelity, r promień orbity, G stała grawitacji 6.67x10-11 m3km-1s-2

  3. Geostacjonarne, satelita obiega oś obrotu Ziemie w takim samym czasie jak Ziemie obraca się wokół własnej osi. T jest okresem obiegu Ziemi wokół własnej osi =7.3x10-51/s , g=9.81 m/s2 r=42400 km R=6378 km H=36000 km wysokość orbity nad powierzchnie Ziemi 3

  4. 4

  5. Satelity Polarne LEO- orbity niskie (Low Level Earth observatory) Orbita równikowa Orbita polarna Orbita skośna Satelity są często zsynchronizowane ze Słońcem, co oznacza, że orbita satelity pozostaje nieruchoma względem Słońca. Powoduje to, iż przelot satelity po stronie dziennej kuli ziemskiej występuje nad punktem gdzie Słońce właśnie góruje. 5

  6. 6

  7. Parametry orbity LEO Inklinacja- kąt pomiędzy płaszczyzna równika a płaszczyzną zawierającą orbitę satelity Przykłady: EOS TERRA: 98.2o Topem/Posejdon 66o Parametry chwilowe satelity: Kat zenitalny i azymutalny satelity Kąt zenitalny o azymutalny Słońca 7

  8. 8

  9. Wznoszenie i opadanie satelity 9

  10. Parametry przyrządów teledetekcyjnych Rozdzielczość przestrzenna – typowe wartość zmieniają się od kilku metrów do kilkudziesięciu kilometrów Zależy ona od kąta widzenia detektora  (FOV), wysokości satelity nad powierzchnią ziemi oraz kąta zenitalnego satelity. D średnica koła na powierzchni Ziemi, skanowanej z wysokości H. Przykład: kąt widzenia =2 mrad, wysokość H=2000m, D= 2x10-3 rad*2000m=4m. 10

  11. gdzie H jest wysokością satelity nad powierzchnia ziemi. Przykład 1 f=1m H=800km X=5.6m wielkość obrazu x wynosi 7 m. X x P P’ Obraz powierzchni ziemi rejestrowany przez detektory satelitarne 11

  12. Wpływ dyfrakcji na ograniczenia przestrzenne warunek dyfrakcyjny (obszar plamki dyfrakcyjnej) ma postać gdzie D jest średnicą szczeliny (apertura) Przykład : =0.5 m stąd D7 cm =10 m stąd D1.4 m 12

  13. Rozdzielczość spektralna: Szeroko-pasmowa (promieniowanie krótkofalowe, długofalowe) Wąsko-pasmowa (=10-100) Spektralna (pojedyncze nanometry) oraz hiperspektralna (ułamki nanometrów) 13

  14. Rozdzielczość czasowa zmienia się od godzin do 20 dni. 14

  15. Typy skanów wykonywanych przez detektory: Poprzeczny (Cross track) Podłużny (Along track) Wirowy (Spin skaner) 15

  16. Cechy charakterystyczne: •Sukcesywna rejestracja całych linii zorientowanych pod kątem prostym do linii lotu urządzenia skanującego • Linijka detektorów zawiera układy CCD • Każdy detektor jest przeznaczony do wychwytywania energii z jednej komórki rozdzielczości terenowej (piksel) wzdłuż danej linii skanowania • Każde pasmo spektralne wymaga swojego własnego liniowego układu detektorów; • Układy te są umieszczone w płaszczyźnie obrazowej skanera • Wszystkie linie skanowania są widziane przez system optyczny jednocześnie.

  17. Zalety liniowego układu detektorów w stosunku do systemu punktowego ze zwierciadłem skanującym. • Dłuższy czas „przebywania detektora” w danym obszarze przestrzennym. • Silniejszy sygnał i większy zasięg w poziomie sygnału. • Lepsza rozdzielczość przestrzenna • Mniejszy rozmiar urządzenia • Wymaga mniejszej energii (oświetlenia) do działania. Wady. Konieczność kalibracji dużo większej liczby detektorów Stosunkowo ograniczona czułość spektralna

  18. Konsekwencje małego i dużego pola widzenia FOV Małe FOV • duża rozdzielczość przestrzenna (szczegółowość) • niska czułość na warunki oświetleniowe. Duże FOV • wyższy poziom sygnału • gorsza rozdzielczość przestrzenna • lepsza rozdzielczość spektralna ze względu na wyższą wartość energii.

  19. AQUA: MODIS detektor 19

  20. TERRA – CERES detektor 20

  21. Detektor MISR 21

  22. Skanowanie z satelity geostacjonarnego MSG2

  23. Typy detektorów satelitarnych 23

  24. Fotografia • fotografia tradycyjna tzw. fotografia analogowa – oparta na chemii światłoczułych związków srebra, która dzieli się na fotografię monochromatyczną i fotografię barwną. Materiały fotograficzne produkowane są w postaci klisz ciętych (do aparatów wielkoformatowych - fotografia wielkoformatowa), błon (filmów) perforowanych (do aparatów małoobrazkowych), błon zwojowych najczęściej o szerokości 60mm (do aparatów średnioformatowych). • fotografia cyfrowa – gdzie rejestracja obrazu odbywa się nie na materiale światłoczułym ale na urządzeniu optoelektronicznym zwanym matrycą (np. w układzie CCD, CMOS) zamontowaną w aparacie cyfrowym.

  25. Fotografia monochromatyczna

  26. Detektory promieniowania 29

  27. Matryce CCD (Charge Coupled Device) • To układ wielu elementów światłoczułych, z których każdy rejestruje, a następnie pozwala odczytać sygnał elektryczny proporcjonalny do ilości padającego na niego promieniowania. • W cyfrowych aparatach fotograficznych najczęściej stosowane są filtry barwne, dające możliwość rejestracji natężenia określonej szerokości spektrum światła w danym punkcie matrycy. 33

  28. Pierwszy egzemplarz CCD został zbudowany w 1969 roku, przez dwóch naukowców: Willarda S. Boyle'a i George E. Smitha z Bell Telephone Laboratories. Szukali oni nowego sposobu rejestracji obrazu, który miał znaleźć zastosowanie w projektowanym wideotelefonie. Urządzenie miało być tanie a jego technologia oparta na krzemie. Pierwsza kamera złożona była z ośmiu pikseli ułożonych w jeden rząd. Większy model o rozmiarach 100x100 pikseli powstał dopiero w 1973. Matryce te na początku były rozwijane przez naukowców w celach badawczych, a dokładniej w celu obserwacji kosmosu. Jak zwykle duży udział miał w tym rząd amerykański, a szczególnie NASA. 34

  29. Zasada działania matryc CCD Kiedy foton uderzy w atom, może spowodować przeskoczenie elektronu na wyższą powłokę, a w niektórych przypadkach uwolnienie nośnika ładunku (dziur lub elektronów, w zależności od użytego materiału półprzewodnikowego) – jest to tzw. efekt fotoelektryczny wewnętrzny. Kiedy powierzchnia matrycy CCD jest oświetlona, uwolnione zostają nośniki, które gromadzą się w kondensatorach. Nośniki te zostają przesunięte w miarowych impulsach elektrycznych oraz zostają "przeliczone" przez obwód, który wyłapuje nośniki z każdego elementu światłoczułego, przekazuje je do kondensatorów, mierzy, wzmacnia napięcie i ponownie opróżnia kondensatory. 35

  30. Ilość nośników zebranych w ten sposób w pewnym przedziale czasu zależy od natężenia światła. W efekcie otrzymujemy dla każdego elementu światłoczułego informację o wartości natężenia padającego na nie światła, czyli w praktyce informację o jasności obserwowanej w danym punkcie barwy. 36

  31. RGB Jeden z modeli przestrzeni barw, opisywanej współrzędnymi RGB. Jego nazwa powstała ze złożenia pierwszych liter angielskich nazw barw: R – red (czerwonej), G – green (zielonej) i B – blue (niebieskiej), z których model ten się składa. RGB odpowiada długością fali elektromagnetycznej odpowiednio około 450, 550, 650 nm. Jest to model wynikający z właściwości odbiorczych ludzkiego oka, w którym wrażenie widzenia dowolnej barwy można wywołać przez zmieszanie w ustalonych proporcjach trzech wiązek światła o barwie czerwonej, zielonej i niebieskiej. 37

  32. 38

  33. Rejestracja barw w CCD Zazwyczaj poszczególne elementy matrycy mierzą ilość światła dla jednej ze składowych RGB, dlatego też na każdy piksel wynikowego obrazu w postaci bitmapy przypada pomiar z kompletu elementów światłoczułych. Jest to realizowane poprzez zastosowanie 3 różnych filtrów (Bayer filter) wycinających promieniowania. W ten sposób, że na element CCD mierzący R pada tylko promieniowanie z tego zakresu. Podobnie na G i B. 39

  34. W 2002 r. firma Foveon opracowała matrycę X3, która potrafi zarejestrować każdą z trzech składowych koloru w każdym punkcie. Obecnie nie jest jednak ona szeroko wykorzystywana. 40

  35. 3CCD Przetwornik odpowiedzialny za pobieranie obrazu, używany w video kamerach. W odróżnieniu od CCD, przy pobieraniu obrazu korzysta nie z jednej, ale z trzech oddzielnych matryc CCD. Światło w tym przetworniku pada na pryzmat gdzie ulega rozszczepieniu a następnie pada na trzy matryce CCD, które mierzą składowe R G i B. 41

  36. Matryce CMOS (Complementary Metal Oxide Semiconductor) Matryca składa się z milionów elementów o następującej budowie: • elementu światłoczułego, działającego na zasadzie fotodiody. • wzmacniacza sygnału. • przetwornika analogowo-cyfrowego. • mikrosoczewki, której zadaniem jest skupienie światła na elemencie światłoczułym. • filtru barwnego odpowiadającego za fakt, że piksel jest czuły tylko na pewne spektrum światła. Najczęściej stosowana siatka filtrów Bayera. 42

  37. Zalety CMOS małe zakłócenia w przesyłaniu danych, w związku z małą odległością fotodioda-przetwornik A/C. niski koszt produkcji, wynika to z tego że matryce można produkować na maszynach wykonujących inne elementy w technologii CMOS. niski pobór mocy (cecha wszystkich układów w technologii CMOS) szybki odczyt (bez potrzeby zaciemnienia matrycy jak ma to miejsce w CCD) łatwe resetowanie, (elektroniczna migawka) możliwość odczytu wybranych pikseli (wykorzystywane przy ustawianiu ostrości) 43

  38. Wady CMOS mniejsza światłoczułość w porównaniu z CCD. Część matrycy nie jest światłoczuła (tam gdzie są przetworniki), oraz fotodiody wykonane w technologii CMOS też wykazują mniejszą światłoczułość. większy prąd ciemny (zakłócenia własne pojawiające się szczególnie przy długich czasach naświetlania) ponieważ każdy piksel ma własny wzmacniacz, ciężko jest utrzymać reżim jakościowy każdego wzmacniacza, co powoduje, że każdy piksel wskazuje trochę inne parametry przy tym samym oświetleniu. Powoduje to utrudnienia w procesie ujednolicania odczytu. 44

  39. Detektory w dalekiej podczerwieni (podczerwień termalna) • efekt termoelektryczny, • termorezystancja (bolometry), • efekt piroelektryczny (pirometry), • detektory pneumatyczne

  40. Materiału używane do detektorów termalnych Antymonek indu 3-5 µm Arsenek indu Tellurk kadmu i rtęci (1-2 μm, 3-5 μm, 8-12 μm) siarczek ołowiu selenek cynku rtęć-german 3-14 μm Detektory na ogół musza być silnie chłodzone gdyż same są źródłem promieniowania termalnego. 46

  41. Detektory termowizyjne: • matryce FPA mikroboometrów (ang. Focal Plane Array); wymaga niewielkiego schłodzenia, np. chłodziarką Peltiera, • matryce z półprzewodnika: tellurek kadmowo-rtęciowy HgCdTe (CMT lub MCT), wymaga chłodzenia (ok. 80K), • matryce detektorów ze „studniami kwantowymi” z GaAs i AlGaAs • (QWIP – Quantum Well Infrared Photodetector); wymagają chłodzenia kriogenicznego, • matryce detektorów piroelektrycznych (najtańsze niechłodzone detektory).