1 / 38

Zeitreihenanalyse

6. Zeitreihenanalyse. 6.1 Auto- und Kreuzkorrelation 6.2 Filtertechniken 6.3 Harmonische Analyse 6.4 Spektralanalyse. 6.1. Zeitreihen sind Datenkollektive, deren Bezugseinheiten Zeitpunkte oder Zeiträume sind: Eigenschaften von Zeitreihen:

barbra
Download Presentation

Zeitreihenanalyse

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 6 Zeitreihenanalyse 6.1 Auto- und Kreuzkorrelation 6.2 Filtertechniken 6.3 Harmonische Analyse 6.4 Spektralanalyse

  2. 6.1 • Zeitreihen sind Datenkollektive, deren Bezugseinheiten Zeitpunkte oder Zeiträume sind: • Eigenschaften von Zeitreihen: - deterministische Abhängigkeit: linearer oder zyklischer Trend, d.h. benachbarte Werte unterscheiden sich um annähernd festen Be- trag (plus geringe Zufallsabweichung) - stochastische Abhängigkeit: benachbarte Wer- te sind ähnlich oder gegensätzlich ähnlich - stochastische Unabhängigkeit: nachfolgender Wert ist unabhängig vom vorherigen Wert • stochastische Abhängigkeiten sind Stör- faktoren in der Korrelationsanalyse und Test- statistik • stochastische Abhängigkeiten sind aber auch ein Kennzeichen des zugrunde liegen- den Prozesses Auto- und Kreuzkorrelation

  3. 6.1 • in der Natur weisen viel Prozesse stochastische Abhängigkeiten zwischen zeitlich oder räumlich benachbarten Objekten auf: - stochastische Abhängigkeiten in Zeit und Raum - über Transfer von Masse, Energie oder Information - Zustand eines Objektes jedoch nicht exakt aus dem Zustand der Nachbarn zu bestimmen (deterministisch), sondern nur mit gewisser (hoher) Wahrschein- lichkeit (stochastisch) - Wiederholbarkeit eines solchen Prozesses ist nie exakt gegeben • Beispiel Kernspaltung von 235U: - ein Neutron reicht aus, um bei einer kritischen Masse von Uran eine Ketten- reaktion hervorzurufen, die zur Spaltung aller Atomkerne von 235U führt - Zustand eines U-Atoms abhängig von Zuständen der Nachbarn - Prozess besitzt starke Erhaltungsneigung ohne weitere äußere Einwirkung Auto- und Kreuzkorrelation radioaktive Strahlung

  4. 6.1 • exogene Steuerung von stochastischen Prozessen: - externe Faktoren wirken einmalig oder kontinuierlich ein: Forcing - mit Regressionsanalyse statistisch zu beschreiben - z.B. Neutronenbeschuss bei Kernspaltung, Binnenwanderungssaldo und Siedlungsstruktur, … • endogene Steuerung von stochastischen Prozessen: - Entwicklung des Prozesses innerhalb des Systems durch interne system- immanente Wechselwirkungen - z.B. Kettenreaktion bei Kernspaltung, Rückkopplungen im Klimasystem bei erhöhtem CO2-Gehalt - Tendenzen und Zustände zeitlich oder räumlich benachbarter Objekte setzen sich fort: Erhaltungsneigung - statistische Beschreibung der Erhaltungsneigung ist die stochastische Ab- hängigkeit • Prozesse mit Erhaltungsneigung in der Geographie: - räumlich: Regionalisierungen (z.B. Entwicklungs- vs. Industrieländer) - zeitlich: typische Ausprägungen (z.B. KLINO: Mittelwerte über 30 a) - stochastische Unabhängigkeit: Untersuchungen von Individuen (z.B. Einzel- handelsforschung) Auto- und Kreuzkorrelation

  5. 6.1 • Grundvoraussetzung für die Zeitreihenanalyse ist Stationariät: - Mittelwerte der Variablen X(ti) sind identisch für alle ti - Varianzen der Variablen X(ti) sind identisch für alle ti - in der Praxis schwer zu überprüfen, da meist nur ein Wert pro Zeiteinheit gegeben (Zeitreihendefinition) - graphische Darstellung liefert ersten Hinweis, aber nicht immer eindeutig: Auto- und Kreuzkorrelation instationäre Zeitreihe stationäre Zeitreihe • Erhaltungsneigung kann auch über mehrere Zeitschritte andauern: - i.d.R. singt die Erhaltungsneigung mit Vergrößerung des Zeitschrittes - maximale Zeitschrittweite m mit signifi- kantem Einfluss von x(ti-m) auf x(ti) kenn- zeichnet die Länge des zeitlichen Ge- dächtnisses mX1 < mX2

  6. 6.1 • Autokorrelationsfunktion: - misst Stärke und Art der Erhaltungsneigung für variable Zeitverschiebungen τ - in stationären Zeitreihen ist die Kovarianz zwischen den Variablen X(ti) und X(ti+k) nur abhängig vom Zeitschritt k und somit ein Maß für die stochastische Abhängigkeit innerhalb der Zeitreihe - die normierte Kovarianz wird definiert als Autokorrelationsfunktion: - bei Stationarität der Zeitreihe zu schätzen aus Verschiebung der Zeitreihe gegen sich selbst um Zeitschrittweite k: - für k = 0 gilt: Auto- und Kreuzkorrelation k = 0

  7. 6.1 • Autokorrelationsfunktion: - in der Praxis sind Mittelwerte und Varianzen der Variablen X[k] und X(k) nicht exakt identisch - deshalb wird rk in Analogie zum Korrelationskoeffizient nach Pearson meist wie folgt geschätzt: - unter der Nullhypothese H0 : ρk = 0 , k = 1 .. q ist die folgende Prüfgröße approximativ standardnormalverteilt bei n–k > 30: - Standardfehler von rk wird geschätzt durch: - Länge des Gedächtnisses also definiert durch maximale Schrittweite m mit statistisch signifikantem Autokorrelationskoeffizienten rm - identische Vorgehensweise für räumliche Autokorrelation, aber 3-dimensional Auto- und Kreuzkorrelation

  8. 6.1 • Autokorrelationsfunktion: - Beispielzeitreihen: - Autokorrelationskoeffizienten bis k = 10: - Signifikanztest für Zeitreihe (d) bis k = 3 (zα=5% = 1,96): Auto- und Kreuzkorrelation Test wegen Zeitreiheninstationarität nicht aussagekräftig

  9. 6.1 • Autokorrelationsfunktion: - Autokorrelationsfunktionen der Beispielzeitreihen Auto- und Kreuzkorrelation Originalzeitreihen Autokorrelationsfunktionen a) linearer Trend bewirkt durchweg hohe rk b) rk zeichnet Periodizität nach (λ = 12 Zeiteinheiten) c) stark abfallende rk d) alternierende rk kenn- zeichnet hochfrequenten Zyklus e) weißes Rauschen weist keinerlei Erhaltungsneigung auf

  10. 6.1 • Interpretation der Autokorrelationsfunktion: - Autokorrelationskoeffizienten rk formal auf alle Zeitreihen anzuwenden - inhaltliche Interpretation als Erhaltungsneigung aber abhängig von der zugrunde liegenden Theorie des Prozesses: - wegen der sukzessiven Verringerung der Freiheitsgrade mit k werden für rk nur Schrittweiten bis betrachtet - insbesondere lineare Trends und Trends höherer Ordnung verzerren die Auto- korrelationsfunktion - wenn diese Trends extrahiert werden (Hochpassfilterung), kommt stocha- stische Abhängigkeit u.U. im Trendresiduum zum Vorschein Auto- und Kreuzkorrelation hoher rk-Wert aus stündlichen Pegelständen  inhaltlich als Erhaltungsneigung zu interpretieren hoher rk-Wert aus Pegelständen jeweils zum 1. eines Monats  keine inhaltliche Interpretation sinnvoll

  11. 6.1 • Bedeutung der Autokorrelationsfunktion für den Zusammenhang zwischen ZVA: - Korrelation zwischen zwei ZVA kann maßgeblich bedingt sein durch gleich- gerichtete (r > 0) oder entgegen gesetzte (r < 0) Instationaritäten, die auf von einander unabhängige Prozesse zurückzuführen sind - 1. Möglichkeit: Trend extrahieren und dann Korrelationskoeffizient berechnen: - 2. Möglichkeit: beim Test des Korrelationskoeffizienten die durch die Autokorrelation redu- zierte Anzahl der Freiheitsgrade berücksichtigen: mit: Auto- und Kreuzkorrelation Natalität und Verstädterung Originalteitreihen r = -0,92 linearer Trend abgezogen r = 0,25

  12. 6.1 • Kreuzkorrelationsfunktion: - Einfluss und Wirkung zwischen Prozessen muss nicht zwangsläufig instantan erfolgen - es sind auch Reaktionszeiten (“Lags“) denkbar, die durch eine Verschiebung der Zeitreihen zweier ZVA X und Y gegeneinander erfasst werden können: - analog zur Autokorrelation berechnet sich die Kreuzkorrelationsfunktion zu: - im Gegensatz zur Autokorrelation ist auch die Berücksichtigung von negativen Zeitverschiebungen sinnvoll: Auto- und Kreuzkorrelation Kreuzkorrelations- funktion is häufig asymmetrisch } k > 0 : Einfluss von X auf Y k < 0 : Einfluss von Y auf X

  13. 6.1 • Interpretation der Kreuzkorrelationsfunktion: - Interpretation wieder nur sinnvoll, wenn Theorien über den zugrunde liegen- den Prozess vorhanden sind - für k = 0 entspricht ck dem Korrelationskoeffizient nach Pearson - maximale Zeitverschiebung wieder nur bis: - Instationaritäten (Trends) bewirken auch Verzerrungen in der Kreuzkorrela- tion, was wieder durch Trendextraktion (Hochpassfilterung) zu verhindern ist: - bei der Kreuzkorrelation wird nicht gefordert, dass die Variablen X und Y die gleiche räumliche Bezugseinheit besitzen: Telekonnexion - d.h. X und Y können auch die gleiche Variable in unterschiedlichen Raumein- heiten repräsentieren Auto- und Kreuzkorrelation Natalität und Verstädterung: - bei Originalzeitreihen Kreuz- korrelation nur über Trend - nach Trendextraktion wird Reaktionszeit der Natalität auf Verstädterung von 4-6 Jahren sichtbar - andersherum (k < 0) keine sinnvolle inhaltliche Inter- pretation möglich

  14. 6.1 • Interpretation der Kreuzkorrelationsfunktion: - Indikator für positive und negative Rückkopplungen zwischen Systemkompo- nenten: - entsprechende Kreuzkorrelationsfunktionen mit / ohne Vorzeichenwechsel: Auto- und Kreuzkorrelation positive Rückkopplung: Destabilisierung, nichtlineares Fehlerwachstum negative Rückkopplung: Stabilisierung, Dämpfung O+ A+ O- A- ck positive Rückkopplung: ck ohne Vorzeichenwechsel für negative und positive k negative Rückkopplung: ck mit Vorzeichenwechsel für negative und positive k +1,0 +0,5 -0,5 -1,0 k -6 -5 -4 -3 -2 -1 1 2 3 4 5 6

  15. 6.2 • Zeitreihen (oder räumliche Daten) setzen sich aus Varianzanteilen mit unterschiedlichen Zeitskalen / Raumskalen (Perioden, Frequenzen) zusam-men: - ausgelöst durch überlagerte Einflussfaktoren (Kenntnis des zugrunde liegen- den Prozesses): - für manche Fragestellungen interessiert nicht die Gesamtvarianz der Zeit- reihe, sondern nur bestimmter Varianzanteil auf dezidierten Zeitskalen: Filtertechniken Temperaturzeitreihe Würzburg CO2-bedingter Erwär- mungstrend Temperatur Jahresgang der Sonne Tagesgang der Sonne Zeit nur lange Zeitskalen (tiefe Frequenzen) : Tiefpassfilterung nur kurze Zeitskalen (hohe Frequenzen) : Hochpassfilterung Zeitskalen in einem nach oben und un- ten begrenzten Bereich (Frequenzband) : Bandpassfilterung

  16. 6.2 • Filterfunktionen R(f) / R(T): f = Frequenz T = Periode Filterfunktion im Varianzspektrum: Resultierende Zeitreihe: Filtertechniken Originalzeitreihe mit kompletter Varianz alle Frequenzen / Perioden kommen durch hohe Frequenzen / kurze Perioden werden herausge- filtert tiefpassgefilterte Zeitreihe tiefe Frequenzen / lange Perioden werden herausge- filtert hochpassgefilterte Zeitreihe besonders hohe und tiefe Frequenzen / kurze und lange Perioden werden herausgefiltert bandpassgefilterte Zeitreihe

  17. 6.2 • Tiefpassfilterung: - einfachste Form der Tiefpassfilterung ist übergreifende Mittelung (“running mean“, gleitendes Mittel): - statt des festen Vorfaktors (2∙m+1)-1 können auch Filtergewichte wk in Abhän- gigkeit von k verwendet werden, die eine geglättete gefilterte Zeitreihe erzeugen: Filtertechniken übergreifende Mittelung Gaußsche Filterung

  18. 6.2 • Tiefpassfilterung: - Gaußsche Filtergewichte: - eigentlich unendliche viele Gewichte, aber meist Abbruch bei: - Gaußsche Filtergewichte für unter- schiedliche Perioden T*: - w0 heißt auch Zentralgewicht - z.B. Herausfilterung der Varianz unterhalb von 9 Zeitschritten (m=4): Filtertechniken

  19. 6.2 • Tiefpassfilterung: - statt Gaußschen Filtergewichten auch Binomialkoeffizienten b aus dem Pascalschen Dreieck möglich: Binomialfilterung - häufig sollen auch nur die Instationaritäten herausgearbeitet werden: Trend- polynom 1. oder höherer Ordnung • Eigenschaften der Tiefpassfilterung: - symmetrische Filtergewichte stellen sicher, dass keine Phasenverschiebun- gen auftreten - Normierung auf 1 erhält die Mittelwerte der Zeitintervalle [i-m, .., i+m] - gefilterte Zeitreihe ist an beiden Seiten um jeweils m Daten verkürzt Filtertechniken wieder auf 1 normieren:

  20. 6.2 • Hochpassfilterung: - einfach durch Subtraktion der tiefpassgefilterten Zeitreihe von der Originalzeit- reihe: - dabei bleibt allerdings der Mittelwert der Zeitreihe nicht erhalten - falls dies unerwünscht ist, einfach Gesamtmittelwert wieder aufaddieren: - häufig sollen nur die Instationaritäten der Zeitreihe eliminiert werden: Trend- polynom k-ter Ordnung abziehen: Filtertechniken mit: ti = Zeitpunkte

  21. 6.2 • Bandpassfilter: - einfachster Ansatz ist doppelte Tiefpassfilterung und anschließende Subtrak- tion der resultierenden Zeitreihen: - dabei muss zwingend m1 < m2 gelten, d.h. m2 bewirkt die stärkere Glättung - unbefriedigend, da kein spektraler Bereich im Zentrum des herausge- arbeiteten Frequenzbandes unver- ändert bleibt - bessere Methoden arbeiten mit trigonometrischen Funktionen (s. Schönwiese 1992) Filtertechniken ai 1. Schritt ai 2. Schritt ãim1 ãim2 3. Schritt äim1,m2 = ãim1 – ãim2 + ā

  22. 6.3 • jede stetige, unendliche Zeitreihe a(t) kann durch Superposition von Sinus- und Cosinusfunktionen der Teilperioden Pireproduziert werden: - Berechnung der trigonometrischen Funktionen heißt harmonische Analyse, wenn die i natürliche Zahlen sind - bei exakt periodischen Zeitreihen reicht eine endliche Zahl von trigonometri- schen Funktionen: - bei nicht exakt periodischen Zeitreihen unendliche Reihe bzw. nur annähernd reproduzierbar Harmonische Analyse Beobachtungsdaten (Punkte) lassen sich in diesem Fall bereits durch Superposition von 2 Sinus- funktionen beschreiben

  23. 6.3 • Fourier-Analyse: - Rechenverfahren zur Bestimmung der Sinus- und Cosinusfunktionen heißt Fourier-Analyse - Reihe der Funktionen heißt Fourier-Reihe (im Bogenmaß): - Ai und Bi sind die Fourier- Koeffizienten: Harmonische Analyse Ai und Bi werden groß, wenn sin und cos einen guten Fit an Zeitreihe a(t) darstellen mit größerem i erhöht sich Frequenz der sin/cos-Funktionen: sin(2∙ω∙t) sin(1∙ω∙t) 2π

  24. 6.3 • Zeitreihen in den Geowissenschaften: - liegen in diskreter Form vor: aj(tj) - umfassen endliches Zeitintervall: L=n∙Δt - fast nie exakt periodisch • Fourier-Bessel-Entwicklung: - angenäherte harmonische Analyse - nur auf bekannte deterministische Zyklen anzuwenden: Tagesgang, Jahresgang - Entwicklung für i = 1 .. N Stützwerte der Periode T (im Gradmaß): - Anzahl der Teilschwingungen Pi von T (“Harmonische“) ist N/2: Harmonische Analyse Pmin = 2 ∙ Δt Pmax = T fmax = (2 ∙ Δt)-1 : Nyquist-Frequenz

  25. 6.3 • Fourier-Bessel-Entwicklung: - Bsp. Aufspaltung des Jahresgangs in harmonische Teilschwingungen: Harmonische Analyse Pmin = 2 Monate Pmax = 12 Monate fmax= 0,5

  26. 6.3 • Fourier-Bessel-Entwicklung: - durch das i-te Glied der Reiheerfasster Varianzanteil der Gesamtvariant s2: - Ci2 repräsentieren die Amplituden der i-ten Teilschwingung - Varianzanteile sind von additiver Eigenschaft - Zeitpunkt timax, bei der die i-te Teilschwingung ihr Maximum aufweist ist gegeben durch: - nur anzuwenden bei deterministisch erzeugten Zeitreihen (Tagesgang, Jahresgang, Gezeiten) - häufig kann deterministische periodische Ursache komplexe Überlagerung von Perioden erzeugen, die nur mit mehreren Harmonischen reproduziert ist - Verfahren der Zerlegung in harmonische Teilschwingungen kann auch als Zeitreihenfilter genutzt werden, indem bei der Rekonstruktion der Zeitreihe eine oder mehrere Teilperiode Pi ausgelassen werden: Harmonische Analyse Bandpassfilter

  27. 6.3 • Fourier-Bessel-Entwicklung: - Problem der Frequenzmissdeutung (“aliasing“): bei diskreten Zeitreihenwerten kann zeitliche Schwankung der wahren Periode T1 als niederfrequentere Schwankung der Periode T2 > T1 missinterpretiert werden: - durch geeignete Mittelwertbildung oder Filterung zu verhindern Harmonische Analyse • : diskrete Messwerte T1 : reale Periode T2 : vorgetäuschte Periode

  28. 6.3 • Fourier-Bessel-Entwicklung: - Bsp. harmonische Analyse eines Temperaturtagesgangs: Harmonische Analyse Superposition der 1. und 2. Harmonischen (24h und 12h) erfasst 88% der Gesamtvarianz

  29. 6.4 • in Geowissenschaften häufig Transformation der Zeitreiheninformation in eine spektrale Darstellung: - die spektrale Darstellung gibt Aufschluss über die typischen Zeitskalen der Variabilität innerhalb einer Zeitreihe und somit über die zugrunde liegenden Prozesse - Ergebnis ist das sog. Varianzspektrum (“power spectrum“), welches die relativen spektralen Varianzanteile darstellt - im Gegensatz zur harmonischen Analyse für beliebige nicht periodische Zeitreihen - Ausgangspunkt ist, dass sich jede beliebige Zeitfunktion a(t) in einen Aus- druck der spektralen Dichte transformieren lässt (Fourier-Transformation): Spektralanalyse imaginäre Zahl: Produkt aus reeller Zahl und imaginärer Einheit: x∙i , x ≠ 0 komplexe Zahl: Summe aus reeller Zahl und imaginärer Zahl: z = x∙i + y

  30. 6.4 • spektrale Varianzanalyse: - klassisches Verfahren ist eigentlich die Fast-Fourier-Transformation (FFT), aber diese besitzt keinen direkten Bezug zur Varianz und keine Signifikanz- prüfung - diese Nachteile vermeidet die spektrale Varianzanalyse (“power spectrum analysis“ = PSA) - basiert auf der Fourier-Transformation der Autokorrelationsfunktion: normier- tes Spektrum: - Fourier-Transformation einer diskreten endlichen Zeitreihe ist relativ aufwendig - nur mit Tischrechnern oder Großrechnern zu berechnen und je nach Anwen- dungssoftware durchaus markante Unterschiede im Ergebnis - es existiert auch die Möglichkeit, zwei verschiedene ZVA spektral zu verglei- chen: Kreuzspektralanalyse Spektralanalyse spektrale Korrelation = Kohärenz

  31. 6.4 • spektrale Varianzanalyse: - Schätzung des Varianzspektrums Sp für Frequenzintervalle h = Δfh = 0,1,…,M mit der maximalen Zeitverschiebung M (vgl. Autokorrelationsfunktion): - Filterfunktion D(k) heißt “hamming window“ und ermöglicht erst die Anwen- dung der Fourier-Transformation auf endliche Zeitreihen Spektralanalyse

  32. 6.4 • spektrale Varianzanalyse: - Varianzspektrum Sp(h) , h=0,1,..,M ist eine Schätzfunktion basierend auf einer STP-Zeitreihe und einem erfassten Frequenz- / Periodenbereich - diese Frequenzen (f) / Perioden (T) sind Intervalle als Funktion der sog. Har- monischen h: - maximale und minimale Frequenzen / Perioden: - Spektrum ist begrenzt auf höchste auflösbare Frequenz fmax (Nyquist- Frequenz), so dass die gesamte spektrale Varianz s2a+ nicht mit der Zeit- reihenvarianz s2a identisch ist: - die kleinste auflösbare Frequenz ist fmin+ , wobei in fmin= 0 das Residuum der nicht aufgelösten niederfrequenten Varianz akkumuliert wird - angegeben werden jeweils die mittleren Frequenzen h der Frequenzintervalle fh Spektralanalyse

  33. 6.4 • spektrale Varianzanalyse: - Bsp. Zeitreihe mit 200 Jahresmittelwerten (z.B. Temperatur): - Sp(h) wird als Rohspektrum be- zeichnet und vor der Interpreta- tion häufig mit einem sog. “hanning window“ geglättet: Spektralanalyse CO2-Trend Ozean TBO 0,0 0,1 0,2 0,3 0,4 0,5 f ∞ 10,0 5,0 3,0 2,5 2,0 T Varianzspektrum besteht aus 51 Schätzwerten für die Harmonischen h = 0, 1, …, 50

  34. 6.4 • spektrale Varianzanalyse: - unendliche Zeitreihen der GG und zugehörige Varianzspektren: Spektralanalyse Sinusfunktion durch eine Harmonsiche reproduzierbar und nur ein Spektral- beitrag Superposition von 2 Sinusfunktionen äußert sich in zwei Spektralbeiträgen zyklische Schwankungen mit Zufalls- effekten ist durch breiteren Bereich im Varianzspektrum gekennzeichnet reine Zufallsdaten enthalten identische Varianzanteile in allen Frequenzberei- chen: weißes Rauschen / weißes Spektrum Zufallsdaten mit Autokorrelation (z.B. Trend) haben Varianzanteile zu langen Perioden hin verschoben: rotes Rauschen / rotes Spektrum

  35. 6.4 • spektrale Varianzanalyse: - Varianzspektren Sp(h) sind hingegen Schätzwerte zur Beschreibung von STP über endliche Zeitfenster - Hypothesenprüfung, inwieweit bestimmte Maxima in Sp(h) auf zugrunde liegende Prozesse in der GG zurückzuführen sind: - Nullhypothese kann ein weißes Rauschen zugrunde legen (einfachster Fall): - bei Autokorrelation muss Nullhypothese hin- gegen rotes Rauschen zugrunde legen (häufiger Fall in den Geowissenschaften): Spektralanalyse H0 : Maxima sind zufällig H1 : Maxima sind nicht zufällig

  36. 6.4 • spektrale Varianzanalyse: - für rotes Rauschen muss das rote Spektrum der GG geschätzt werden: für die GG-Autokorrelation wird sog. Markov-Kette angenommen (Markov-Modell des roten Rauschens): - für das Markov-Modell berechnet sich das theoretische rote Spektrum zu: - viele Statistikbücher enthalten Tabellen der Werte des Markov-Spektrums für variable Werte k/M unter unterschiedliche STP-Autokorrelationen Spektralanalyse rA 1 0 k 0 1 2 3 4 5 5 6 7 SpR

  37. 6.4 • spektrale Varianzanalyse: - zur Hypothesenprüfung, ob sich ein gegebenes Maximum im STP-Varianz- spektrum nun signifikant vom weißen oder roten Hintergrundrauschen absetzt, kann Konfidenzintervall des Spektrum (weiß / rot) unter H0 über einen χ2-Test geschätzt werden: Spektralanalyse α = Irrtumsniveau Φ = Freiheitsgrade Bsp. Zentralengland- temperatur 1660-1969: n = 310 M = 100 R = SpR signifikante Zyklen bei α = 5%: 100 Jahre 2,15 Jahre

  38. 6 “Take-away“

More Related