Statisik
This presentation is the property of its rightful owner.
Sponsored Links
1 / 81

STATISIK PowerPoint PPT Presentation


  • 93 Views
  • Uploaded on
  • Presentation posted in: General

STATISIK. LV Nr.: 0028 SS 2005 6. Juni 2005. Varianzanalyse. Varianzanalyse od. ANOVA Frage: Hat ein Faktor Einfluss auf ein Merkmal? Faktor: Nominal skalierte Größe, Faktorausprägungen = Ebenen oder Stufen Merkmal (durch Faktor beeinflusst): Metrische Größe. Varianzanalyse.

Download Presentation

STATISIK

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Statisik

STATISIK

LV Nr.: 0028

SS 2005

6. Juni 2005


Varianzanalyse

Varianzanalyse

Varianzanalyse od. ANOVA

  • Frage: Hat ein Faktor Einfluss auf ein Merkmal?

  • Faktor: Nominal skalierte Größe, Faktorausprägungen = Ebenen oder Stufen

  • Merkmal (durch Faktor beeinflusst): Metrische Größe


Varianzanalyse1

Varianzanalyse

Varianzanalyse

  • Einfache Varianzanalyse: Ein Faktor

  • Zweifache Varianzanalyse: Zwei Faktoren


Varianzanalyse2

Varianzanalyse

  • Test, für arithmetische Mittel von zwei oder mehr Grundgesamtheiten.

    • Test, ob die Differenz der arithmetischen Mittel von zwei oder mehr als zwei Grundgesamtheiten signifikant von Null verschieden ist.


Varianzanalyse3

Varianzanalyse

  • Modellannahmen der Varinazanalyse:

    • Unabhängigkeit der Stichproben (i=1,…,r)

    • Normalverteilung der Merkmale mit µi und σi²

    • Varianzhomogenität (Homoskedastizität), d.h. σi² = σ²


Varianzanalyse4

Varianzanalyse

  • Nullhypothese: Alle Gruppen haben den gleichen Mittelwert µ

    H0: µ1 = µ2 = … = µ

  • Alternativhypothese: Nicht alle Gruppen haben den gleichen Mittelwert µ

    H1: mindestens zwei µi sind ungleich


Varianzanalyse5

Varianzanalyse

  • Frage: Beeinflusst der Faktor (nominal-skalierte Größe) das Merkmal (metrisch-skalierte Größe)?

  • Unter H0: µi = µ für alle i (i = 1,…,r Faktorstufen).

  • Abweichung, die dem Faktor zuzuschreiben sind: αi = µi - µ (i = 1,…,r) heißen wahre Effekte auf der i-ten Ebene.


Varianzanalyse6

Varianzanalyse

  • Modell der einfachen Varianzanalyse:

  • xij = µ + αi + eij

    • µ … Gesamtmittelwert

    • αi … Effekt auf der i-ten Ebene

    • eij … Versuchsfehler = die Abweichung eines zufällig aus der i-ten Ebene des Faktors herausgegriffenen Beobachtungswertes xik vom Mittelwert µi dieser Ebene.

      eij = xij – µi = xij – (µ + αi)


Varianzanalyse7

Varianzanalyse

  • Beispiel: Zugfestigkeit von r = 3 Drahtsorten überprüfen, je Sorte 6 Proben, unabhängig voneinander und N(µi,σ²)-vt. Frage: Bestehen signifikante Unterschiede in der Zugfestigkeit?


Varianzanalyse8

Varianzanalyse

Vorgehensweise:

  • Gesamtmittelwert aller Faktorstufen und Mittelwerte der Faktorstufen bestimmen

  • Bestimmung der Abweichungen

  • Zerlegung der Abweichungsquadratsumme

  • Teststatistik und Testverteilung bestimmen

  • Entscheidung, Interpretation


Varianzanalyse9

Varianzanalyse

  • Gesamtmittelwert über alle Faktorstufen r

  • Mittelwerte der r Faktorstufen


Varianzanalyse10

Varianzanalyse

  • Beispiel: Drahtsorten


Varianzanalyse11

Varianzanalyse

  • Abweichungen: Quadratsumme der Abweichungen (Sum of Squares)

    • Abweichungen der Beobachtungen vom Gesamtmittelwert.

    • Summe der Quadratischen Abweichungen

    • Bezeichnungen: SST (Total), SSG (Gesamt)


Varianzanalyse12

Varianzanalyse

  • Sum of Squares:

    • Abweichungen der Beobachtungen der einzelnen Messreihen vom Mittelwert der jeweiligen Messreihe.

    • Summe der Quadratischen Abweichungen des Restes, Maß für die nicht durch den Faktor beeinflusste Restvariabilität

    • Bezeichnungen: SSW (Within), SSE (Error), SSR (Residual).


Varianzanalyse13

Varianzanalyse

  • Sum of Squares:

    • Abweichungen der Mittelwerte der einzelnen Messreihen vom Gesamtmittelwert.

    • Mit Stichprobengröße multiplizierte Summe der Quadratischen Abweichungen der Stichprobenmittelwerte vom Gesamtmittelwert, also der beobachteten Effekte des Faktors.

    • Bezeichnungen: SSB (Between), SSE (Explained), SSM (Model), SST (Treatment),


Varianzanalyse14

Varianzanalyse

  • Quadratsummenzerlegung:

  • SST = SSB + SSW

  • Interpretation: Gesamtvarianz (SST) setzt sich aus der Variation zwischen den Messreihen (SSB) und der Variation innerhalb der Messreihen (SSW) zusammen.


Varianzanalyse15

Varianzanalyse

  • Idee für Test:

    • Vergleich der Variation zwischen den Messreihen mit der Variation innerhalb der Messreihen

    • Ist die Variation zwischen den Messreihen größer als jene innerhalb der Messreihen, schließe auf Unterschied zwischen den Messreihen (Faktoreffekt).


Varianzanalyse16

Varianzanalyse

  • Teststatistik – Idee:

    • Aus den Beobachtungswerten werden zwei voneinander unabhängige Schätzwerte für sW² und sB² für die Varianzen der Beobachtungswerte innerhalb und zwischen den Stichproben bestimmt.

    • Liegen keine wahren Effekte vor (Gültigkeit von H0), sind sW² und sB² (bis auf zufällige Abweichungen) gleich.

    • Bei Vorhandensein von wahren Effekten (H1) ist sB² systematisch größer als sW².


Varianzanalyse17

Varianzanalyse

  • Erwartungstreuer Schätzer für die Varianz innerhalb der Messreihen (Restvarianz):

  • Erwartungstreuer Schätzer für die Varianz zwischen den Messreihen (Faktoreffekt)


Varianzanalyse18

Varianzanalyse

  • Mittlere Quadratsummen (MSS = Mean Sum of Squares):

  • Quadratsummen dividiert durch entsprechende Freiheitsgrade

  • MSB und MSW sind erwartungstreue Schätzer der Varianz zwischen- und innerhalb der Messreihen.


Varianzanalyse19

Varianzanalyse

  • Varianzanalysetafel (r Messreihen):


Varianzanalyse20

Varianzanalyse

Teststatistik:

  • F = MSB / MSW

  • F ~ F(r-1),(N-r)

  • Entscheidung: Ist F ≤ Fc, lehne H0 nicht ab (Fc = kritischer Wert der F-Verteilung mit (r-1) und (N-r) Freiheitsgraden).


Varianzanalyse21

Varianzanalyse

  • Beispiel: Drahtsorten

  • Quadratsummenzerlegung: SST = SSB + SSW

    • 324,62 = 108,04 + 216,58

  • Mittlere Quadratsummen:

    • MSB = 108,04 / (3-1) = 54,02

    • MSW = 216,58 / (18-3) = 14,44

  • Teststatistik:

    • F = MSB / MSW = 3,74

  • Kritischer Wert der F2;15 Vt. 3,68

  • Entscheidung: 3,74 > 3,68 => H0 ablehnen, d.h. es besteht ein signifikanter Unterschied zw. den Sorten


Varianzanalyse22

Varianzanalyse

  • Zweifache Varianzanalyse:

    • 2 Faktoren (A und B, wobei r Faktorstufen bei A und p Faktorstufen bei B)

    • 1 metrische Variable

  • Unterscheidung:

    • Modell ohne Wechselwirkungen zw. den Faktoren

    • Modell mit Wechselwirkungen zw. den Faktoren


Varianzanalyse23

Varianzanalyse

  • Modell ohne Wechselwirkungen zw. den Faktoren

  • xijk = µ + αi + βj + eijk (für i=1,…,r, j=1,…,p, k=1,…,n)

    • µ gemeinsamer Mittelwert

    • α, β Faktoreffekte

    • eijk zufällige Fehler


Varianzanalyse24

Varianzanalyse

  • Mittelwerte:

  • Gesamt

  • Faktor A

  • Faktor B


Varianzanalyse25

Varianzanalyse

  • Schätzer für Gesamtmittel und Effekte

  • Gesamtmittel

  • Effekt von Faktor A

  • Effekt von Faktor B


Varianzanalyse26

Varianzanalyse

  • Quadratsummen

  • SSR = SST – SSE(A) – SSE(B)


Varianzanalyse27

Varianzanalyse

  • Quadratsummenzerlegung

    • SST = SSE(A) + SSE(B) + SSR

  • Mittlere Quadratsummen:

    • MSE(A) = SSE(A) / (r-1)

    • MSE(B) = SSE(B) / (p-1)

    • MSR = SSR / (rpn-r-p+1)


Varianzanalyse28

Varianzanalyse

  • Prüfgrößen und kritische Werte:

  • Faktor A:

    • F(A) = MSE(A) / MSR

    • Fr-1,(nrp-r-p+1);1-α

  • Faktor B:

    • F(B) = MSE(B) / MSR

    • Fp-1,(nrp-r-p+1);1-α


Varianzanalyse29

Varianzanalyse

  • Beispiel: 2 Faktoren (Erreger, Antibiotikum)


Varianzanalyse30

Varianzanalyse

  • Modell mit Wechselwirkungen zw. den Faktoren

  • xijk = µ + αi + βj + (αβ)ij + eijk (für i=1,…,r, j=1,…,p, k=1,…,n)

    • µ gemeinsamer Mittelwert

    • α, β Faktoreffekte

    • αβWechselwirkung

    • eijk zufällige Fehler


Varianzanalyse31

Varianzanalyse

  • Mittelwerte:

  • Gesamt

  • Faktor A

  • Faktor B

  • Wechselwirkung


Varianzanalyse32

Varianzanalyse

  • Gesamtmittel und Effekte

  • Gesamtmittel

  • Effekt von Faktor A

  • Effekt von Faktor B

  • Effekt der Wechselwirkung


Varianzanalyse33

Varianzanalyse

  • Quadratsummen

    SSR = SST – SSE(A) – SSE(B) – SSE(AB)


Varianzanalyse34

Varianzanalyse

  • Quadratsummenzerlegung

    • SST = SSE(A) + SSE(B) + SSE(AB) + SSR

  • Mittlere Quadratsummen:

    • MSE(A) = SSE(A) / (r-1)

    • MSE(B) = SSE(B) / (p-1)

    • MSE(AB) = SSE(AB) / (p-1)(r-1)

    • MSR = SSR / (rpn-r-p+1)


Varianzanalyse35

Varianzanalyse

  • Prüfgrößen und kritische Werte:

  • Faktor A:

    • F(A) = MSE(A) / MSR

    • Fr-1, pr(n-1); 1-α

  • Faktor B:

    • F(B) = MSE(B) / MSR

    • Fp-1, pr(n-1); 1-α

  • Wechselwirkung:

    • F(AB) = MSE(AB) / MSR

    • F(p-1)(r-1), pr(n-1); 1-α


Varianzanalyse36

Varianzanalyse

  • Beispiel: 2 Faktoren + Wechselwirkung


Varianzanalyse37

Varianzanalyse

  • Beispiel: Varianzanalysetafel

  • Faktor Erreger: kein Effekt

  • Faktor Antibiotikum: Effekt

  • Interaktion: Effekt (impliziert, dass auch Faktor Erreger eine Wirkung hat).


Varianzanalyse38

Varianzanalyse


Nichtparametrische anova

Nichtparametrische ANOVA

  • Kruskal-Wallis Test

  • Unterscheiden sich die Mittelwerte von p Messreihen (n1, …, np)?

  • Voraussetzungen:

    • Stetige Verteilung der Messreihen

    • Mindestens Ordinalskala

    • Setzt weder Normalverteilung, noch Varianzhomogenität voraus.

  • Hypothese:

    • H0: Mittelwerte der p Messreihen sind gleich

    • H1: Mittelwerte unterscheiden sich


Nichtparametrische anova1

Nichtparametrische ANOVA

  • Vorgehensweise:

    • N Messwerten X11, …, Xpnp werden Rangzahlen rij zugewiesen.

    • Summe der Ränge der einzelnen Messreihen berechnen:

    • Bindungen (mehrere Messwerte sind gleich): Mittelwert der Ränge


Nichtparametrische anova2

Nichtparametrische ANOVA

  • Prüfgröße:

    • g … Anzahl der verschiedenen Messwerte

    • t … wie oft tritt ein Messwert auf

    • Treten keine Bindungen auf, ist B = 1


Nichtparametrische anova3

Nichtparametrische ANOVA

  • Entscheidung:

    • H0 ablehnen, wenn H > hp(n1,…,np);1-α

    • h … kritische Werte (Tabelle, z.B. Hartung S. 615)

  • Approximation durch χ²p-1,1-α Verteilung:

    • H0 ablehnen, wenn H > χ²p-1,1-α (Quantile der χ² Verteilung)


Regressionsanalyse

Regressionsanalyse

  • Beziehung zwischen zwei oder mehr metrisch skalierten Merkmalen.

  • Art der Abhängigkeit bestimmen, mathematische Funktion, durch die sich die Abhängigkeit zwischen den Variablen am besten beschreiben lässt.


Regressionsanalyse1

Regressionsanalyse

  • Abhängige Variable (Regressand): Y

    • „zu erklärende Variable“

  • Unabhängige Variable/n (Regressor): X

    • „erklärende Variable/n“

  • Regressionsfunktion: Mathematische Funktion, die die Abhängigkeit zwischen den Variablen beschreibt.

  • Regression von Y auf X, Y=f(X).


Regressionsanalyse2

Regressionsanalyse

  • Art der Beziehung zw. den Variablen?

  • Welche Form hat die Regressionsfunktion?

  • Antworten darauf aus:

    • Theorie

    • Empirische Beobachtung, z.B. Punktwolke zeichnen, welche Funktion passt sich gut an die Punktwolke an? Durch welche Funktion lässt sich die Grundtendenz des Zusammenhangs darstellen?


Regressionsanalyse3

Regressionsanalyse

  • Punktwolke

  • Regressionsfunktion


Regressionsanalyse4

Regressionsanalyse

  • Lineare Regression:

    • Regressionsfunktion ist linear

  • Nichtlineare Regression:

    • Regressionsfunktion ist nicht linear


Regressionsanalyse5

Regressionsanalyse

  • Einfachregression:

    • Beziehung zwischen 2 Variablen

    • Regressand: Y

    • Regressor: X

  • Mehrfachregression = multiple Regression:

    • Beziehung zwischen 3 oder mehr Variablen

    • Regressand: Y

    • Regressoren: X1, X2, …, Xk


Regressionsanalyse6

Regressionsanalyse

  • Lineare Einfachregression:

    • Lineare Regressionsfunktion (Regressionsgerade) beschreibt die Abhängigkeit zwischen der Variablen Y und X.

    • Zwei Merkmale X und Y werden an n Objekten der Grundgesamtheit beobachtet => Realisationen x1, …, xn und y1, …, yn.


Regressionsanalyse7

Regressionsanalyse

  • Wahre Funktion:

    yi‘ = α + βxifür i = 1, …, n

    • α … Absolutglied

    • β … Steigungsparameter

  • Beobachtet wird:

    yi = yi‘ + εi für i = 1, …, n

    • εi … Störterm, Realisationen einer Zufallsvariable

Wahre Koeffizienten,

Parameter der Grundgesamtheit


Regressionsanalyse8

Regressionsanalyse

  • Modell der linearen Einfachregression:

    yi = α + βxi + εi für i = 1, …, n

    • α … Absolutglied

    • β … Steigungsparameter

    • εi … Störterm


Regressionsanalyse9

Regressionsanalyse

  • Annahmen:

    • E(εi) = 0 für i=1,…,n

    • Var(εi) = σ² für i=1,…,n (Homoskedastizität)

    • Cov(εi,εj) = 0 für alle ij (unkorrelierte Fehler)

    • xi nicht stochastisch

    • xi xj für mindestens ein ij


Regressionsanalyse10

Regressionsanalyse

  • Aus den Annahmen folgt für die abhängige Zufallsvariable Yi:

    • E(Yi) = E(α + βxi + εi) = α + βxi + E(εi) = yi‘ für i=1,…,n

    • Var(Yi) = Var(εi) = σ² für i=1,…,n

= 0


Regressionsanalyse11

Regressionsanalyse

  • Regressionsfunktion/-gerade:

    ŷi = a + bxifür i = 1, …, n

    • a … Schätzer für Absolutglied

    • b … Schätzer für Steigungsparameter

    • ŷi … Schätzer für Ausprägung yi von Y


Regressionsanalyse12

Regressionsanalyse

  • Abweichung zwischen den beobachteten Werten yi und den geschätzten Werten ŷi: Residuen ei = yi – ŷi = yi – (a + bxi)


Regressionsanalyse13

Regressionsanalyse

  • Regressionsgerade:

    • unendlich viele mögliche Geraden durch eine Punktwolke

    • Wähle jene, die die vorhandene Tendenz am besten beschreibt, d.h. wähle jene, die eine möglichst gute Schätzung ŷ für die Ausprägung y des Merkmals Y eines Objekts, das die Ausprägung x des Merkmals X trägt, bestimmt.


Regressionsanalyse14

Regressionsanalyse

Methode der Kleinsten Quadrate

  • Kriterium für die Güte der Schätzung: Summe der Abweichungsquadrate (Residual-Quadratsumme)

  • Wähle die Schätzer a und b für α und βso, dass S² minimal wird.


Regressionsanalyse15

Regressionsanalyse


Regressionsanalyse16

Regressionsanalyse

  • Minimiere S² (= Summe der vertikalen quadratischen Abweichungen der beobachteten Werte yi von den durch die Regressionsgerade an den Stellen xi bestimmten Werten ŷi).


Regressionsanalyse17

Regressionsanalyse

  • Bedingung 1. Ordnung: 1. Ableitung = 0. Schätzer a und b ergeben sich als Lösungen des Normalengleichungssystems:

  • Bedingung 2. Ordnung: 2. Ableitung positiv, d.h. Determinante der Hesse-Matrix > 0


Regressionsanalyse18

Regressionsanalyse

  • Kleinste Quadrate Schätzer für β:

  • Kleinste Quadrate Schätzer für α:

  • Kleinste Quadrate Regressionsfunktion:


Regressionsanalyse19

Regressionsanalyse

  • Eigenschaften der KQ Schätzer:

    • Summe der Residuen eiist Null.

    • Summe xiei ist Null.

    • Das arithmetische Mittel der beobachteten Werte ist gleich dem arithmetischen Mittel der geschätzten Werte

    • Die Regressionsgerade läuft durch den Schwerpunkt der Punktwolke (x,y).


Regressionsanalyse20

Regressionsanalyse

Quadratsummenzerlegung:

  • Ziel der Regressionsfunktion: Variation der abhängigen Variable soll aus der Variation der unabhängigen Variablen erklärt werden.

    • Zu erklärende Variation: yi –y

    • Erklärte Variation: ŷi–y

    • Nicht erklärte Variation: yi – ŷi

    • (yi – y) = (ŷi–y) + (yi – ŷi) für i=1,…,n


Regressionsanalyse21

Regressionsanalyse


Regressionsanalyse22

Regressionsanalyse

  • Maß der Variation: Quadratsumme der Abweichungen

  • SST =  (yi –y)²

    • Sum of Squares Total

  • SSE =  (ŷi–y)²

    • Sum of Squares Explained

  • SSR =  (yi – ŷi)²

    • Sum of Squares Residual

  • Es gilt: SST = SSE + SSR


Regressionsanalyse23

Regressionsanalyse

  • Einfaches Bestimmtheitsmaß:

    • Maß für die durch die lineare Regressionsfunktion geliefert Erklärung der Variation der abhängigen Variablen

  • r² = SSE / SST = 1 – SSR / SST

    • r² = Anteil der durch die Regressionsfunktion erklärten Variation an der zu erklärenden gesamten Variation.


Regressionsanalyse24

Regressionsanalyse

  • Es gilt: 0 ≤ r² ≤ 1

  • Extremfälle:

    • r² = 0  SSE = 0  ŷi =ŷ (=y) für alle i, d.h. ŷi hängt nicht von i ab  b = 0, d.h. Regressionsgerade ist horizontal. Kein Erklärungsbeitrag

    • r² = 1  SSE = SST  SSR = 0  ei = 0 für alle i  ŷi= yi für alle i  die Daten liegen auf der Regressionsgeraden. Vollständige Erklärung


Regressionsanalyse25

Regressionsanalyse


Regressionsanalyse26

Regressionsanalyse

  • Linearer Einfachkorrelationskoeffizient: r = + r² und r  [0 ; 1]

  • Extremfälle:

    • r = 0, d.h. fehlende Erklärung, fehlende Korrelation

    • r = 1, d.h. vollständige Erklärung, vollständige Korrelation

  • r wird das Vorzeichen der Steigung der Regressionsgeraden zugewiesen.


Regressionsanalyse27

Regressionsanalyse

Eigenschaften der KQ Schätzer:

  • Da yi Zufallsvariable sind, sind auch a und b Zufallsvariable.

  • Erwartungswerte der KQ Schätzer:

    • E(b) = β

    • E(a) = α

    • D.h. a und b sind unverzerrte Schätzer


Regressionsanalyse28

Regressionsanalyse

  • Varianzen der KQ Schätzer:

  • Beides sind theoretische Größen, da σ² (=Var(εi)) unbekannt ist.


Regressionsanalyse29

Regressionsanalyse

  • Kovarianz der KQ Schätzer:

    Die Kovarinaz ist proportional zu σ², sie hängt vom Vorzeichen von x ab.


Regressionsanalyse30

Regressionsanalyse

  • Frage: Gibt es bessere Schätzer als die KQ Schätzer für α und β?

  • Besser im Sinne einer kleineren Varianz, denn je kleiner die Varianz des Schätzers, umso besser ist er.


Regressionsanalyse31

Regressionsanalyse

Gauss-Markov-Theorem:

  • Einfaches lineares Regressionsmodell,

  • Es gelten Annahmen 1-5

  • Der KQ Schätzer ist der beste lineare erwartungstreue Schätzer, BLUE (Best linear unbiased Estimator)

    • Best: Var(b*)  Var(b)

    • Linear: b* =ciyi

    • Unbiased: E(b*) = β

    • Analoge Aussage für Schätzer a* von α.


  • Regressionsanalyse32

    Regressionsanalyse

    • Schätzung der Fehlervarianz σ²

      • Wären εi beobachtbar, dann Schätzer für σ² = 1/n εi².

      • Aber: εi nicht beobachtbar, daher σ² durch s² schätzen.


    Regressionsanalyse33

    Regressionsanalyse

    • Diesen Schätzer von σ² verwendet man, um unverzerrte Schätzer für Var(a) und Var(b) zu konstruieren.


    Regressionsanalyse34

    Regressionsanalyse

    Inferenz im linearen Regressionsmodell:

    • Ann (1-5)

    • Ann (6): εi ~ N(0,σ²)

  • Testprobleme:

    • Einseitig: z.B. H0: b = b* gegen H1: b > b*

    • Zweiseitig: H0: b = b* gegen H1: b  b*

  • Teststatistik:


  • Regressionsanalyse35

    Regressionsanalyse

    • Verteilung der Teststatistik:

      • sb bekannt: T ~ N(0,1)

      • sb geschätzt: T ~ tn-2

    • Kritische Werte bestimmen

    • Entscheidung: Lehne H0 ab, wenn Teststatistik im kritischen Bereich liegt.

    • Gleiche Vorgehensweise bei Tests für Schätzer a.


    Regressionsanalyse36

    Regressionsanalyse

    KonfidenzintervallRegressionskoeffizienten

    • Interzept:

      • Es gilt P(a – t sa α a + t sa) = 1 – α

      • KI für α: [a – t sa; a + t sa]

    • Steigungsparameter:

      • Es gilt P(b – t sb β b + t sb) = 1 – α

      • KI für β: [b – t sb; b + t sb]

    • t = t1- α/2; n-2 (Werte der t-Verteilung)


  • Login