1 / 76

Theorie und Konstruktion psychologischer Tests

Theorie und Konstruktion psychologischer Tests. Literatur. Hans Irtel Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Frankfurt am Main: Verlag Peter Lang, 1996 (ISBN 3-631-49374-6) im Web als PDF. Gliederung. Wahrscheinlichkeitstheorie

mattox
Download Presentation

Theorie und Konstruktion psychologischer Tests

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Theorie und Konstruktion psychologischer Tests

  2. Literatur • Hans Irtel Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Frankfurt am Main: Verlag Peter Lang, 1996 (ISBN 3-631-49374-6) im Web als PDF

  3. Gliederung • Wahrscheinlichkeitstheorie • Klassische Testtheorie • Logistische Testmodelle • Entscheidungstheorie

  4. Warum brauchen wir die Wahrscheinlichkeitstheorie? • Psychologische Daten unterliegen vielen Einflußgrößen, viele davon sind nicht kontrollierbar. • Eine Wiederholung einer Erhebung liefert nicht mit Sicherheit das gleiche Ergebnis. • Bei einem guten Test reproduzibel: Statistische Daten (Mittelwerte, Streuungen)

  5. Wahrscheinlichkeitstheorie I • Mengenlehre • Was ist Zufall? • Der Wahrscheinlichkeitsraum • Bedingte Wahrscheinlichkeiten

  6. Warum brauchen wir die Mengenlehre? • Wahrscheinlichkeitsberechnungen beruhen auf dem Vergleich der Mächtigkeit von Mengen.

  7. Mengenlehre I • Naive Mengenlehre (Cantor) • Eine Menge ist eine Zusammenfassung von von bestimmten wohl unterschiedenen Objekten (Elementen) • Schreibweisen: M = {a,b,c...}, M={xN|x>7},  • Teilmenge: AB  (xAxB), BA • Vereinigungsmenge: AB = {x|xAxB} • Schnittmenge: AB = {x|xAxB} • Komplement, Differenz: A =  \ A {x|xxA} • Kommutativität, Assoziativität, Distributivität • De Morgan: AB = AB, AB = AB • A sei eine Menge. Potenzmenge: Menge aller Teilmengen X={x|xA} • Menge aller Mengen • Menge aller Mengen die sich nicht selbst enthalten (Russell) • Russell: Typentheorie. Zermelo-Fraenkel-Mengenlehre. Gödel.

  8. A AB B Mengenlehre II • kartesisches Produkt: AB = {(a,b)|aAbB} • ABC, AAA = A3 • binäre Relation: RAB. Statt (a,b)R schreibe aRb.Beispiel: K = {(a,b)|(a,b)NNa<b} • reflexiv  a: aRa • symmetrisch  a,b: (aRb  bRa) • transitiv  a,b,c: (aRb  bRc  aRc) • äquivalent: RAA reflexiv, symmetrisch, und transitiv. a~b • Äquivalenzklasse: KA, K, aKbK  a~b, aKa~b  bKSchreibweise: {xA|x~a} = [a]K=[a], K'=[b]  K=K'  KK'= 

  9. Mengenlehre III • Zerlegung: Sei A eine Menge, und ~ eine Äquivalenzrelation auf A.Dann heißt die Menge A/~ aller Äquivalenzklassen von A bzgl. ~ die von ~ induzierte Zerlegung. • K,LA/~ KL  KL= • Vereinigungsmenge aller Elemente von A/~ • Definition von ~ über eine Zerlegung • Zerlegung eines Hypothesenraums für die Hypothesenprüfung nach Bayes

  10. Mengelehre IV • Eine binäre Relation f auf AB heißt eine Abbildung,wenn gilt • f ist linkstotal: aA bB sodaß (a,b)f. • f ist rechtseindeutig: (a,b)f  (a,c)f  b=c • A: Definitionsbereich, B: Wertebereich von f. • alternativer Name: Funktion. • Schreibweisen: (a,b)f, afb, b=f(a), f: AB, • MA, NB : f(M)=N heißt „Bild von M“, f–1(N)=M „Urbild von N“ • surjektiv: bB aA sodaß (a,b)f. rechtstotal. bitotal. • injektiv: (a,c)f  (b,c)f  a=b. linkseindeutig. eineindeutig. • bijektiv: surjektiv und injektiv. • Sei f bijektiv. Dann ist auch die „Umkehrabbildung“ f –1 bijektiv. • endlich, unendlich; abzählbar, überabzählbar

  11. Mengenlehre und Logik • Verwandtschaft von Mengenlehre und Logik •   A •   A • Hausaufgaben (unter anderem): • überprüfen, welche Gesetze der Mengelehregenauso in der Logik gelten. • vertraut machen mit Wahrheitstafeln! , , , , 

  12. Zufallsexperimente • Ergebnis nicht mit Sicherheit vorhersagbar,Menge aller möglichen Ergebnisse bekannt.„Ergebnisraum“  = {1, 2, 3, ...} • Beispiel: Detektionsexperiment • Ergebnisraum:  = {+,} • Beispiel: Stellung von Ehepaaren zu Geschwindigkeitsbegrenzung auf Autobahnen • Ergebnisraum:  = {0,1,2} (Zahl der Ja-Antworten) • Ergebnisraum:  = {(J,J),(J,N),(N,J),(N,N)} • Ergebnisraum hängt • von der Struktur des Experimentes • und von der Fragestellung ab

  13. Ereignisse • Teilmenge A des Ergebnisraums  ist ein „Ereignis“. • Ergebnis i (direkt) beobachtbar: Ausgang des Experiments • Ereignis = wahrscheinlichkeitstheoretisches Konzept:„Ereignis tritt ein / wird (indirekt) beobachtet “ = Ergebnis  Ereignis • Beispiel: E = „Ehepaar antwortet gleich“ •  = {0,1,2}: E = {0,2} •  = {(J,J),(J,N),(N,J),(N,N)}: E = {(J,J),(N,N)} • Elementarereignis: Ereignis mit nur einem Element, {i} • Ergebnisraum und leere Menge sind Ereignisse • Operationen auf Ereignissen: Vereinigung, Schnittmenge, Komplement

  14. Wahrscheinlichkeiten von Ereignissen für endliche oder abzählbare(„diskrete“) Ergebnisräume: • Wahrscheinlichkeit:P: Potenzmenge()  R so daß • P({i})  0, • P({1}) + P({2}) + P({3}) + .... = 1. • P(A) = AP({}) • keine weitere Annahmen über P({i}),insbesondere nicht gleichwahrscheinlich • Problem bei überabzählbaren Mengen

  15. -Algebra • Axiomatische Definition nach Kolmogorov: Sei  ein Ergebnisraum, und S eine Menge von Teilmengen von ,dann heißt S eine -Algebra in , wenn gilt •   S • A  S  A S • A1, A2, A3...  S  A1 A2 A3...  S • S ist abgeschlossen bzgl. Komplement, ,  • S kann abzählbar sein, auch wenn  überabzählbar ist.

  16. Wahrscheinlichkeitsraum • Sei  ein Ergebnisraum und S eine -Algebra in .Dann ist die Abbildung P: S  R eine Wahrscheinlichkeit, wenn gilt: • P(A)  0 für alle AS, • P() = 1, • -Additivität: A1, A2, A3...  S , paarweise disjunkt P(A1 A2 A3...) = P(A1) + P(A2) + P(A3) +... • Übungen: , P(A), AB

  17. Bedingte Wahrscheinlichkeit • Seien A und B Ereignisse, mit P(B)>0.Dann wird die bedingte Wahrscheinlichkeit, daß A eintritt „gegeben B“, definiert als: P(A|B)  P(AB)/P(B) • Beispiel: ein Säckchen enthalte weiße und schwarze Spielsteine aus Holz und aus Plastik: 40 weiße aus Holz, 10 weiße aus Plastik,30 schwarze aus Holz, 20 schwarze aus Plastik. Ich ziehe einen Stein. Wie groß ist P(w|H), p(H|w), p(H), p(w), ... • P(AB) = P(A|B)  P(B) = P(B|A)  P(A)

  18. Stochastische Unabhängigkeit • A und B sind stochastisch unabhängig, wenn gilt: P(A|B) = P(A) • Fragen: P(B|A) = ? P(AB) = ? P(A|B) = ? • Beispiel: A tritt nach B ein. A ist unabhängig von B, wenn das erste „Teilergebnis“ (aus B oder aus B) keinen Einfluß auf die Wahrscheinlichkeit für das Auftreten von A hat. • Zwei Ereignisse seien disjunkt. Beide haben eine Wahrscheinlichkeit größer Null.Können sie unabhängig sein?

  19. Unabhängige Familien • Sei C eine Menge von Ereignissen.C heißt Familie unabhängiger Ereignisse, wenn für alle endlichen Teilmengen von C gilt:P(A1A2A3...) = P(A1)  P(A2)  P(A3) ... • Reicht paarweise Unabhängigkeit aller Elemente für die Unabhängigkeit der Familie?

  20. Bayes • Sei {B1, B2, ...} eine Zerlegung von .(paarweise disjunkt, Vereinigung aller Bi = ).Dann gilt: • Beispiel: Bi (unbeobachtbare) Hypothesen, A (beobachtbare) Versuchsergebnisse,P(A|Bi) bekannt („Voraussagen“), P(Bi) a priori Wahrscheinlichkeiten für Hypothesen,P(Bi|A) a posteriori Wahrscheinlichkeiten der Hypothesen.

  21. 0 d‘ e 0 k 2 Beispiel: Entscheidungstheorie • Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. • e ist Gauß-verteilt , mit  = 1 und µ = 0 (Rauschen) bzw. µ = d‘ (Signal). • Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium k und sagt „Ja“ wenn e > k. • P (S | e) ist eine monotone Funktion von e: Ein Kriterium in e ist gleichzeitig ein Kriterium in P (S | e). „Nein“ „Ja“

  22. Bedingte Unabhängigkeit • Sei  ein Ergebnisraum, S eine -Algebra in ,P eine Wahrscheinlichkeit auf S, und C ein Ereignis.Dann ist auch PC: S  R mit PC(A) = P(A|C)eine Wahrscheinlichkeit auf S. • Zwei Ereignisse A und B heißen „bedingt unabhängig bezüglich C“, wenn sie bezüglich PC unabhängig sind:PC(A|B) = PC(A).PC(AB) = PC(A)  PC(B)P(AB|C) = P(A|C)  P(B|C)

  23. Zufallsvariablen • Warum brauchen wir Zufallsvariablen? • Mit Mengen kann man nicht „rechnen“ (+,,...). • Abbildung von  auf R bzw. R = R  {,} • Abbildung von  auf abzählbare Menge bzw. N

  24. Reelle Zufallsvariablen • Sei  ein Ergebnisraum, S eine -Algebra in ,P eine Wahrscheinlichkeit auf S.X:   (R bzw.) R heißt (reelle) Zufallsvariablegenau dann wenn xR: {|X()x}  S • S = {,}, X ? • Das Urbild jedes Intervalls (,x] ist ein Ereignis.(S-Meßbarkeit von X). • Dies ermöglicht die Übertragung der Wahrscheinlichkeit P von der -Algebra S auf den Wertebereich von X.

  25. Verteilungsfunktion • Definition der Verteilungsfunktion F(x) = P({|X()x}) = P(Xx) • monoton steigend (warum?) • F(), F(+) • Gibt es für die reelle Zufallsvariable X:   Reine nichtnegative Funktion f: R  R mit F(x) = xf(y) dy,dann ist f die Wahrscheinlichkeitsdichte von X. • P(axb) = abf(y) dy • f(y) dy = ???

  26. Diskrete Zufallsvariablen • Sei  ein Ergebnisraum, S eine -Algebra in ,P eine Wahrscheinlichkeit auf S.X:   E (E abzählbar)heißt diskretes Zufallselement.Zusätzlich ER: X ist diskrete Zufallsvariable. • Definition der Wahrscheinlichkeitsfunktion p(x) = P({|X()=x}) = P(X=x) • BE: P(B) = xBp(x). • Zufallsvariable X: Verteilungsfunktion F(x) = P(Xx) = yxp(y). • AS: Indikatorfunktion 1A() = 1 wenn A, 0 sonst.

  27. Unabhängige Zufallsvariablen • Reelle Zufallsvariablen X1, X2, ... sindstochastisch unabhängig, wenn für alle x1, x2, ... R gilt: P(X1x1, X2x2, ...) = P(X1x1)  P(X2x2)  ... • Wenn alle Xi Dichten besitzen, gilt F(x1,x2,...) = x1f1(y1) dy1x2f2(y2) dy2  ... = x1x2...f1(y1) f2(y2) dy1 dy2 ... Wahrscheinlichkeitsdichte f(x1,x2,...) = f1(x1)  f2(x2)  ...

  28. Zufallsstichprobe • Folge von Zufallsexperimenten in einer Population • Jedes Element der Population hat die gleiche Wahrscheinlichkeit, beobachtet zu werden. • einzelne Beobachtung: Ergebnis  und X() registrieren. • Die einzelnen Beobachtungen müssen stochastisch unabhängig sein. • Folge Xi stochastisch unabhängiger und identisch verteilter (P(Xix)=F(x)) Zufallsvariablen.

  29. Modus, Median, Quantile • Sei X eine reelle Zufallsvariable mit Verteilungsfunktion F(x) und Wahrscheinlichkeitsdichte f(x). • Modus: f(xm) hat ein (lokales?) Maximum • -Quantil: F(x) =  • Median: 0,5-Quantil • Sei X eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion p(x) und Verteilungsfunktion F(x). • Modus: p(xm) ist maximal • -Quantil: P(Xx)    P(Xx)  1–

  30. Erwartungswert, Varianz • Sei X eine reelle Zufallsvariable mit Wahrscheinlichkeitsdichte f(x). • Erwartungswert: E(X) =  xf(x) dx • Varianz: V(X) = ²(X) = E ( (X–E (X))² ) = E (X²) – E (X)² • Standardabweichung (X) (positive Wurzel von V(X)) • Sei X eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion p(x). • Erwartungswert: E (X) = xX() xp(x) • Varianz und Standardabweichung wie oben

  31. Rechenregeln mit E und V • Zufallsvariable „a“ sei konstant: E (a) = a. • E ist linear: E (aX + bY) = a E (X) + b E (Y) • Zufallsvariable „a“ sei konstant: V(a) = 0. • V(X+a) = V(X) • V(aX) = a²V(X)

  32. Vorhersage • Seien X und Y zwei Zufallsvariablen. • Wie genau erlaubt die Kenntnis von X, den Wert von Y vorherzusagen, und welcher Wert wäre das?Vorhergesagter Wert Y' = F (X) • Vereinfachung: Existiert ein linearer Zusammenhang? Y' = a + b X Y' = a + b X + e

  33. Linearität • Fast jeder Zusammenhang ist • lokal linear • global nichtlinear

  34. Y Y' = a + b X ei X Das lineare Modell • Y' = a + b X • Y' = a + b X + e • e = Y – Y' • E (e) = 0 • Ziel: E (e²) minimieren • E (Y) = a + b E (X) • Achsabschnitt a = E (Y) – b E (X) • Steigung b = ???

  35. Varianz und Kovarianz • V(X) = VXX = E ( (X–E (X))² ) • V(Y) = VYY = E ( (Y–E (Y))² ) • V(X,Y) = VXY = E ( (X–E (X))(Y–E (Y)) ) • VYX = VXY = E (X·Y) – E (X) E (Y) • Vxy ist positiv, wenn positive Abweichungen in X mit positiven Abweichungen in Y einhergehen, und negative mit negativen. • Vxy ist negativ, wenn... • Vxy ist Null, wenn...

  36. z-transformierte Zufallsvariablen • Y = a + b X + e • E(Y) = a + b E (X) • Wenn X und Y z-transformiert sind,wenn also gilt: E (X) = E (Y) = 0und VXX = VYY = 1,dann gilt für die Regressionsgerade: Achsabschnitt a = 0 und Steigung b = VXY = E (X·Y)

  37. X' = (1/b) Y X X' = b Y Y Y' = b X ei ei Y X Vertauschung von X und Y • Wenn man bei z-transformierten Zufallsvariablen X und Y vertauscht, bleibt die Steigung der Regressionsgerade gleich... Koordinaten-ursprung

  38. Korrelationskoeffizient und Steigung • Steigung bY·X= VXY / VXX • Steigung bX·Y = VXY / VYY 1 / bY·X = VXX / VXY • rXY = VXY / (VXX  VYY) • bY·X = rXY  (VYY/VXX) = rXY SY/SX • bX·Y = rXY  (VXX/VYY) = rXY SX/SY • rXY² = VXY² / (VXX  VYY) • E (e²) = VYY  ( 1 – rXY² ) = ( 1 – rXY² ) für z-transformierte Daten

  39. Rechenregeln mit Kovarianz • V(aX + bY) = a²VXX + b²VYY + 2abVXY • V(i=1...nXi) = i=1...nj=1...nVXiXj • VX+Y,Z = VXZ + VYZ • Sind X und Y stochastisch unabhängig, dann gilt • E (X·Y) = E (X) E (Y) • VXY = 0 • Z=X+Y: VZZ = VX + VY • Z=X–Y: VZZ =

  40. Tschebyschew • P(|X–E (X)|)  VXX/²

  41. Zentraler Grenzwertsatz • Seien Xi, i=1...n, unabhängig verteilte Zufallsvariablen (beliebige Verteilungen). • Dann ist die Summe Sn = i=1...nXi approximativ normalverteilt,mit Erwartungswert E (Sn) = und Varianz V(Sn) =

  42. Mehrdimensionale Zufallselemente • Sei <,S,P> ein Wahrscheinlichkeitsraum und X und Y Zufallselemente mit Wertebereichen EX und EY. Dann istp: EXEY  R, p(x,y) = P(X=x,Y=y) = P({|X()=x  Y()=y}) die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors (X,Y). • P(X=x) = yEY p(x,y) = p(x,*) ist die Randwahrscheinlichkeitsfunktion von X.

  43. Mehrdimensionale Zufallsvariablen • Sei <,S,P> ein Wahrscheinlichkeitsraum und X und Y Zufallsvariablen. Sie haben eine gemeinsame Wahrscheinlichkeitsdichte f wenn für alle reellen Zahlen x, y gilt: P(Xx,Yy) = x y f(u,v) du dv. • Dann gilt auch P(Xx) = x f(u,*) dumit der Randwahrscheinlichkeit f(u,*) = + f(u,v) dv.

  44. Bedingte Wahrscheinlichkeitsfunktionen • Sei <,S,P> ein W.-raum, X und Y Zufallselemente mit Wertebereichen EX und EY, der gemeinsamen W.-funktion p(x,y) und den Randwahrscheinlichkeiten p(x,*) = p(x) und p(*,y) = p(y). • Sei A = {(x,y)|x=x'}, B= {(x,y)|y=y'} mit P(A) > 0. • Dann gilt P(B|A) = P(Y=y'|X=x') = P(AB)/P(A) = p(y',x')/p(x'). • Definition: p(y|x)  p(y,x)/p(x) (für p(x) > 0)(bedingte Wahrscheinlichkeit für Y gegeben X=x).

  45. Bedingte Wahrscheinlichkeitsfunktionen • Sei <,S,P> ein W.-raum, X und Y Zufallsvariablen mit der gemeinsamen W.-dichte f(x,y) und den Randwahrscheinlichkeiten f(x,*) = f(x) und f(*,y) = f(y). • Definition: f(y|x)  f(y,x)/f(x) (für f(x) > 0)(bedingte W.-dichte für Y gegeben X=x). • f(y|x) ist nichtnegativ, + f(y|x) dy = 1, f(y|x) ist eine Wahrscheinlichkeitsdichte. • P(Y<y|X=x) = y f(u|x) du. • E (Y|x) = + y·f(y|x) dy (bedingter Erwartungswert)

  46. Bedingte Erwartung: eine Zufallsvariable • Sei <,S,P> ein Wahrscheinlichkeitsraum, X:   R eine Zufallsvariable, undH:   EH ein diskretes Zufallselement. • Ist E (X) eine Zufallsvariable? (  R) • Ist E (X|H=h) eine Zufallsvariable?ausführlichere Schreibweise: E(X|H()=h) • bedingte Erwartung: TX:   R, TX() = tX(H()), mit tX: EH  R, tX(h) = E (X|H=h).

  47. Bedingte Erwartung: Rechenregeln • bedingte Erwartung: TX:   R, TX() = tX(H()), mit tX: EH  R, tX(h) = E(X|H=h). • TX+Y = TX + TY • TaX = a · TX • allgemein: TX·Y  TX · TY • Spezialfall: Y konstant auf Äquivalenzklassen von /~H: TX·Y = Y · TX • TY = Y, TTX = TX, E (TX) = E (X)

  48. Klassische Testtheorie • Der Beobachtungswert setzt sich additiv aus dem „wahren“ Meßwert und einem Fehlerwert zusammen. • Der Fehlerwert wird auch als „statistischer Fehler“ bezeichnet. • Der „wahre“ Wert muß nicht valide sein („systematischer Fehler“). • Die Datenerfassung ist ein Zufallsexperiment in zwei Teilen • Auswahl einer Person aus einer Population, • Erhebung der Daten bei dieser Person.

  49. System psychometrischer Daten • Sei <,S,P> ein Wahrscheinlichkeitsraum,Xk:   R eine endliche Folge von Zufallsvariablen mit endlichem Erwartungswert und endlicher Varianz,und H:   A ein diskretes Zufallselement. • Dann ist <,S,P,{Xk|k=1...n},H> einSystem psychometrischer Daten. • Beispiel: Herzfrequenz. • : {... (P713, 71), (P713, 72), (P713, 73), ... (P714, 71), ...} • H(): P713 (Personenfilter) • X(): 72 (Datenfilter)

  50. Personenparameter • Sei <,S,P,{Xk|k=1...n},H> ein Syst. psychom. Daten. • Der Personenparameter TXk zur Zufallsvariable Xk ist die Zufallsvariable TXk:   R mit TXk() = E (X | H(')=H()) • TXk ist auf  definiert, ist mit der -Algebra S auf  verträglich, aber auch mit SH, der analogen -Algebra auf /H. •  BSH: E (TXk | B) = E (Xk | B).

More Related