1 / 37

Analyse de la variance : ANOVA à un facteur

Analyse de la variance : ANOVA à un facteur. Sir Ronald Fischer 1890-1962. Thèmes. Le modèle linéaire général Les postulats de base La logique de l’analyse de la variance Exemples Les tests post-hocs La taille d’effet. X ij = µ +  j + e ij.

jaguar
Download Presentation

Analyse de la variance : ANOVA à un facteur

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Analyse de la variance : ANOVA à un facteur Sir Ronald Fischer 1890-1962

  2. Thèmes • Le modèle linéaire général • Les postulats de base • La logique de l’analyse de la variance • Exemples • Les tests post-hocs • La taille d’effet

  3. Xij = µ + j + eij Xij - la valeur observée pour le sujet i du groupe j µ - la grande moyenne j - l’influence du traitement sur le groupe j (j = µj - µ) eij- l’erreur ou les résidus - selon les postulats - sont distribués de manière normale avec une moyenne de µ = 0 et un écart-type de . Le modèle général linéaire Exemple: la taille moyenne des hommes est 68” et la taille moyenne des femmes est 65” La taille d’un homme sera donc: 66.5 + 1.5 + e et la taille d’une femme: 66.5 - 1.5 + e

  4. Répartition des variances xij = µ + j + eij avec µ : j : eij : Donc:

  5. Les sommes des carrés

  6. Les postulats de base 1. Le modèle général s’applique aux données 2. Les valeurs sont distribuées normalement dans la population 3. Les échantillons ont des variances homogènes 4. Les échantillons sont indépendants

  7. La logique de l’ANOVA

  8. La logique de l’ANOVA (suite) • Les variances des différents échantillons sont donc égales et elles sont égales à la variance de la population p. • 1 = 2 = ... = ij = p avec • 1 = s1 = • Nous pouvons donc estimer la variance de la population à partir de la moyenne des variances des échantillons ou bien:

  9. Selon le théorème des limites centrales: la distribution d’échantillonnage a une moyenne de µ et une variance de 2 /n si l’hypothèse nulle est vraie il suit donc que: pour l’estimé de p2 il faut multiplier par n

  10. Exemple Afin de tester l’hypothèse que la consommation de caféine facilite l’apprentissage trois groupes d’étudiants se préparent à un examen: le groupe 1 boit une tasse, le groupe 2 boit 2 tasses et le groupe 3 boit 3 tasses de café. Voici leurs scores à l’examen:

  11. Exemple suite

  12. Sommes des carrés moyens Intra-groupe: Inter-groupe:

  13. Calcul de F Valeur critique pour 2,12 df et a = .05 -> 3.89

  14. Exemple 2

  15. Suite

  16. Sommes des carrés moyens Intra-groupe: Inter-groupe:

  17. Calcul de F Valeur critique pour 2,12 df et a = .05 -> 3.89

  18. Tableau ANOVA

  19. Résumé • La variance intra-groupe (la somme moyenne des écarts carrés entre chaque observation et la moyenne du groupe) est un estimé de la variance de la population. • Quand l’hypothèse nulle est vraie - et seulement dans ce cas - la variance inter-groupe (la somme moyenne des écarts carrés entre chaque moyenne de groupe et la grande moyenne) est, selon le théorème des limites centrales, aussi un estimé de la variance de la population • Quand il y a un effet de traitement, donc quand l’hypothèse nulle est fausse, la variance inter-groupe est plus large que la variance intra-groupe • L’analyse de la variance consiste à calculer le rapport entre la variance inter-groupe et la variance intra-groupe et de comparer le résultat avec une distribution d’échantillonnage connue: la distribution F.

  20. Les tests post-hocs

  21. Erreurs • Erreur (ou ) par comparaison - le niveau  choisi pour une seule comparaison de moyennes • Erreur par famille - le nombre moyen des erreurs faites par famille de comparaisons • ’  1- (1-)c C’ Exemple: ’ = .01 et C = 5  = .049 ou approx. .05

  22. Contraste • Définition: Une comparaison de J moyennes telle que la différence entre deux des J moyennes ou la différence entre une moyenne et la moyenne de deux autres moyennes • c11c22cjjcjj

  23. Excursion - Orthogonalité • Une comparaison est orthogonale si:  (c1jc2j)/nj= 0 • Exemple: jth moyenne 1 2 3 4 • C 1: 1 -1 0 0 • C2: 1 0 -1 0 • C3: 0 0 1 -1 • 1 vs 2:  c1jc2j =(1)(1) + (-1)(0) + (0)(-1) + (0)(0) = 1 • 1 vs 3:  c1jc2j =(1)(0) + (-1)(0) + (0)(1) + (0)(-1) = 0

  24. Tukey’s-HSD(John Tukey, 1915-2000)

  25. La taille d’effet

  26. Taille de l’effet • La corrélation entre la VI et la VD (r) • Le pourcentage de la variance de la VD expliqué par la VI (r2) • La différence entre deux moyennes en unités d’écart-type (d)

  27. Taille d’effet: eta2 et omega2

  28. Les tailles

  29. Puissance • La probabilité de trouver un effet de taille x dans un échantillon de taille N en utilisant un test statistique avec un a donné. Fcrit = 2.58

  30. Les erreurs

  31. Taille d’effet et beta

  32. Variance et beta

  33. Calcul de puissance

  34. Calcul de puissance

  35. http://members.aol.com/johnp71/javastat.html#Power

More Related