1 / 37

Tests paramétriques sur variabilités et moyennes

Tests paramétriques sur variabilités et moyennes. UE 45.2 CHIV. Pierre MORETTO, Université Paul Sabatier, Toulouse III. Tests paramétriques. Les étapes. Normalité de la distribution ( ² ) Comparaison des distributions Test « F » de Fisher-Snedecor Comparaison des moyennes

greta
Download Presentation

Tests paramétriques sur variabilités et moyennes

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Tests paramétriquessur variabilités et moyennes UE 45.2 CHIV Pierre MORETTO, Université Paul Sabatier, Toulouse III.

  2. Tests paramétriques Les étapes • Normalité de la distribution (²) • Comparaison des distributions • Test « F » de Fisher-Snedecor • Comparaison des moyennes • Test « t » de Student • Données appariées • Données Non appariées

  3. Détermination graphique Anamorphose Droite de Henry Calcul de la pente • Si la distribution est normale à ±2 correspond 95.5% de la population. • Intervalle entre 2.28% et 95.5% correspond à 4. • Pente=(Q95-Q2.28)/ 4 • PThéo=(95.5-2.28)%/4=0.23

  4. Normalité d’une distribution /Indices • Une distribution est normale si: • Les indices centraux sont confondus • Mode=Médiane=Moyenne • 68.25% de la population à ± 1  • 95.5% de la population à ± 2  • Si ces faits sont retrouvés à partir des données expérimentales alors, la distribution peut être considérée comme « Normale »

  5. Normalité d’une distribution • Normalité d’une distribution • Détermination graphique • Détermination / indices • Test du ²

  6. Test du ² • Le test du ² permet de comparer 2 distributions. • Si il est appliqué à la comparaison de la distribution de la donnée expérimentale et d’une distribution normale (au sens Gaussien), il permet de vérifier très précisément la normalité de la distribution expérimentale.

  7. Test du ² Principe • Comparer 2 fréquences • Expérimentale (rouge) • Normale (Bleu) • Quantifier la somme des différences/classes • Règle de décision / valeur théorique

  8. Test du ² Quantifier la différence • Calculer l’écart centré réduit pour chaque centre de classe Xi • Trouver la probabilité associée dans la table de la Loi Normale Centrée Réduite

  9. Test du ² Quantifier la différence • Calculer l’écart centré réduit pour chaque centre de classe Xi • Trouver la probabilité associée dans la table de la Loi Normale Centrée Réduite

  10. Test du ² Quantifier la différence • Pour chaque classe,  une fth et une fobs(ni/N) • Calculer la différence de ces fréquences pour chaque classe

  11. Test du ² Calcul de l’indice Carré des différences Rapportée à Fth Somme « Surface entre les 2 courbes »

  12. Test du ² Règle de décision • Une table des valeurs de ² • La valeur est lue pour un Degrès De Liberté (ddl=N-1) • A un risque choisi (10%, 5%, 1%)

  13. Test du ² Règle de décision Si ²Théorique> ²Calculé au risque choisi les distributions diffèrent significativement. Sinon elles sont statistiquement semblables.

  14. Test du ² Exemple Table du ² • Le ² calculé sur un échantillon de 19 sujets est de 32.5. • La distribution est-elle normale au risque 5% ? • La distribution est-elle normale au risque 1% ?

  15. Test du ² Correction Table du ² • Le ²théorique à P=0.05 pour un ddl=18 est de 28.87 • 32.5 > 28.87 donc ²calculé >²théorique • Les distributions observées (expérimentale) et théorique (Loi Normale) ne diffèrent pas à P<0.05 • La distribution expérimentale est « normale » au risque P<5%

  16. Test du ² Correction Table du ² • Le ²théorique à P=0.01 pour un ddl=18 est de 34.80 • 32.5 < 34.8 donc ²calculé <²théorique • Les distributions observée (expérimentale) et théorique (Loi Normale) ne sont pas semblables à P<0.01 • La distribution n’est pas normale au risque P<1% • Risque inférieur entraîne une décision plus sévère

  17. Comparaison d’échantillons paramétriques UE 45.2 CHIV Pierre MORETTO, Université Paul Sabatier, Toulouse III.

  18. Comparaison d’échantillons • Règles de décisions et orientations • Les distributions des échantillons A et B sont-elles normales (Gaussiennes) ? • Si OUI, tests paramétriques • Si NON, • Transformation (racine, log ..) et retour à • Tests Non paramétriques (Ch V)

  19. Comparaison d’échantillons paramétriques • Méthodologie générale: Distributions normales

  20. Comparaison d’échantillons paramétriques Comparaison des variances des échantillons de distributions normales A (²A) et B (²B)

  21. Comparaison des variances Echantillon A Echantillon B

  22. Comparaison des variances • Le test est appelé « Test F de Fisher-Snedecor » • Il est basé sur le rapport (F) des variances des échantillons A et B • Donc • si les variances sont semblables le rapport F est proche de 1 • si les variances diffèrent le rapport F s’éloigne de 1 • Dans les 2 cas … l’objectivité impose de savoir de combien et à quel risque ?

  23. Test F de Fisher-Snedecor • Soit 2 échantillons : • L’hypothèse (H0) du test est que les variances sont comparables donc que :

  24. Test F de Fisher-Snedecor • La comparaisons de 2 variances (²A et ²B avec ²A> ²B ) d’échantillons d’effectifs nA et nB est basée sur le rapport F= ²A/ ²B. • F est comparé à une valeur théorique Fs donnée par la table du F à un seuil /2. La lecture se fait à l’intersection de la colonne (nA-1) et de la ligne (nB-1). • Si F<Fs les 2 variances ne diffèrent pas significativement au seuil 

  25. Test F de Fisher-Snedecor à /2 = 2.5% La lecture se fait à l’intersection de la colonne (nA-1) et de la ligne (nB-1)

  26. Test F de Fisher-Snedecor Exemple: 2 méthodes de dosage du Lactate (mmol/l) ont été répétées à partir d’un même échantillon sanguin, 25 fois avec la méthode A, 30 fois avec la méthode B On trouve: Dans la table de « F » au risque =2.5% ….. Fs,2.5%=2.15 Le rapport F= ²A/ ²B=5.16/1.96=2.63 et F> Fsd’où ……. Les variances diffèrent significativement au risque 5%

  27. Test F: comparaison de variance • Intérêt: • Distributions différentes des échantillons A et B • Si A et B sont 2 méthodes de mesure • La plus faible variabilité d’une mesure à l’autre renseigne sur la précision de l’outil de mesure.

  28. Comparaison d’échantillons paramétriques Comparaison des moyennes des échantillons de distributions normales A et B

  29. Comparaison de moyennes • Les échantillons sont de distributions normales • Les variances ne diffèrent pas significativement • Test « t » de Student permet la comparaison des moyennes

  30. Comparaison de moyennes • Si les échantillons A et B sont indépendants • Test « t » adapté aux variables non appariées • Si les échantillons A et B sont dépendants • Test « t » adapté aux variables appariées • Ex: avant/après entraînement

  31. Test « t » de Student Non Apparié • Soit 2 variables distribuées selon la Loi Normale • Les moyennes diffèrent-elles ? • Le test porte sur la différence des moyennes

  32. Test « t » de Student Non Apparié • La comparaison entre 2 moyennes mA et mB observées sur nA et nB cas est basée sur l’écart réduit  avec : • Si <1.96 la différence n’est pas significative au risque =5% • NB: cette formule est utilisable nA.nB>30

  33. Test « t » de Student Non Apparié • Exemple: • Comparaison des notes obtenues en statistique entre 2 groupes A (Relit ses cours) et B (Ne relit pas) • De sorte que:

  34. Correction • Si <1.96 la différence n’est pas significative au risque =5% • Ici =2.6 >1.96 donc la différence de moyenne est significative à 5% • CCl: Relire ses cours avant d’arriver en TP semble significativement influencer le résultat à l’examen

  35. Test « t » de Student Apparié • Soit 2 variables dépendantes distribuées selon la Loi Normale • Les moyennes diffèrent-elles ?

  36. Test « t » de Student Apparié • Dans les cas où les données des séries X et Y sont dépendantes (Appariées; qui vont par paires), le test n’est pas construit sur la différence des moyennes mais sur les différences de chaque paire.

  37. Test « t » de Student Apparié • La comparaison entre 2 moyennes appariées mA et mB observées sur nA et nB cas est basée sur l’écart réduit  avec : • Si <1.96 la différence n’est pas significative au risque =5% • NB: cette formule est utilisable nA.nB>30

More Related