1 / 13

Régression multiple

Régression multiple. C1 Bio-statistiques F. KOHLER. Régression multiple. Conditions d’application Utilisée chaque fois qu’une variable observée, dite variable dépendante, doit être exprimée en fonction de 2 ou plusieurs autres variables observées, dites indépendantes ou mieux explicatives.

archer
Download Presentation

Régression multiple

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Régression multiple C1 Bio-statistiques F. KOHLER

  2. Régression multiple • Conditions d’application • Utilisée chaque fois qu’une variable observée, dite variable dépendante, doit être exprimée en fonction de 2 ou plusieurs autres variables observées, dites indépendantes ou mieux explicatives. • Le cas le plus simple est celui où les variables explicatives sont des variables non aléatoires, leurs valeurs étant toutes choisies a priori de façon arbitraire (dose d’un médicament…). • On suppose que la relation est linéaire et que les différentes valeurs de la variable dépendante sont extraites de distributions normales, indépendantes de même variance • Modèle théorique : • Yx= B0 +B1 x1a +B2X2a +….+ Bpxpa + da = B0+ Bx + dx • Les conditions peuvent être exprimées en affirmant que les résidus aléatoires da relatif aux différents individus a doivent tous posséder une même distribution normale de moyenne nulle et de variance constante et qu’ils doivent être indépendants les uns des autres. • D’autre part les p variables explicatives peuvent être des variables aléatoires dont les valeurs sont observées dans des conditions analogues à celle de la variable dépendante. • On suppose alors généralement que les p+1 variables possèdent une distribution normale à p+1 dimensions ou que la relation est linéaire et que toutes les distributions conditionnelles de la variable dépendante sont normales à une dimension, indépendantes et de même variance • On suppose que les échantillons sont aléatoires simples.

  3. Cas particulier de 2 variables explicatives • SPE, SCE SPE = sum of products deviate = somme des produits des écarts aux moyennes SCE = somme des carrés des écarts à la moyenne

  4. Équation recherchée Cas particulier de 2 variables explicatives Y = b0 +b1x1 +b2x2 • Estimation et intervalle de confiance des paramètres • Coefficient de régression partielle b1 et b2 • Les indices 1 et 2 correspondent aux variables explicatives x1 et x2 et y à la variable expliquée. ^ ^ • Ordonnée à l’origine ^ • Les résidus sont les différences entre la réalité et la représentation • Variance résiduelle DDL = n-3= n-p-1

  5. Tests de conformité et de signification des coefficients de régression partielle • Test de conformité • H0 b1 = b1théo Test de signification : b1théo =0 DDL = n-3 • Analyse de la variance • Strictement équivalent au test t • Permet de tester globalement la signification des 2 coefficients de régression partielle • H0 b1 =b2 = 0

  6. Tableau de l’analyse de la variance Principe : Décomposition de la somme des carrés des écarts totale SCEy, en une somme des carrés des écarts résiduelles SCEy.1…p ou SCEy.x et une somme des écarts factorielle : SCEy(1..p) ou SCEyx- SCEy.x qui possède p degrés de liberté Coefficient de corrélation multiple Somme des carrés des écarts résiduelle Somme des carrés des écarts y R2 = Coefficient de détermination multiple = part de variance expliquée DDL p; n-p-1

  7. Coefficient de corrélation partielle • Cas de 3 variables x, y, z • Le coefficient de corrélation partielle entre y et z est le coefficient de corrélation entre les résidus y-y(x) et z-z(x) des régressions linéaires à deux dimensions • On définit de la même façon les coefficients de corrélation partielle x et y et x et z. • Ils mesurent l’intensité de la relation qui existe entre deux variables indépendamment de l’influence de la troisième. • Ces notions s’étendent à p variables

  8. Exemple Exprimer le rendement en fonction des précipitations de décembre et de la température de juillet.

  9. Solution = -572,139 = 0,02655 = 0,9800 = 11,924

  10. Solution suite Variance résiduelle ^ = 1,596 Équation Y = 11,92 – 0,0266 x1 + 0,980 x2 • Remarques : • Attention il ne faut pas de corrélation entre x1 et x2 • On peut déduire les limites de confiance de b1 et b2

  11. Cas général : p variables explicatives • Deux problèmes • Choix du modèle : • linéaire • Autres (polynomiale, curvilinéaire) • Estimation des paramètres • Calculs complexes • Choix des variables explicatives • Choisir des variables explicatives fortement corrélées à la variable dépendante et faiblement corrélées entre elles. • Méthode de régression pas à pas : • Introduction successives de variables de telle sorte qu’avant toute introduction d’une variable supplémentaire, la signification des variables explicatives déjà présentes dans l’équation soit testée. Les variables qui n’apportent pas de contribution significatives sont éliminées.

  12. Régression multiple et analyse discriminante • Y = variable qualitative à deux modalités codée 1 et 0 • Le vecteur y est composé uniquement de 1 et de 0 • Les variables explicatives peuvent prendre toutes les valeurs • Dans ce cas particulier, la régression multiple pas à pas est identique à l’analyse discriminante.

  13. SAS et Régression multiple • GLM procedure : general linear models • Simple regression • Multiple regression • Anova • Analysis of covariance • Response surface models • Weighted regression • Polynomial regression • Partial correlation • Manova • Repeated measures analysis of variance

More Related