1 / 25

Departamento de Informática Universidad Técnica Federico Santa María

Econometría. Capitulo III. Departamento de Informática Universidad Técnica Federico Santa María. 2. 2.12 Multicolinealidad. . Si las variables explicativas están altamente correlacionadas. Presentan tienen un fuerte grado de mullticolinealidad Esto genera:

nani
Download Presentation

Departamento de Informática Universidad Técnica Federico Santa María

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Econometría Capitulo III Departamento de Informática Universidad Técnica Federico Santa María

  2. Héctor Allende O. 2

  3. 2.12 Multicolinealidad. Si las variables explicativas están altamente correlacionadas. Presentan tienen un fuerte grado de mullticolinealidad Esto genera: • Los estimadores tendrán varianzas muy altas. • Los estimadores serán muy dependientes entre si. Consideremos la matriz de varianzas y covarianzas. Ejemplo. Para 2 variables: Luego, si r1 Héctor Allende O. 3

  4. Identificación. La identificación de las variables colineales se efectúa examinando: • La matriz de correlación entre variables explicativas, R y su R-1 [Farrar Glauber, 1967]. • Las raíces y vectores de la matriz X’X ó R [Silvey, 1969]. • Los valores singulares de la matriz X [Welsh, 1980; Allende 1984]. La presencia de correlaciones altas entre variables es una señal de Multicolinealidad. Es posible que exista una alta correlación entre una variable con el resto y sin embargo sus coeficientes de correlación sean bajos. Medidas de singularidad. Una de medida de singularidad se basa en las raíces características de X’X ( o bien e los valores singulares de la matriz X) Héctor Allende O. 4

  5. Tratamiento. La multicolinealidad es un problema de la muestra, luego no tiene una solución simple ya estamos pidiendo a los datos más información de la que contienen. Las dos únicas soluciones son: • Eliminar regresores, reduciendo el número de parámetros. • Incluír información externa a los datos. Otros procedimientos. • En lugar de eliminar directamente las variables se pueden transformar mediante Componentes Principales y eliminar los componentes menos importantes [Mosteller, Tukey, (1977)]. • Otra solución es introducir información externa mediante el enfoque bayesiano [Copas, 1983]. Héctor Allende O. 5

  6. 2.13 Análisis de residuos. Una vez construídos los modelos de regresión, se tienen que comprobar las hipótesis de: Normalidad, Homocedasticidad e independencia. Residuos minimo cuadráticos. , donde vii es el término diagonal de V. Definición. Se llaman residuos estandarizados a: Para evitar la dependencia entre numerador y denominador: Se define un residuo estudentizado:  Los tres residuos ei, ri y ti tienen un comportamiento asintótico similar y entregan una información valiosa para detectar deficiencias del modelo. Héctor Allende O. 6 6

  7. Análisis gráfico de los residuos. Los gráficos más utilizados son: • Histograma y gráfico probabilístico normal de • Gráficos de los residuos con respecto a las predicciones • Gráficos de los residuos con respecto a las variables de control. • Gráficos de los residuos parciales. • Gráficos de los residuos con respecto a las variables omitidas. Héctor Allende O. 7

  8. 2.14 Un test de valores atípicos (outliers). Para contrastar que un residuo es atípico se utilizan residuos estudentizados: , que en la hipótesis de homogeneidad, tiene una distribución t-Student (n-k-2) grados de libertad. Sea Ai: el i-ésimo residuo es atípico Sea  error tipo I de un contraste individual n   T  T: Nivel de significación global. = P(Ai) Test operativo: • Fijar T, obtener • Encontrar un valor tc (t-Student (n-k-2)g.l.) tal que: Héctor Allende O. 8 8 8

  9. 2.15 Error de especificación. Se cometen errores de especificación cuando: • Se omite una variable de control importante. • Se introducen variables de control innecesarias. • Se supone una relación lineal, cuando no lo es. Consecuencias. • Incluír variables irrelevantes genera un aumento en • Excluir variables relevantes genera sesgo en los • Error en la transformación produce contrastes inválidos. Identificación. Mediante análisis de residuos v/s v/s v/s , etc. Tratamiento. Transformaciones, por ejemplo Transformaciones Box-Cox. Héctor Allende O. 9 9

  10. 2.16 Hipótesis de Normalidad.  • Test de bondad de ajuste. • Gráfica de Probabilidad Normal. Consecuencias. La falta de normalidad produce: • Asimetrías • Outliers. Tratamiento. Regresión Robusta, Transformaciones regresión logistica, etc Héctor Allende O. 10 10

  11. 2.17 Robustez del modelo y datos influyentes. En teoría clásica existen observaciones que tienen mayor influencia en las propiedades del modelo que otras (observaciones influyentes) Identificación de Puntos Influyentes. Medidas de influencia. Robustez a priori (Robustez de Diseño.) Robustez del modelo Robustez a posteriori (Robustez de Parámetros.) Héctor Allende O. 11 11

  12. 2.18 Hetereocedasticidad: Consecuencia. El modelo pierde eficiencia y se invalidan todos los contrastes. Identificación. Análisis de residuos. Tratamiento. • Transformaciones. • Aplicación de Mínimos Cuadrados Generalizados. Héctor Allende O. 12 12

  13. 2.19 Autocorrelación. Los efectos de la dependencia pueden ser muy graves: • Los estimadores son insesgados, pero no eficientes. • Los contrastes para los parámetros no son válidos. • Las predicciones son ineficientes. Identificación: Cuando se dispone de muestras grandes, se calcula: Y el estadistico de Box-Ljung (1978) ~ Donde m es el nº de coeficientes de autocorrelación. k es el nº de parámetros para calcular los residuos. Héctor Allende O. 13

  14. Para muestras pequeñas, se utiliza el Test de Durbin-Watson para r(1) ya que el test asintótico de Box-Ljung es poco potente. Este contraste usa el estadístico: Teniendo en cuenta que Se tiene Donde r(1) es el coeficiente de autocorrelación a un paso. El problema de determinar la distribución del estadístico d cuando (1) es cero l resolvieron Durbin-Watson, tabulando dos cotas dL y dU, en función de k (nº de variables explicativas) y n (nº de observaciones). Inconvenientes del Test de Durbin-Watson, ver Wichern (1973). Héctor Allende O. 14

  15. 2.20 Mínimos Cuadrados Generalizados. Tratamiento: Usando series de tiempo es posible resolver el problema. La autocorrelación y la hetereocedasticidad en la perturbación son casos especiales de la formulación: Donde G es la matriz de varianzas y covarianzas de las perturbaciones, y en general, es cualquier matriz simétrica y semidefinida positiva. Este caso generaliza la hipótesis estándar del modelo de regresión: Si G=diag(12,…, n2) tenemos perturbaciones hetereocedásticas. Héctor Allende O. 15

  16. Si es del tipo: Tendremos únicamente autocorrelación. Finalmente, si G=[ij] ocurren ambas condiciones simultáneamente. El método de MCG equivale a transformar el problema en otro donde las perturbaciones verifiquen E[UU’]= 2 I. Maximizar L(,2) c/r a es equivalente a minimizar Estimación con el método de MCG: Suponga que G es conocida. Entonces Y~(X, 2G) Héctor Allende O. 16

  17. Derivando c/r a  se tiene que EMV  EMCG OBS.:El EMCG equivale a transformar las variables para que verifiquen las hipótesis estándares del modelo de regresión y luego determinar el estimador habitual en las variables transformadas. Aplicaciones para corregir la hetereocedasticidad. La hetereocedasticidad implica G= diag(1, 2) Por lo tanto el EMCG equivale a minimizar una suma cuadrática ponderada de los residuos, siendo el coeficiente de ponderación 1/i. Héctor Allende O. 17

  18. Regresión Robusta: Los EMC son poco eficientes cuando la distribución de las perturbaciones tiene colas pesadas. En tal caso Huber (1981) propone como estimador a Donde  es una función adecuada, se llama función de scores Dos funciones son: Héctor Allende O. 18

  19. 2.21 Construcción de Modelos de Regresión. Los tres procedimientos o estrategias más utilizados son: 1.- Eliminación Progresiva: Regresión de y sobre (x1,...., xk) Cálculo de los estadísticos Rechazar esa variable. El conjunto de variables Potenciales es k-1. Hacer k=k-1. Comparación del menor Valor de t (tmin) con t. tmin > t NO SI FIN DEL PROCESO Héctor Allende O. 19

  20. 2.- Introducción Progresiva: Calcular coeficientes simples de correlación r(yjxi), i Introducir la nueva x y calcular la nueva regresión. Seleccionar la x con r mayor Regresión entre y y xj siendo xj tal que r(yxj) = sup r(yxi). Cálculo de los residuos de la regresión (1).. Calcular r entre (1) y (2). Cálculo del estadístico t para la última variable x introducida. Calcular los residuos (2). ¿Es t significativo? Calcular las regresiones entre las variables no introducidas y el conjunto de las ya introducidas. SI NO Rechazar la última x introducida, mantener la regresión anterior. Héctor Allende O. 20

  21. 3.- Regresión Paso a Paso (Stepwise regression): Fijar el nivel de significación . Calcular el coeficiente de correlación Parcial entre y, y las variables x no Introducidas en el modelo. Seleccionar como variable de entrada La de máximo coeficiente de Correlación parcial. Calcular la regresión. Calcular el estadístico t para la última variable introducida. Calcular estadísticos t para las x introducidas en etapas anteriores SI t>t*. NO ¿Es algún t<t*.? NO SI Rechazar la última variable Introducida. Fin del Programa. Eliminar del modelo esa variable. Héctor Allende O. 21

  22. Criterios de selección de variables. Cuando se dispone de muchas variables explicativas potenciales, las estrategias de regresión anteriores definen normalmente un subconjunto posible de modelos y el problema es seleccionar entre ellos Suponga que se comparan modelos con la misma variable dependiente pero con distintas variables explicativas. (Los criterios que se presentan a continuación no son adecuados para comparar modelos con distinta variable de respuesta, por ejemplo: [y, lny]. La elección de la transformación debe hacerse escogiendo aquella que produzca normalidad, homocedastici-dad e independencia y no un mayor R2, ya que esto puede ser muy engañoso. Coeficiente de determinación. Es un mal criterio: R2 aumenta al introducir nuevas variables sea cual sea su efecto, por lo que siempre se tendría que escoger modelos con muchas variables. Héctor Allende O. 22

  23. Coeficiente de correlación corregido. Evita el inconveniente principal de R2; puede comprobarse que este coeficiente aumentará al introducir una variable si su estadístico t es mayor que uno (t>1). Por lo tanto, escoger mediante este criterio es equivalente a imponer una regla amplia de entrada de variables. Varianza residual. El modelo con menor varianza residual es también el que tiene mayor Estadístico Cp de Mallows. Para justificar este criterio, suponga elegir aquel modelo que minimice el error cuadrático medio de la predicción para los puntos observados. Héctor Allende O. 23

  24. con distintas variables xp, siendo p el número de parámetros del modelo. Mallows demuestra que esto es equivalente a minimizar Donde es la varianza residual del modelo con todas las k variables, es la varianza residual del modelo con p-1 variables y p parámetros y n es el número total de datos. Héctor Allende O. 24

  25. Criterio de Akaike. Akaike (1973) ha propuesto el criterio AIC, derivado de la Teoría de la Información de Kullback. Donde es el EMV de la varianza y p es el número de parámetros. Otros criterios son: Hannan Quinnn Shibata Bayesiano Etc Héctor Allende O. 25

More Related