1 / 39

Estadística 2010 Clase 7 Maestría en Finanzas Universidad del CEMA

Estadística 2010 Clase 7 Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri. 1. Predicción en el análisis de regresión. Clase 8. 2. Normalidad de los residuos. 3. Heteroscedasticidad en los residuos. 4. Correlación entre residuos.

edolie
Download Presentation

Estadística 2010 Clase 7 Maestría en Finanzas Universidad del CEMA

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Estadística2010Clase 7Maestría en FinanzasUniversidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri

  2. 1. Predicción en el análisis de regresión Clase 8 2. Normalidad de los residuos 3. Heteroscedasticidad en los residuos 4. Correlación entre residuos 5. Introducción a los procesos estocásticos

  3. 1. Predicción en el análisis de regresión En base a la información muestral, obtenemos la recta de regresión estimada: Donde es el estimador del verdadero , correspondiente a una X dada. El uso de esta recta es para la predicción de futuros Y correspondiente a algún nivel dado de X. Hay dos clases de predicciones: Predicción del valor de la media condicional de Y correspondiente a un valor de X. Predicción de un valor puntual de Y correspondiente a un X0.

  4. 1. Predicción en el análisis de regresión Predicción de la media condicional de Y La recta de regresión muestral proporciona una estimación puntual de la predicción media donde es el estimador de . Este predictor puntual es MELI. La distribución muestral de es: Y si la varianza del error resulta desconocida, la reemplazamos por su estimador insesgado , pudiendo construir un estadístico de prueba:

  5. 1. Predicción en el análisis de regresión Predicción de la media condicional de Y Podemos generar así, también, intervalos de confianza para el verdadero , y hacer test de hipótesis acerca de determinados valores:

  6. 1. Predicción en el análisis de regresión Predicción individual de Y Si nuestro interés, en cambio, es pronosticar un valor individual Y0 correspondiente a un valor dado X0, entonces el estimador MELI de Y0 tiene una distribución muestral:

  7. 1. Predicción en el análisis de regresión Predicción individual de Y Las construcciones del estadístico t, así como de los intervalos de confianza y test de hipótesis son análogas a las de la predicción media condicional. Sin embargo, el intervalo de confianza para el Y0 individual es más amplio que el intervalo para el valor medio de Y0. La amplitud más pequeña de estas bandas (para ambos tipos de predicciones) se presenta cuando X0= . Sin embargo, aumenta considerablemente a medida que X0 se aleja de . Entonces, podemos inferir que la capacidad de predicción de la recta de regresión muestral pierde potencia progresivamente (cuanto más lejos se esté de ). ¡Es necesario proceder con cuidado ante la realización de pronósticos en esta clase de modelos!

  8. 2. Normalidad de los residuos Antes de confiar (y utilizar) un modelo determinado, resulta necesario chequear si los supuestos realizados sobre el mismo resultan válidos. Uno de ellos es la normalidad del término de perturbación. Este supuesto no es necesario para que los estimadores de MCO sean MELI, sino que resultan requeridos para poder hacer test de hipótesis sobre los estimadores de los parámetros (de esta manera conocemos la distribución de probabilidades de los parámetros estimados).

  9. 2. Normalidad de los residuos Hay varias formas de probar la normalidad de los residuos en la teoría, vamos a considerar dos: 1) histograma de los residuos y 2) el test de Jarque-Bera. Histograma de los residuos: Un histograma es un gráfico que se utiliza para caracterizar la forma de la función de distribución de probabilidades (FDP) de una variable aleatoria. Test de Jarque-Bera: La prueba de normalidad de JB es una prueba asintótica, basada en los residuos de MCO. Computando la asimetría y la kurtosis de los residuos, utiliza el siguiente estadístico, para probar la hipótesis nula de normalidad de los residuos (asimetría igual a cero y kurtosis igual a 3), caso en el que el estadístico de JB sería igual a 0.

  10. 2. Normalidad de los residuos La clásica “salida” de E-Views para probar la normalidad es: Donde pueden observarse ambos testeos (tanto el gráfico como el de JB).

  11. Y X 3. Heteroscedasticidad en los residuos Un supuesto esencial del modelo clásico de regresión lineal es que las perturbaciones ui son homocedásticas (o lo que es lo mismo, poseen igual varianza). Gráficamente podría representarse de la siguiente manera:

  12. 3. Heteroscedasticidad en los residuos Ahora bien, de no cumplirse este supuesto estremos en presencia de heteroscedasticidad en los residuos. Gráficamente se vería de la siguiente manera: Simbólicamente, Donde el subíndice i nos recuerda que las varianzas condicionales de ui han dejado de ser constantes.

  13. 3. Heteroscedasticidad en los residuos ¿Qué cambia en el análisis de regresión? Los estimadores de MCO dejan de ser “eficientes” (puesto que la varianza no es mínima). Más allá del método gráfico, existen diversos tests de hipótesis sobre las varianzas estimadas: La prueba de correlación por grado de Spearman, el test de Goldfeld-Quandt, el de Breusch-Pagan-Godfrey y la prueba general de heteroscedasticidad de White.

  14. 3. Heteroscedasticidad en los residuos Prueba de Spearman Estableciendo un coeficiente de correlación por rango como Donde di es la diferencia en los rangos asignados a dos características diferentes del i-ésimo individuo o fenómeno, el coeficiente anterior puede utilizarse para detectar heteroscedasticidad, computando los errores estimados y los valores de X o de Y estimada. Suponemos que el coeficiente poblacional de correlación por rango, , es cero y n>8, la significancia del rs muestral puede ser probada mediante la prueba t de la siguiente manera:

  15. 3. Heteroscedasticidad en los residuos Test de Goldfeld-Quandt Es aplicable si suponemos que la varianza heteroscedástica está relacionada positivamente con una de las variables explicativas en el modelo de regresión, por ejemplo: Donde es una constante. Si esta fuese la relación, mayor sería mientras mayores fueran los valore de Xi. El método de prueba es el siguiente: 1) Ordenamos las observaciones de acuerdo a los valores de X, de menor a mayor. 2) Omitimos las c observaciones centrales, dividiendo las restantes en dos grupos de (n-c)/2 observaciones cada uno.

  16. 3. Heteroscedasticidad en los residuos Test de Goldfeld-Quandt 3) Hacemos regresiones individuales sobre ambos grupos, obteniendo las respectivas sumas de los cuadrados residuales (SCR), cuyos grados de libertad correspondientes son, Donde k es el número de parámetros que deben estimarse, incluyendo la intersección. 4) Se calcula la razón, Con la hipótesis nula de que las ui están normalmente distribuidas (y el supuesto de homoscedasticidad es válido).

  17. 3. Heteroscedasticidad en los residuos Test de Breusch-Pagan-Godfrey El éxito de la prueba anterior depende no solamente del valor de c, sino también de la identificación de la variable X correcta que servirá de referencia para el ordenamiento de las observaciones. Podemos evitar estas limitaciones si consideramos la prueba BPG. Supóngase que la varianza del error se describe así: Donde es algún tipo de función de las variables Z no estocásticas; algunas de las X o todas ellas pueden servir como Z. Para probar que la varianza es homoscedástica, hay que probar que los son iguales a cero.

  18. 3. Heteroscedasticidad en los residuos Test de Breusch-Pagan-Godfrey 1) Estimar la recta regresional mediante MCO y obtener los residuos. 2) Obtener . 3) Construir las variables pi definidas como, 4) Realizar la siguiente regresión, Donde vi es el término de residuo para esta regresión. 5) Computar la suma de los cuadrados explicados y definir el siguiente estadístico de prueba: Con hipótesis nula de homoscedasticidad.

  19. 3. Heteroscedasticidad en los residuos Prueba de White Es más práctico planteárselo en un modelo de regresión de varias variables. Supóngase una regresión, El testeo se realiza de la siguiente forma: 1) Realizar la regresión y obtener los residuos. 2) Efectuar la siguiente regresión auxiliar: Computándose el R2 de esta última. 3) Bajo la hipótesis nula de que no hay heteroscedasticidad, puede demostrarse que, asintóticamente, Donde los grados de libertad son el número de regresores de la regresión auxiliar (sin contar al intercepto).

  20. 4. Correlación entre residuos Existe la posibilidad de que los errores no sean independientes entre sí, o sea, que estén correlacionados. A este fenómeno particular se lo llama autocorrelación (en el caso de las series de tiempo) o correlación espacial (para las series de datos de corte transversal). Si esto ocurriese, seríamos capaces de incorporarlo al análisis para mejorar tanto nuestra descripción característica de las series bajo análisis, así como de nuestras predicciones futuras de las mismas. Test de Durbin-Watson: es el test más común para detectar la presencia de autocorrelación en las perturbaciones. Su único inconveniente es que sirve únicamente para la detección de autocorrelación de primer orden, simbólicamente:

  21. 4. Correlación entre residuos Test de Durbin-Watson: Para realizar nuestro test de hipótesis resulta práctico plantear la siguiente ecuación: Entonces, tendremos las siguientes hipótesis nula y alternativa, respectivamente, Y nuestro estadístico de prueba será:

  22. 4. Correlación entre residuos Rechazamos H0. Evidencia de AC+ Rechazamos H0. Evidencia de AC- Zonas de Indefinición Test de Durbin-Watson: Puesto que , el estadístico d implica que . Reglas de Decisión No se rechazamos H0.

  23. 5. Introducción a los procesos estocásticos Antes de empezar a trabajar con los mismos, podemos afirmar que hay cuatro tipos de modelos dinámicos, según las siguientes condiciones: Su dominio de la variable: el mismo puede ser discreto o continuo Su dominio del tiempo: también puede ser discreto o continuo. Ahora bien, las series de tiempo son “sets” de observaciones sobre una variable, registradas en intervalos de tiempo consecutivos. Su análisis tiene dos objetivos: la descripción de sus características relevantes y la predicción de valores futuros de las mismas.

  24. 5. Introducción a los procesos estocásticos 1-Proceso estocástico-Definición estricta: Tendremos un proceso estocástico cuando podamos definir la función de probabilidad conjunta para cualquier sucesión finita de sus variables aleatorias. Para definir estrictamente el proceso es necesario conocer todas las probabilidades de transición, conocidas como estructura de probabilidades del proceso. Estas probabilidades de transición relacionan a cada variable con su infinito pasado. Sin embargo, la autorregresividad puede resumirse a ciertos estados. Según sea el peso de la propia historia tendremos procesos “sin memoria” (autorregresivos de orden 0), procesos de Markov (autorregresivos de orden 1) y proceso de Yule (autorregresivos de orden 2). Estos son los casos más comunes.

  25. 5. Introducción a los procesos estocásticos 2-Proceso estocástico-Definición débil Se define al proceso estocástico a partir de sus momentos, en particular los de 1º y 2º orden. Para definir al proceso estocástico entonces debo estimar sus momentos de primero y segundo orden, que son ni más ni menos que la media de la variable, en cada momento del tiempo, y la matriz de varianzas y autocovarianzas, entre el valor que toma la variable en distintos momentos del tiempo.

  26. 5. Introducción a los procesos estocásticos Cualquier serie de tiempo generada por un proceso estocástico o aleatorio y un determinado set de información puede ser considerada una realización particular de dicho proceso estocástico. Es así como podemos marcar una analogía con lo visto en la econometría clásica, donde realizamos una diferenciación entre población y muestra. Trabajando con modelos dinámicos, vamos a establecer claras diferencias entre un proceso estocástico y una serie de tiempo (que es una única realización del proceso estocástico). Población Muestra Proceso estocástico Serie de tiempo

  27. 5. Introducción a los procesos estocásticos 3-Proceso estocástico estacionario estricto Un proceso es estacionario en sentido estricto (o invariante en el tiempo), si las distribuciones de probabilidades conjuntas para las sucesiones de variables e son iguales, para todo h>0 y para cualquier subconjunto Entonces, si un proceso es estacionario en sentido estricto, las funciones de distribución de probabilidades, , son independientes del tiempo (es decir, que todas las variables Y(t) tienen la misma distribución de probabilidades).

  28. 5. Introducción a los procesos estocásticos 4-Proceso estocástico estacionario en sentido débil Un proceso es estacionario de orden S cuando sus momentos de orden S son independientes del tiempo. Esto equivale a decir, según la definición débil del proceso estocástico, que un proceso es estacionario si su media y varianza son iguales para cualquier t y si el valor de la covarianza entre dos períodos de tiempo depende solamente de la distancia o rezago entre esos dos períodos y no del tiempo en el cual se ha calculado la covarianza.

  29. 5. Introducción a los procesos estocásticos Entonces, sea pues Yt un proceso estocástico, será éste estacionario si cumple con Donde la última ecuación habla sobre la covarianza con rezago k. A partir de lo visto, existen dos formas tendientes a evaluar si un proceso estocástico es o no estacionario. Una de las pruebas más utilizadas es el llamado Test de Estacionariedad basado en el correlograma.

  30. 5. Introducción a los procesos estocásticos Para ello vamos a observar la Función de Autocorrelación (FAC). La FAC del rezago k, que suele denotarse como ρk, se define como: Ya que la covarianza y la varianza están medidas en las mismas unidades, ρk es un número puro que se encuentra entre -1 y +1. Sin embargo, sabemos que sólo podremos trabajar con datos muestrales, o aplicando la terminología de los modelos dinámicos, con alguna realización del proceso estocástico bajo estudio.

  31. 5. Introducción a los procesos estocásticos Entonces vamos a trabajar con la función de autocorrelación muestral (FACM), para la cual deberemos calcular la covarianza muestral al rezago k y la varianza muestral de la siguiente manera: Y teniendo en cuenta que la varianza del proceso es: Entonces la función de autocorrelación muestral queda definida por:

  32. 5. Introducción a los procesos estocásticos Será bueno antes de continuar, detenernos en la función de autocorrelación parcial, que nos brindará datos siempre que estemos trabajando con relación entre observaciones para rezagos mayores a uno. La definición de Función de Autocorrelación Parcial (FACP) es una función que a cada instante del tiempo t y para cada entero k toma un valor igual a la correlación entre yt e yt-k, ajustada por el efecto de los retardos intermedios yt-1, yt-2,..., yt-k-1. El primer valor de la FAC y la FACP coinciden, dado que no hay que corregir por ningún retardo intermedio.

  33. 5. Introducción a los procesos estocásticos La significancia estadística de cualquier ρk puede ser evaluada a partir de su error estándar. Si estamos ante una serie de tiempo puramente aleatoria, los coeficientes de autocorrelación muestral se distribuirán de forma aproximadamente normal con media cero y varianza 1/T, donde T es el número de observaciones de la muestra. Por lo tanto, a un nivel de significación dado, si el ρk estimado se encuentra dentro del intervalo definido, podremos no rechazar la hipótesis nula respecto a que el verdadero valor de ρk es igual a 0.

  34. 5. Introducción a los procesos estocásticos Recordemos entonces que las hipótesis a contrastar en este test son: Asimismo puede realizarse un test de significatividad conjunta en donde se evaluará si todos los coeficientes de autocorrelación son simultáneamente iguales a cero. Box y Pierce desarrollaron para ello el estadístico Q, el que se define de esta manera En donde m es la longitud del rezago. El estadístico se distribuye como una χ2 con m grados de libertad.

  35. 5. Introducción a los procesos estocásticos Si el Q calculado excede al Q crítico, a un determinado nivel de significación, se puede entonces rechazar la hipótesis nula respecto a que todos los ρkson iguales a 0. Existe asimismo una variante del Test Q conocida como la prueba de Ljung, Box y Pierce (LBP). El estadístico para dicho test alternativo se define como: También se distribuye como una chi cuadrado con m grados de libertad. La regla de decisión se realizará en este test de igual manera que en el planteo del test estadístico anterior.

  36. 5. Introducción a los procesos estocásticos 5- Concepto de ergodicidad En las series económicas, es imposible recrear las condiciones bajo las cuales se realiza un experimento, por lo que la estabilidad y fiabilidad de nuestra estimación se halla restringida por la imposibilidad de repetir el experimento en idénticas condiciones. Afirmar que un proceso es ergódico significa suponer que la estructura generadora el proceso puede ser inferida a partir de la observación de la muestra finita que constituye la serie cronológica formada por una de sus realizaciones. Se prueba que un proceso estacionario es ergódico, si se verifica que: Siendo ésta condición suficiente pero no necesaria.

  37. 5. Introducción a los procesos estocásticos 6- El teorema de descomposición de Wold Este teorema afirma que cualquier proceso estacionario en el sentido débil (de segundo orden) puede ser expresado como la suma de una función determinística más una infinita secuencia de variables aleatorias incorrelacionadas: De manera equivalente, podría decirse que cualquier proceso estacionario de segundo orden pede expresarse como la suma de un componente determinístico más un proceso estocástico lineal.

  38. 5. Introducción a los procesos estocásticos 7-Ruido blanco Cuando tratamos con procesos estocáticos, uno de los conceptos más habituales es el de ruido blanco. Por esto se entiende una sucesión de variables aleatorias con esperanza cero, igual varianza e independientes en el tiempo. En lo sucesivo vamos a denotar al ruido blanco como {εt}. Notarán que, salvando las diferencias, en nuestros modelos simples de regresión, estábamos pidiéndole a los residuos de dichos modelos que se comportaran como un ruido blanco.

  39. FIN Me pueden escribir a: jrs06@cema.edu.ar Las presentaciones estarán colgadas en: www.cema.edu.ar/u/jrs06

More Related