1 / 21

Econometría II Análisis de series temporales (I): Procesos estacionarios

Econometría II Análisis de series temporales (I): Procesos estacionarios. Miguel Jerez y Sonia Sotoca Universidad Complutense de Madrid. Febrero 200 4. Índice:. Introducción Conceptos básicos Procesos elementales Identificación Anexo: Estudio de los procesos más comunes.

amberly
Download Presentation

Econometría II Análisis de series temporales (I): Procesos estacionarios

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Econometría II Análisis de series temporales (I): Procesos estacionarios Miguel Jerez y Sonia Sotoca Universidad Complutense de Madrid Febrero 2004

  2. Índice: • Introducción • Conceptos básicos • Procesos elementales • Identificación • Anexo: Estudio de los procesos más comunes

  3. Introducción (I) • Diferencias entre el análisis deseries temporales y la econometría estudiada anteriormente: • Los datos están ordenados. • No consideramos, en principio, variables exógenas. • Se trata de construir un modelo sencillo que aproveche la inercia de los datos económicos para predecir utilizando la información pasada. • La econometría de series temporales contempla tres fases de análisis • identificación, • estimación (no lineal) y • diagnosis, • que se recorren iterativamente.

  4. Introducción (II): Ejemplos • Número de pasajeros de líneas aéreas. La serie muestra: • un perfil creciente (tendencia), • fluctuaciones estacionales y • una variabilidad que crece a medida que aumenta el nivel de la serie. • Rendimientos del índice NIKKEI de la Bolsa de Tokio. Los datos: • fluctúan establemente en torno a una media nula, • muestran períodos de alta y baja volatilidad Los primeros y segundos momentos (media y varianza) de distintas series temporales pueden comportarse de formas muy diferentes Las series temporales de naturaleza similar (p. ej., financieras) a menudo presentan rasgos comunes que son de gran utilidad para analizarlas

  5. Conceptos básicos (I): Definiciones Proceso estocástico es un conjunto de variables aleatorias asociadas a distintos instantes de tiempo. Serie temporal, es un conjunto de observaciones o medidas realizadas secuencialmente en intervalos predeterminados y de igual, o aproximadamente igual, duración. • La relación entre una serie temporal y el proceso estocástico que la genera es la misma que hay entre una muestra y la variable aleatoria de la que procede. • Las peculiaridades de una serie temporal (frente a una muestra) y de un proceso estocástico (frente a una variable aleatoria) son: • las series temporales y los procesos estocásticos están referidos a instantes de tiempo concretos, y • los datos están ordenados desde el pasado hasta el presente. • El objetivo del análisis de series temporales es inferir la forma del proceso estocástico a partir de las series temporales que genera.

  6. Conceptos básicos (II): Hipótesis simplificatorias • En ciencias sociales suele ser imposible obtener varias muestras de una serie temporal, por lo que es necesario realizar una serie de supuestos simplificatorios. • Los supuestos más comunes son: • Linealidad: El valor que toma hoy la serie (o el proceso) depende linealmente de: a) sus valores pasados y b) los valores presentes y pasados de otras series. • Estacionariedad (débil): La media y varianza incondicional de una serie (o proceso) son constantes, las autocovarianzas entre dos valores sólo dependen de la distancia temporal que los separa. Formalmente: • Normalidad: El proceso estocástico generador sigue un modelo normal de distribución de probabilidad (proceso “gaussiano”).

  7. .4 .3 .2 .1 .0 -.1 -.2 -.3 -.4 100 200 300 400 500 Ruido blanco Procesos elementales (I): Ruido blanco. • Un proceso de ruido blanco representa una variable que: • oscila en torno a una media constante, • con una volatilidad constante y • cuyo pasado no contiene información útil para predecir valores futuros. • Podemos representar esta variable como con: La figura muestra el perfil de 500 observaciones simuladas del proceso de ruido blanco:

  8. Procesos elementales (II): AR(1). Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo valor actual está relacionado con su valor anterior mediante un modelo de regresión. Esto es: con: (estacionariedad) La figura muestra el perfil de dos series generadas por un AR(1) sin constante, con distintos valores del parámetro :

  9. Procesos elementales (III): MA(1). Un proceso de medias móviles de primer orden, MA(1), representa una variable cuyo valor actual está correlado con su valor anterior . Esto es: Con: (invertibilidad) La figura muestra el perfil de dos series generadas por un proceso MA(1) sin constante, con distintos valores de  :

  10. Procesos elementales (IV): Paseo aleatorio. Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y, por tanto, imprevisibles. Esto es: La figura muestra el perfil de dos series generadas por paseos aleatorios con y sin deriva. Como puede observarse, la característica fundamental de este proceso es la falta de afinidad de las series a una media estable:

  11. Identificación (I): Estadística descriptiva Para contrastar puede usarse el estadístico: Coeficientes de asimetría y kurtosis: La hipótesis de normalidad puede contrastarse mediante el test de Jarque-Bera: El histograma muestra el perfil de una muestra del proceso: Obsérvese que los momentos muestrales se aproximan a los teóricos y el test de Jarque-Bera no rechaza normalidad.

  12. Identificación (II): Función de autocorrelación simple • El coeficiente muestral de autocorrelación simple de orden k ( ) se define como: • con: • Para hacer inferencia sobre la función de autocorrelación simple (FAS o ACF) pueden usarse los siguientes resultados: • Para muestras suficientemente grandes • Si es cierto entonces • en donde: K es el número de retardos de la ACF • p es el número de parámetros estimados, si la serie es de residuos. En la figura se muestra la función de autocorrelación simple de una muestra del proceso: ... como puede observarse su configuración se parece, sin coincidir exactamente, a la FAS teórica de un proceso MA(1)

  13. Identificación (III): Función de autocorrelación parcial Los procesos MA tienen una FAS finita. Por tanto en este caso la FAS resulta muy útil, tanto para detectar una estructura MA como para identificar su orden. Un instrumento con propiedades análogas para procesos AR es el coeficiente muestral de autocorrelación parcial de orden k ( ), que se define como el k-ésimo coeficiente de una autorregresión de orden k estimada por MCO: al gráfico de barras de los coeficientes frente a su correspondiente retardo se le llama función de autocorrelación parcial (abreviadamente, FAP o PACF). En la figura se muestran las funciones de autocorrelación de una muestra del proceso: como puede observarse, la FAP identifica con claridad la naturaleza y el orden del proceso generador de los datos.

  14. Identificación (IV) Ruido blanco: Combinando instrumentos gráficos y estadísticos pueden reconocerse de forma aproximada las pautas de autocorrelación características de los distintos procesos. En análisis de series temporales, a este proceso de especificación empírica se le llama “identificación” AR(1):

  15. Identificación (V) MA(1): • La identificación puede estructurarse como una secuencia de preguntas: • ¿Es estacionaria la serie? • ¿Tiene una media significativa? • ¿Es finita o infinita la ACF? • ¿Es finita o infinita la PACF? Paseo aleatorio:

  16. Identificación (VI) • Combinando el análisis de la ACF y la PACF, la identificación de los procesos estacionarios puede reducirse a decidir: • ¿Cuál de las dos funciones es finita? para determinar la naturaleza del proceso generador: • ¿A partir de qué retardo muere la ACF o PACF? para determinar el orden del proceso. • Estas técnicas requieren usar estadísticos como la media, la varianza o la covarianza muestrales, que sólo tienen sentido si el proceso es estacionario, esto es, si los datos tienen una media y una varianza finitas y aproximadamente constantes.

  17. 1 1 ACF PACF Retardo Retardo -1 -1 1 Retardo -1 A.1. Estudio de los procesos más comunes: AR(1) Los procesos AR(1) se reconocen por una ACF infinita y una PACF que se anula a partir del segundo retardo. Si los datos tienen media, es necesario especificar un término constante.

  18. ACF PACF 1 1 Retardo Retardo -1 -1 1 Retardo -1 A.2. Estudio de los procesos más comunes: MA(1) Los procesos MA(1) se reconocen por una PACF infinita y una ACF que se anula a partir del segundo retardo. Si los datos tienen media, es necesario especificar un término constante.

  19. 1 ACF PACF 1 1 Retardo Retardo Retardo -1 -1 -1 A.3. Estudio de los procesos más comunes: AR(2) Los procesos AR(2) se reconocen por una ACF infinita y una PACF que se anula a partir del tercer retardo. Si los datos tienen media, es necesario especificar un término constante.

  20. ACF PACF 1 1 Retardo Retardo -1 -1 A.4. Estudio de los procesos más comunes: AR(2)

  21. ACF ACF 1 1 Retardo Retardo -1 -1 1 1 Retardo Retardo -1 -1 A.5. Estudio de los procesos más comunes: MA(2) Los procesos MA(2) se reconocen por una PACF infinita (no se muestra aquí) y una ACF que se anula a partir del tercer retardo. Si los datos tienen media, es necesario especificar un término constante.

More Related