1 / 50

CONTRASTE Y VALIDACIÓN DE UN MODELO

CONTRASTE Y VALIDACIÓN DE UN MODELO. MEDIDAS Y CONTRASTES. Contraste de significación estadística Medidas de Bondad a priori Validación de un modelo a posteriori Contraste de Hipótesis Básicas. MEDIDAS Y CONTRASTES. Contraste de significación estadística Medidas de Bondad a priori

fell
Download Presentation

CONTRASTE Y VALIDACIÓN DE UN MODELO

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. CONTRASTE Y VALIDACIÓN DE UN MODELO

  2. MEDIDAS Y CONTRASTES • Contraste de significación estadística • Medidas de Bondad a priori • Validación de un modelo a posteriori • Contraste de Hipótesis Básicas

  3. MEDIDAS Y CONTRASTES • Contraste de significación estadística • Medidas de Bondad a priori • Validación de un modelo a posteriori • Contraste de Hipótesis Básicas

  4. MEDIDAS Y CONTRASTES • Contraste de significación estadística a) Significación de los parámetros Dado el modelo: Los parámetros no son sino aproximaciones cuantitativa del efecto que tiene sobre la variable dependiente un cambio en la variable independiente j, permaneciendo el resto de factores constantes El primer contraste elemental es que el signo del parámetro. Este deber corresponder con el que cabe esperar a priori, dado el marco teórico que existente sobre las relaciones entre estas variables.

  5. MEDIDAS Y CONTRASTES Ejemplo de clase Variables expresada en niveles

  6. MEDIDAS Y CONTRASTES Especificación del modelo: Nivel-Nivel • Significación/interpretación de los parámetros La interpretación de los parámetros corresponde al número de unidades que varía en media Y cuando la variable j varía en una unidad, permaneciendo el resto de variables constantes El términose interpreta como el pronóstico de Y cuando las Xj se anulan

  7. MEDIDAS Y CONTRASTES Ejemplo de clase Variables expresadas en Logaritmo neperiano

  8. MEDIDAS Y CONTRASTES Especificación del modelo: Log-Log • Significación/interpretación de los parámetros La interpretación de los parámetros se efectúa en términos de elasticidades, lo que supone que cuando la variable j se modifica en 1%, la variable dependiente cambia en %, permaneciendo el resto de variables constantes.

  9. MEDIDAS Y CONTRASTES El valor de los parámetros estimados dependen directamente de la unidad de medida de las variables explicativas. Si los valores de variable j se multiplica por el factor w, el correspondiente parámetro se verá reducido en la misma proporción (w) y viceversa Si se multiplica la variable renta por w=1/1000, el valor del nuevo parámetro se muestra a continuación No obstante, contribución de cada variable al cambio de la variable dependiente permanece inalterado

  10. MEDIDAS Y CONTRASTES En cambio si los valores de variable dependiente (Y) se dividen por el factor w, todos los parámetros se verán reducido en la misma proporción (w) y viceversa. Si w=1/1000, la nueva estimación arroja los siguientes resultados

  11. MEDIDAS Y CONTRASTES El hecho de que las unidades en las que se expresan tanto la variable dependiente como las independientes influyen en el valor del parámetro, imposibilita determinar la contribución real de las variables independientes en la explicación de la variable objeto de estudio . Esto puede evitarse obteniendo el modelo a partir de las variables normalizadas o estandarizadas Donde =media muestral de la variable dependiente =media muestral de las variable independiente j =desviación típica de la variable dependiente =desviación típica de la variables independiente j

  12. MEDIDAS Y CONTRASTES Los coeficientes de regresión obtenido a partir de variables estandarizadas se les denomina coeficientes Beta. La interpretación de los parámetros se efectúa en términos de desviaciones típicas. Un incremento de una desviación típica de la variable j, incrementa la variable dependiente en unidades de desviación estándar. La principal ventaja de expresar las variables en una misma unidad de medida es que permite la comparación de manera directa. La variable independiente cuyo coeficiente sea en término absoluto superior al resto, será la variable que contribuya en mayor medida a explicar la variable dependiente.

  13. MEDIDAS Y CONTRASTES Ejemplo de clase Variables Tipificadas Variables en niveles Estimación del modelo con las variables tipificadas coeficientes Betas En este caso, la variable renta es la que contribuye en mayor medida a explicar la demanda de turismos

  14. MEDIDAS Y CONTRASTES Estimación del modelo con las variables tipificadas Relación entre los parámetros directamente estimados y los coeficientes beta Ejemplo de clase

  15. MEDIDAS Y CONTRASTES • Contraste de Significación Estadística b) Contrastes de significación individual de los parámetros En el contraste de significación estadística se somete a hipótesis algún valor desconocido de los parámetros ( ) y se trata de verificar si el valor del parámetro j calculado, a partir de una muestra, se encuentra dentro de los límites (de confianza) alrededor del valor sometido a hipótesis. Se puede contrastar la hipótesis de que un determinado parámetro sea igual, menor o mayor que una constante C. Existe en econometría un contraste llamado contraste de significación estadística en el que se plantea que el valor del parámetro sea igual a cero. En el caso de que la hipótesis nula resulte cierta, supone que la correspondiente variable asociada a ese parámetro no tiene influencia, de forma individual, (estadísticamente hablando), sobre la variable dependiente. Hipótesis Nula Hipótesis Alternativa

  16. MEDIDAS Y CONTRASTES • Contraste de Significación b) Contraste de significatividad individual de los parámetros Se podría pensar en trabajar con los coeficientes estandarizados y no realizar el contraste de hipótesis, sin embargo este hecho no garantiza que aquél cuyo valor se aproxime a cero indique ausencia real de esta variable en la explicación de la variable dependiente. Por tanto se tendrá que tomar en cuenta la distribución estadística del estimador así como su dispersión. Retomando las propiedades de los parámetros y considerando que éstos son una función lineal de la perturbación aleatoria, se concluye que son de igual modo una variable aleatoria que seguirán una distribución del tipo: Dado que se desconoce el verdadero valor de la varianza de la perturbación aleatoria no es conveniente emplear la distribución normal para el cálculo de contrastes estadísticos y de intervalos de confianza. En su lugar se empleará la distribución t de Student como alternativa, ya que no presenta este inconveniente.

  17. MEDIDAS Y CONTRASTES • Contraste de Significación Estadística b) Contraste de significatividad individual de los parámetros Por tanto partiendo de la expresión tipificada (Z) de los parámetros (restada su media y divididos por su desviación típica) se puede obtener la siguiente expresión . Donde . Representa el estimador insesgado de la varianza de la perturbación aleatoria Representa el elemento ubicado en la fila y columna j de diagonal principal de la matriz (X´X)-1

  18. MEDIDAS Y CONTRASTES • Contraste de Significación Estadística b) Contraste de significatividad individual de los parámetros. La prueba T El estadístico resultante sigue una distribución t de Student con n-k grados de libertad. Por tanto, en la práctica al utilizar el estimador insesgado de la perturbación aleatoria se concluyen que los parámetros se distribuyen como una t de student con n-k grados de libertad.

  19. MEDIDAS Y CONTRASTES • Contraste de Significación Estadística b) Contraste de significatividad individual de los parámetros. La prueba T Dado que: Se puede contrastar distintas hipótesis sobre el valor de los parámetros. La más común es versus Estadístico de Contraste Regla de decisión Se rechaza H0 Si Si Se acepta H0

  20. MEDIDAS Y CONTRASTES • Contraste de Significación Estadística b) Contraste de significatividad individual de los parámetros. La prueba T Continuando con el ejemplo de clase Ambos parámetros resultan estadísticamente distinto de cero dado que superan en términos absolutos al valor de la T de tablas (2,571) con 95% grados de confianza. Variable Renta Variable Precios

  21. MEDIDAS Y CONTRASTES • Contraste de Significación Estadística c) Contraste de significatividad individual de los parámetros. Error Tipo I y Tipo II • Cuando una hipótesis estadística es aceptada o rechazada con base a los resultados de una muestra, siempre existe la posibilidad de tomar una decesión equivocada, concretamente: • Rechazar la hipótesis nula siendo cierta (Error tipo I) • Aceptarla la hipótesis nula siendo falsa (Error tipo II) La conclusión de prueba t, sobre la significación estadística de los parámetros, se puede alcanzar de igual modo empleando el Prob (en el caso de eviews) o de significatividad asociada, que mide la probabilidad que se tiene de cometer el error tipo I. Si el valor de este estadístico resulta inferior al nivel de confianza con el que el investigador trabaja, entonces se deberá rechazar la hipótesis nula.

  22. MEDIDAS Y CONTRASTES • Contraste de Significación estadística c) Error Tipo I y Tipo II Continuando con el ejemplo de clase Variable Renta: El valor Prob (0,0000) es inferior al 0,05 (5%), lo que supone que podemos rechazar la H0 con un 100% de confianza Variable Precios El valor Prob (0,0041) es inferior al 0,05 (5%), lo que supone que podemos rechazar la H0 con un 99,59% de confianza

  23. MEDIDAS Y CONTRASTES • Contraste de Significación estadística d) Intervalos de Confianza En el cálculo del intervalo de confianza se trata de establecer un rango (dos valores) con una probabilidad determinada, en el que se debe contener el verdadero, aunque desconocido, valor del parámetro ( ). La idea que subyace en la estimación por intervalos es tener alguna idea acerca de la precisión de los estimadores o coeficientes puntuales calculados. Como cabría esperar, un buen estimador puntual es aquel cuyo valor está cercano al verdadero valor del parámetro (valor poblacional). Sin embargo, debe tomarse en cuenta que los estimadores son estadísticos muestrales, y en consecuencia son una variable aleatoria. Esto es razón suficiente para considerar que se necesita una posible medida del error, que se comente al usar un estimador puntual del parámetro.

  24. MEDIDAS Y CONTRASTES • Contraste de Significación estadística d) Intervalos de Confianza Se puede escribir de manera genérica del siguiente modo Los límites del intervalo también son una variable aleatoria, dado que son función del estimador y varían de una muestra a otra De forma más concreta y despejando el parámetro real de la siguiente expresión: Se obtiene:

  25. MEDIDAS Y CONTRASTES • Contraste de Significación estadística d) Intervalos de Confianza. Trabajando con un nivel de confianza del 95% Continuando con el ejemplo de clase Para el parámetro asociado a la variable Renta: = 9,215517+/-(0,599610*2,571) = 7,6739196; 10,3571143 Para el parámetro asociado a la variable Precios: = -4,889425+/-(0.979159*2,571) = -7,4068428; -2,3720072

  26. MEDIDAS Y CONTRASTES • Contraste de Significación estadística e) Coeficiente de Determinación. Calculados los parámetros y evaluada su significación estadística, se procederá a evaluar la bondad global de la recta de regresión estimada, en otras palabras se evaluará qué tan bien se ajusta la misma a la muestra de datos seleccionados. Uno de los estadísticos empleado para ello es el denominado R2, que corresponde a una medida en la cual se explica el porcentaje de variación de la variable dependiente explicada por todas las variables independientes incluidas en el modelo. Forma de Estimación: Donde = STC (suma total de cuadrados): Variación total de los valores reales respecto a su media muestral = SEC (suma explicada de cuadrados): Variación de los valores estimados (Yi) alrededor de su media = SRC (suma explicada de cuadrados): Variación residual o no explicada o la suma de los residuos al cuadrados

  27. MEDIDAS Y CONTRASTES • Contraste de Significación estadística e) Coeficiente de Determinación. Forma de Estimación (continuación). Por tanto, la variación total de los valores observados (Yi) alrededor de su media puede ser dividida en dos partes, una atribuible a la recta de regresión y otra a las fuerzas aleatorias. Si se divide todo por la STC, se tiene. O de otro modo

  28. MEDIDAS Y CONTRASTES • Contraste de Significación estadística e) Coeficiente de Determinación. Forma de Estimación (continuación). Por tanto se puede despejar o definir el r2 o coeficiente de determinación del siguiente modo O lo que es lo mismo De otro modo, si se dividen la suma total de cuadrados por el tamaño de la muestra, se tendría todo en término de las varianzas.

  29. MEDIDAS Y CONTRASTES • Contraste de Significación estadística e) Coeficiente de Determinación. Forma de Estimación (continuación). De donde se define el coeficiente de determinación del siguiente modo: Siguiendo el procedimiento anterior, se puede definir igualmente como:

  30. MEDIDAS Y CONTRASTES • Contraste de Significación estadística e) Coeficiente de Determinación. Continuando con el ejemplo de clase Partiendo de los estadísticos de las variables, se puede obtener el coeficiente de determinación

  31. MEDIDAS Y CONTRASTES • Contraste de Significación estadística e) Coeficiente de Determinación. Continuando con el ejemplo de clase En términos de las varianzas:

  32. MEDIDAS Y CONTRASTES • Contraste de Significación estadística f) Coeficiente de Determinación ajustado. Una propiedad del coeficiente del determinación es que es una función no decreciente del número de variables explicativas presentes en el modelo. Lo que supone que en la medida que aumenta el número de variables independientes en la ecuación, el R2 aumenta o por lo menos nunca disminuye Por tanto, en la búsqueda de la mejor especificación para un modelo, se debe tener en cuenta el número de variables introducidas a la hora de evaluarlo a través del coeficiente de determinación. Para ello se puede emplear un estadístico alternativo, denominado coeficiente de determinación ajustado. Se denomina ajustado por los grados de libertad asociados a las sumas cuadráticas. Forma de Estimación: Continuando con el ejemplo de clase

  33. MEDIDAS Y CONTRASTES • Contraste de Significación estadística f) Relación del coeficiente de determinación y el coeficiente de determinaciónajustado A partir de la ecuación del coeficiente de determinación ajustado se puede intuir la relación entre ambos estadísticos Con lo que: De la ecuación se concluye que para k>1 Forma de Estimación: Continuando con el ejemplo de clase

  34. MEDIDAS Y CONTRASTES • Contraste de Significación estadística g) Contraste o contraste F. Corresponde al igual que el coeficiente de determinación a una medida representativa de la capacidad global o general del modelo estimado para seguir los cambios o la evolución de la variable dependiente. En esta prueba se contrasta la nulidad conjunta de todos los parámetros. Hipótesis Nula Hipótesis Alternativa Al menos uno de los coeficientes es distinto de cero Si se rechaza la hipótesis nula se puede afirmar que los parámetros respectivos de las variables X1, X2, X3,….Xk influyen conjuntamente de forma significativa en la explicación de la variable dependiente Así el contraste F compara dos modelos, uno en que se impone alguna restricción en los parámetros (en este caso que todos los parámetros sean iguales a cero) frente a otro modelo que no tiene esta restricción.

  35. MEDIDAS Y CONTRASTES • Contraste de Significación estadística g) Contraste o contraste F. Donde Corresponde a la suma cuadrática del error del modelo restringido. Un modelo donde no se utilizan variables exógenas, o lo que es lo mismo un modelo donde se supone que cualquier variable exógena adicional no resultaría significativa. Corresponde a la suma cuadrática del error del modelo sin restringir Estadístico de Contraste Regla de decisión > F tablas Si Se rechaza H0 < F tablas Si Se acepta H0

  36. MEDIDAS Y CONTRASTES • Contraste de Significación estadística g) Contraste o contraste F. Continuando con el ejemplo de clase

  37. MEDIDAS Y CONTRASTES • Contraste de Significación estadística g) Contraste o contraste F. Continuando con el ejemplo de clase Regla de decisión Dado que F(2,5) > F tablas (13,27), con 99% de confianza se rechaza la hipótesis nula Dado que F(2,5) > F tablas (5,79), con 95% de confianza se rechaza la hipótesis nula Con lo que al menos uno de los parámetros es distinto de cero.

  38. MEDIDAS Y CONTRASTES • Contraste de significación estadística • Medidas de Bondad a priori • Validación de un modelo a posteriori • Contraste de Hipótesis Básicas

  39. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. Consisten en la comparación entre los valores reales y los estimados por el modelo para la variable objeto de estudio. Una vez que se haya realizado la valoración estadística del modelo, se puede llevar a cabo la valoración de los errores cometidos durante el proceso de estimación. a) Análisis gráficos de los residuos. Continuando con el ejemplo de clase

  40. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. Unidad de Medidas b) Medidas sobre los errores. Misma unidad de la variable dependiente Raíz del Error cuadrático Medio Misma unidad de la variable dependiente Error Medio Absolutos Porcentaje Medio de Error Porcentaje

  41. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. b) Medidas sobre los errores. Continuando con el ejemplo de clase

  42. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. b) Medidas sobre los errores. Continuando con el ejemplo de clase (salida de eviews)

  43. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. c) Análisis de puntos de cambio de tendencia. En análisis de regresión sobre series temporales es frecuente que el modelo estimado represente la senda de largo plazo (tendencia) seguida por la variable objeto de estudio. No obstante, existen algunos puntos (máximos y mínimos locales) de especial interés o relevancia de cara la capacidad de modelo estimado en reproducirlos. Tipos de cambio de Tendencia. Ocurre un máximo local cuando: e Por otro lado, ocurre un mínimo local cuando: e

  44. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. c) Análisis de puntos de cambio de tendencia. Para evaluar el modelo respecto de los cambios de tendencia se considera: El porcentaje de cambios falsamente predichos respecto del total de cambios predichos (error tipo I) El porcentaje de cambios de tendencias fallados respecto del total de cambios de tendencia (error tipo II) Continuando con el ejemplo de clase Error tipo II = 0/4 =0 Error tipo I= 0/4 =0

  45. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. d) Diagrama de predicción realización. Propuesto por Theil. Corresponden a un diagrama de dispersión donde se representan las tasas de crecimiento reales y estimadas para la variable endógena. En estos casos la línea de predicción perfecta corresponde a la diagonal que atraviesa los cuadrantes primero y tercero, con zonas de sub o sobrevaloración. Si los puntos se encontrasen en los cuadrantes segundos y cuarto, la predicción presentaría un problema de signo contrario. Continuando con el ejemplo de clase

  46. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. d) Diagrama de predicción realización. Continuando con el ejemplo de clase

  47. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. e) U de Theil, coeficiente de desigualdad de Theil. Es otra medida que permite analizar la bondad de la predicción. Está basada en la diferencia cuadrática que existe entre las tasas de crecimiento de la variable real y la estimada. Este coeficiente corresponde a la cuantificación del diagrama de predicción realización. El valor de coeficiente está comprendido entre 0 y 1. El valor 0 supone una predicción perfecta ya que coinciden ambas tasas en todos los puntos. El valor 1 en cambio supone máxima desigualdad, este hecho se puede deber a predicciones nulas para valores reales distintos de cero o viceversa.

  48. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. e) U de Theil, coeficiente de desigualdad de Theil. El valor del coeficiente se puede atribuir a tres factores: • Error Sistemático: atribuido a la diferencia sistemática entre el promedio de las tasas reales y estimadas de la variable dependiente. Toma valores positivos o negativos según la media de la tasa de crecimiento de la variable estimada sea mayor o menor que la media de la tasa de la variable real. • Error de Dispersión:atribuido a la diferencia entre las desviaciones típicas de las tasas de crecimiento reales y estimadas de la variable dependiente. Toma valores entre 0 y 1 ó -1 y 0 según la dispersión de la tasa de crecimiento de la variable estimada sea mayor o menor que la media de la tasa de la variable real. • Error de Correlación: Supone el que las dos series siguen trayectorias distintas, queda reflejado en la mayor o menor correlación existente entre las tasas de crecimiento reales y estimadas de la variable dependiente.

  49. MEDIDAS Y CONTRASTES • Medidas de Bondad a priori. e) U de Theil, coeficiente de desigualdad de Theil. Continuando con el ejemplo de clase El error en este caso es bastante bajo. No obstante la mayor proporción mismo se concentra en el componente correlación, señalando que no tienen una senda común.

  50. MEDIDAS Y CONTRASTES • Contraste de significación estadística • Medidas de Bondad a priori • Validación de un modelo a posteriori • Contraste de Hipótesis Básicas

More Related