1 / 33

Capítulo 7 Estimación de Parámetros

Capítulo 7 Estimación de Parámetros. Estadística Computacional. Algunas consideraciones previas. Conceptos básicos Distribuciones usadas en Inferencia Teoremas relevantes Estimación puntual Estimación por intervalos. Distribuciones usadas en Inferencia.

nova
Download Presentation

Capítulo 7 Estimación de Parámetros

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Capítulo 7 Estimación de Parámetros Estadística Computacional

  2. Algunas consideraciones previas • Conceptos básicos • Distribuciones usadas en Inferencia • Teoremas relevantes • Estimación puntual • Estimación por intervalos

  3. Distribuciones usadas en Inferencia 1.- Ji-Cuadrado con “n” grados de libertad. Sea X1, X2,...,Xn n v.a. continuas independientes tal que Xi ~ N (0,1) i = 1,n (i.i.d.) ~ donde

  4. donde OBS: 1. 2. 3. TABLA

  5. Distribuciones usadas en Inferencia 2.- t-Student Sea X v.a.c. tal que X ~ N (0,1) Y v.a.c. tal que Y ~ 2(n) Sea~

  6. OBS: 1. 2. 3. TABLA

  7. Distribuciones usadas en Inferencia 3.- F-de Fisher Sea X v.a.c. tal que X ~ 2(n) Y v.a.c. tal que Y ~ 2(m) independientes Sea~

  8. siendo OBS: 1. 2. TABLA

  9. Teoremas Límites • Convergencia en Distribución: • x pto. continuidad • Convergencia en Probabilidad: • >0 • Nota:

  10. Desigualdad de Chebyshev: Sea X v.a. / Entonces Ley débil de los grandes números: suc. de v.a.i.i.d. / entonces:

  11. Teorema Central de Límite: Sea {X} suc. de v.a.i.i.d / finitas. Entonces:

  12. Estimación de Parámetros El objetivo de la estimación de parámetros es proveer de métodos que permitan determinar con cierta precisión, el valor de los parámetros desconocidos de un modelo estadístico a partir de una muestra extraída al azar de una Población. 1. Método de estimación Puntual 2. Método de estimación por Intervalos

  13. Definición de Estimador Un estimador es una regla que nos indica cómo obtener un parámetro de un modelo, basándose en la información contenida en una muestra ( M={ f ( x ,  ) :     modelo ) T :    x T (x) = T (X1, X2,...., Xn) T (x) : Estimador de , variable aleatoria, función de la muestra, que no depende del parámetro . (Estadística basada en la Información) ={x : x es una muestra aleatoria} Espacio de Información  En lo que sigue = T (X1, X2,...., Xn) estimador de .

  14. Propiedades de los estimadores puntuales Un estimador es una v.a. y todo juicio sobre él, se basará en su ley de Probabilidad, y más específicamente sobre su Esperanza y Varianza. 1. se dice que es insesgado 2. se llama sesgo de 3. se llama error cuadrático medio del estimador 4. se dice que es consistente

  15. Propiedades de los estimadores puntuales 5. Si , decimos que es un estimador insesgado de varianza mínima para  . Si todo otro estimador insesgado de  , digamos , se verifica que: 6. Sea X1, X2,..., Xnm.a.  f ( x ,  ). Si es: Nota: Si es eficiente

  16. Propiedades de los estimadores puntuales • 7. Sean dos estimadores de . Se llama • eficiencia relativa de a: • es un estimador suficiente si usa toda la información • contenida en la muestra.

  17. Métodos de estimación puntual • Método de Momentos • Método de Máxima Verosimilitud • Método de Mínimos Cuadrados

  18. Momentos (K. Pearson) La idea es simple. Consiste en igualar los momentos de la población y de la muestra

  19. Máxima Verosimilitud • Consideremos X = (X1, X2,..., Xn ) m.a.  f ( x ,  ). Se llama función de verosimilitud a: • Además se define: • función soporte: • función score: El valor (vector) de  que maximiza se llama estimador máximo verosimil, i.e. (caso univariado)

  20. Propiedades de los Estimadores Máximo Verosímiles • Los estimadores máximo verosímiles son: • Asintóticamente insesgados • Asintóticamente normales • Asintóticamente eficientes • Invariantes bajo transformaciones biunívocas • Si  estimador suficiente, es suficiente

  21. Sea X1, X2,..., Xn m.a.  N (  , 2 ). Encontrar el EMV de

  22. En general: := Matriz de Información de Fisher esperada. := Matriz de Información observada en la muestra.

  23. OBS: Caso  escalar Se dice que es un estimador eficiente de 

  24. Estimación por Intervalos En la práctica, interesa no sólo dar una estimación de un parámetro, sino que además, un intervalo que permita precisar la incertidumbre existente en la estimación. Definición: Sea x m.a.  f ( x ,  ). Sean 1=T1(x), 2=T2(x) dos estadísticas de  : T1  T2  x  ; P 1    2 = 1 -  =  Entonces el I = 1 ; 2 se llama intervalo aleatorio de confianza del 100  % para  ( 0 <  < 1 ).

  25. Estimación por Intervalos Fijado , el problema de determinar 1 y 2 puede resolverse encontrando una variable aleatoria Q(x,) cuya distribución esté totalmente definida, que sea independiente de . La variable Q(x,) se denomina “Cantidad Pivotal” Ejemplo: X1, X2,..., Xn1  N ( 1 ,21) Q(x,)=Q(x,)=

  26. Método de la Cantidad Pivotal 1. Encontrar una cantidad Q. 2. P q1  Q  q2 = 1 -  =  3. Invertir P 1    2 =  , obteniendo así un intervalo I=1 ; 2 de confianza para  de nivel 100  %. Observación: Para muestras grandes la v.a. Q siempre existe, ya que si , entonces tiene distribución asintóticamente normal estándar.

  27. Intervalo de Confianza para diferencia de medias Supuesto: Poblaciones Normales P1: X1, X2,..., Xn1 N ( 1 ,21) P2: Y1, Y2,..., Yn2 N ( 2 ,22) ~ ~ ~ ~

  28. Asumiendo independencia de las muestras : ~ ~ ~

  29. Finalmente: Es un Intervalo de confianza de nivel  para 1 - 2

  30. Supongamos que Siendo g = n1 + n2 - 2 -  grados de libertad

  31. Intervalo de Confianza para 12/22 Recordemos que: ~ ~ ~ donde Se obtiene el intervalo de iguales colas Si ;

  32. Resumen: Intervalos de Confianza Poblaciones Normales Poblaciones no Normales

  33. Parámetro Estadística Distribución Intervalo  ,  conocido N (0,1)  ,  desconocido 1 - 2 1 = 2 1 - 2 1  2  muestra grande N (0,1)

More Related