1 / 132

Inferencia: Estimación Puntual y por Intervalos

Inferencia: Estimación Puntual y por Intervalos. Tema 2. “I keep saying the sexy job in the next ten years will be statisticians . People think I'm joking , but who would've guessed that computer engineers would've been the sexy job of the 1990s?“ Hal Varian

keefe-brady
Download Presentation

Inferencia: Estimación Puntual y por Intervalos

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Inferencia: Estimación Puntual y por Intervalos Tema 2

  2. “I keepsayingthesexyjob in thenext ten yearswill be statisticians. PeoplethinkI'mjoking, butwhowould'veguessedthatcomputerengineerswould'vebeenthesexyjob of the 1990s?“ HalVarian Economista en Jefe de Google Enero 2009

  3. Contenido programático • Muestreo y Estimación puntual • La media muestral • Ley de los Grandes Números • Teorema central del Límite • Estimación por Intervalos de confianza • Distribuciones asociadas a la Normal en el muestreo

  4. ¿Qué es Inferencia? • Objetivo: usar datos muestrales para extraer información de la población: • Estimar parámetros • Construir intervalos de confianza • Realizar pruebas acerca de los valores de los parámetros • Determinar el tipo de distribución que caracteriza a la población

  5. MUESTREO ALEATORIO SIMPLE Experimento aleatorio Muestra aleatoria Variable aleatoria Representativa de la población Seleccionar observaciones más convenientes Sesgo

  6. MUESTREO ALEATORIO SIMPLE • Dada una Variable aleatoria X, un conjunto {X1, X2, ...,Xn} de variables es una Muestra Aleatoria Simple (MAS) de X si: • Cada Xi tiene la misma distribución que X. • Las variables X1, X2, ...,Xn son estadísticamente independientes entre sí.

  7. MUESTREO ALEATORIO SIMPLE • No confundir el concepto de muestra como: Resultado de observar el valor que toman las n variables {X1, X2, ...,Xn} en un proceso de muestreo.

  8. Proceso de Muestreo X1 X2 …. Xn … 6,8 7,3 8,5 Muestra • Las propiedades estadísticas que aquí se estudian se refieren a la MAS como variable aleatoria multivariada y no como al conjunto de números resultantes de la observación de la misma.

  9. Las variables X1…Xn constituyen una muestra aleatoria de tamaño n de una distribución cuya media es µ y cuya varianza es σ2. En otras palabras, cada Xi tiene media µ y varianza σ2.

  10. Estadísticos • Un estadístico es una función de la muestra {X1, X2, ...,Xn}. • Constituye una nueva variable aleatoria construida a partir de la muestra aleatoria simple. • Es más sencillo operar con él que con la muestra como tal. • Ejemplos: Media muestralMáx= máximo {X1, X2, ...,Xn} Mín= mínimo {X1, X2, ...,Xn} Rango = máx - mín. Varianza muestral

  11. Muestreo Estadístico • Propósito: Hacer inferencias acerca de la población. Específicamente: estimar los parámetros (θ1, θ2, ...) desconocidos de la variable aleatoria X que representa a la población. • Ej.: Si la vida de un Venezolano se caracteriza con una distribución exponencial X(θ), Hallar θ que es su esperanza de vida.

  12. ¿Cómo se estima? • Mediante estadísticos adecuados, útiles, cuyas distribuciones se conocen, como la media muestral, la varianza muestral, el máximo de la muestra, etc.. • Supuestos: • El tipo de distribución es conocida • Los parámetros son desconocidos

  13. Estimadores • T es un estimador de θ si es un estadístico que permite estimar un parámetro θ • Estimación puntual de θ: resultado de T calculado sobre los valores específicos de la muestra

  14. Muestra X1 X2 X3 X4 X5 Estimador Muestra 8 7 5 7 6 Estimación Estimadores Proceso de Muestreo

  15. Propiedades de los estimadores puntuales

  16. La estimación puntual es similar al proceso de disparar con una pistola a un blanco o lanzar un dardo a una diana

  17. El estimador es semejante a la pistola • una estimación en particular, a la bala • y el parámetro de interés al centro del blanco. • Sacar una muestra de la población y estimar el valor del parámetro es equivalente a disparar un solo tiro al blanco.

  18. Suponga que una persona dispara un solo tiro al blanco y que el tiro da en el centro. • ¿Concluimos que es un excelente tirador? • ¿Querría usted sostener el blanco mientras se dispara el segundo tiro? • Evidentemente, no decidiríamos que el hombre es un tirador experto basados en tan escasa evidencia.

  19. Sin embargo, si un millón de tiros sucesivos dan en el centro del blanco, podríamos tener suficiente confianza en el tirador para sostener el blanco en el siguiente tiro. El hecho que se desea enfatizar es: No podemos evaluar la bondad de un procedimiento de estimación puntual basándonos en una sola estimación, más bien debemos observar los resultados y utilizar el procedimiento de estimación muchas, muchas veces.

  20. Ebrio Impreciso θ Tuerto Inexacto θ Características deseables de un buen estimador Precisión y Exactitud • Precisión: que las estimaciones no se dispersen demasiado • Exactitud: que si se realizan numerosos experimentos el promedio del estadístico sea el parámetro a estimar.

  21. Precisión y Exactitud Varianza Precisión Valor esperado Exactitud

  22. T es un estimador insesgado de θ si E(T) = θ. Supongamos que se tiene un número indefinido de muestras de una población, todas ellas del mismo tamaño n. Sobre cada muestra el estimador nos ofrece una estimación concreta del parámetro que buscamos. Pues bien, el estimador es insesgado, si sobre dicha cantidad indefinida de estimaciones, el valor medio obtenido en las estimaciones es θ.

  23. Error Cuadrático Medio(Mean Square Error) • Si T es un estimador de θ, el MSE es una medida de dispersión de T respecto de θ. • MSE = E(T - θ)2 • Propiedad MSE = VAR(T) + (E( T) - θ)2

  24. Error Cuadrático Medio(Mean Square Error) . . . . . . . . . . . . . . . . . . . B . θ

  25. Error Cuadrático Medio(Mean Square Error) Insesgado • T es un estimador insesgado de θ si E(T) = θ Se entiende por sesgo del estimador a la diferencia: E(T) – θ MSE = Var(T) + (sesgo)2 • Objetivo: minimizar ambos términos varianza y sesgo

  26. T1 θ θ Insesgados de Varianza Mínima • Tes un estimador insesgado de varianza mínima de θsi es el de menor varianza entre todos los estimador insesgados. Insesgado E (T1) = E ( T2) = θ V (T1) > V ( T2) T2 Deseado

  27. Ejemplo: Sea X1, X2,…, X7 una muestra aleatoria de una población que tiene media μy varianza σ2. Considere los siguientes estimadores de μ : • ¿Alguno de estos estimadores es insesgado? • ¿Cuál estimador es el “mejor”?

  28. Y Ejemplo: La lectura de un voltímetro conectado a un circuito de pruebatiene una distribución uniforme en el intervalo (θ, θ+1) en donde θ es el verdadero pero desconocido voltaje del circuito. Suponga que Y1, Y2,…, Yn es una muestra aleatoria de tales lecturas. Demuestre que es un estimador sesgado de θ y calcule su sesgo.

  29. Teorema de Chebychev(Tchebisheff, Tchebichev) Sea X una variable aleatoria. Entonces, para cualquier k>0: La desigualdad de Chebychev provee una cota que no depende de la distribución, sino de la varianza de X

  30. PORCENTAJE DE LA DISTRIBUCIÓN MAYOR QUE K DESVIACIONES ESTÁNDAR A PARTIR DE LA MEDIA La cota que ofrece la desigualdad de Chebychev puede ser grosera en algunos casos, pero debemos recordar que la desigualdad sirve para todas las distribuciones.

  31. Teorema de Chebychev(Tchebisheff, Tchebichev) También puede escribirse: µ-εµ µ+ε

  32. Ejemplo: Si E(X)=5 y V(X)=100/12. (ε=4) P(|X – 5| > 4) <= ? Si ahora suponemos X~U(0,10), ¿cuánto es la probabilidad?

  33. θ T100 θ Consistencia • Concentración del estimador en torno a θ a medida que la muestra crece (cuando la información aumenta). • Es esta propiedad de consistencia de un estimador lo que permite conformarse con el valor observado de un estimador y asumirlo como representativo del verdadero valor del parámetro θ. T5 N= 5 N= 100

  34. Consistencia • Tn es un estimador consistente de θ si: Para todos los valores de θ y donde ε es un número positivo arbitrario. O, en forma equivalente,

  35. Media Muestral Sea X de valor esperado μ y desviación estándar σ y {X1, X2, ...,Xn} muestra aleatoria simple de X. • Por las propiedades ya establecidas sobre la suma de variables aleatorias independientes: E(m)= μ V(m)=σ2/n Luego, m es un estimador insesgado de μ.

  36. Media Muestral De aquí, la media de la media muestral (m) es igual a la media de la distribución de la cual se seleccionó la muestra aleatoria, pero la varianza de m es solo 1/n veces la varianza de esa distribución. La distribución de probabilidad de la media muestral estará más concentrada alrededor del valor medio µ que la distribución original.

  37. Concentración de la Media Muestral La media muestral tiene el mismo valor esperado pero está más concentrada en torno a μ, ya que la desviación estándar disminuye con la raíz cuadrada de n.

  38. Varianza Muestral La varianza muestral: E(S2) = σ2 Es un estimador insesgado de σ2 En cambio, Es un estimador sesgado de σ2

  39. Varianza Muestral Observe el denominador • Es un estimador insesgado de la varianza de la población, E(S2) = V(X) • Es consistente • No existe un teorema de convergencia como el teorema central del límite

  40. Importancia de la Media Muestral Su relevancia en la estadística se resume en dos grandes propiedades: • Ley de los Grandes Números • Teorema Central del Límite

  41. Ley de los Grandes Números La media muestral es un estimador consistente de μ • La consistencia es el fundamento teórico para la estimación de la media poblacional por la media muestral.

  42. Ley de los Grandes Números • La Ley de los Grandes Números indica que m se concentra entorno a μ, pero no indica cómo es la distribución de la media muestral. El siguiente teorema tiene ese propósito:

  43. Teorema Central del Límite • Cuando n  +∞ la distribución de la media muestral (m) se aproxima a la distribución de una Normal; más precisamente el estadístico de la media estandarizada: Normal Estándar

  44. X Teorema Central del Límite • Cuando el tamaño de la muestra crece la distribución de la muestra se asemeja a la normal.

  45. Uso del Teorema Central del Límite • Cualquiera sea la variable aleatoria X, su media muestral puede considerarse Normal si el tamaño muestral (N) es suficientemente “grande”. • ¿Cuán grande debe ser la muestra? • X parecida a una Normal  N ≥ 12 • X asimétrica  N ≥ 30 • X muy asimétrica o multimodal  N ≥ 50

  46. Teorema Central del Límite

More Related