1 / 54

Curso de Métodos Estadísticos I-2010

Curso de Métodos Estadísticos I-2010. Probabilidad y Estimación. Ejemplos de Modelos de Probabilidad para variables Discretas. Normal. Modelos de Probabilidad para variables Contínuas. Gamma. t. Uniform. Función de distribución. Muestra Aleatoria.

Download Presentation

Curso de Métodos Estadísticos I-2010

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Curso de Métodos Estadísticos I-2010 Probabilidad y Estimación

  2. Ejemplos de Modelos de Probabilidad para variables Discretas

  3. Normal Modelos de Probabilidad para variables Contínuas Gamma t Uniform

  4. Función de distribución

  5. Muestra Aleatoria • X1, X2, …, Xn variables aleatorias independientes e identicamente distribuidas (la misma distribución de X). Ejemplo: X: Concentración de un contaminante X1: Concentración del contaminante en la primera muestra de agua. Que valores puede tomar X1?. … Xn: Concentración del contaminante en la n-ésima muestra de agua. Que valores puede tomar Xn?.

  6. Muestra Aleatoria Conceptualmente: X1, X2, …, Xn son variables que siguen el mismo modelo de probabilidad que rige a X. Los posibles valores que puede tomar Xi no dependen de los valores que puede tomar Xj (para todo i diferente de j), luego hay independencia. Nota: X1, X2, …, Xn (variables aleatorias) y x1, x2, …, xn (observaciones de esas variables aleatorias. Esta es la muestra observada. Son valores!!!)

  7. Parámetro, Estimador, Estimación • Parámetro ( ): Constante que describe total o parcialmente la distribución de probabilidad de la variable aleatoria en la población (por ejemplo ) • Estadística Muestral (T): Función de las variables aleatorias de la muestra aleatoria que no contiene cantidades desconocidas

  8. Parámetro, Estimador y Estimación • Estimador: Si T (estadística muestral) se emplea para estimar , T se llama estimador y t (su valor muestral) se llama estimación. • Ejemplo

  9. Características deseables de los estimadores • Concentración (asociado a la precisión del estimador). Criterios: ECM e insesgamiento) • Eficiencia (asociado a la variabilidad del estimador) • Consistencia: Tiene que ver con el comportamiento del estimador cuando aumenta el tamaño de la muestra • Suficiencia: Indica si el estimador usa toda la información disponible en la muestra.

  10. Concentración: Error Cuadrático medio Comprobar

  11. Estimador Insesgado • Comprobar que es insesgado. Encontrar su varianza

  12. Consistencia • Un estimador es consistente si al aumentar el tamaño de muestra el estimador se acerca más al parámetro.

  13. Desigualdad de Chebychev

  14. Chebychev Area £1/k2 m-k m+k

  15. Comprobar, usando la desigualdad de Chebychev, que es un estimador consistente de

  16. Eficiencia • Si T1 y T2 son dos estimadores insesgados de T1 es más eficiente que T2 si • Dentro de los estimadores insesgados de , el que tiene la varianza más pequeña se llama UMVUE (estimador insesgado de varianza mínima)

  17. Cota de Cramer-Rao Si la varianza del estimador es igual a la cota de Cramer-Rao entonces el estimador es un UMVUE.

  18. Ejemplo: Sea X1,…,Xn una muestra laetoria de una diustribución de Poisson ( ). Obtener el estimador más eficiente de

  19. Suficiencia • Una estadística es suficiente si utiliza toda la información de la muestra respecto al parámetro • T2 suficiente y T1 no

  20. Función de Verosimilitud Encontrar la función de verosimilitud de una muestra de una normal ( ).

  21. Suficiencia (teorema de factorización) • T es suficiente para  sii • Si un estimador T es insesgado y suficiente entonces es el más eficiente • Si T es el más eficiente, entonces es suficiente • Una función de una estadística suficiente es también suficiente

  22. Ejemplo del teorema de factorización

  23. Métodos de Estimación Puntual • Máxima Verosimilitud • Momentos • Mínimos Cuadrados • Estimación bayesiana

  24. Estimador de Máxima Verosimilitud • Valor del parámetro que hace más probable lo observado en la muestra. Suponga que se la variable No de accidentes/semana. En una semana se observan dos accidentes. Estime lambda de la Poisson con esta información. Calcule P(X=2) con los posibles valores de lambda. Cuál hace máxima esta probabilidad

  25. Estimador de Máxima verosimilitud (2) • Repita el ejemplo anterior asumiendo que se tienen observaciones de dos semanas consecutivas y que en la primera se observaron dos accidentes y en la segunda tres

  26. Estimador de Máxima verosimilitud (3). Propiedad de Invarianza

  27. Estimador de Máxima verosimilitud (3) • Suponga que tiene una muestra aleatoria tamaño n de una distribución Bernoulli de parámetro p. Encuentre el estimador máximo verosímil de p. • Suponga que tiene una muestra aleatoria de una distribución normal de media  y varianza 2. Encuentre los estimadores máximo verosímiles de  y 2.

  28. Método de los momentos • El estimador del r-ésimo momento poblacional es el r-ésimo momento muestral • Cuando se estiman varios momentos poblacionales (p.ej E(X) y E(X2)), los estimadores de momentos se obtienen al resolver el sistema de ecuaciones que resulta de igualar los momentos muestrales a los poblacionales

  29. DISTRIBUCIONES MUESTRALES

  30. Distribución de la Media Muestral Si X1, X2, …, Xn ma de XN(,2) Si X1, X2, …, Xn ma de f(x) con E(X)= , V(x)= 2 y n grande, entonces TEOREMA CENTRAL DEL LIMITE (DEMOSTRACION PAG 247 CANAVOS)

  31. Demostraciones (Distribución de la media muestral)

  32. Función Generadora de Momentos (repaso) Si la función generadora de momentos existe es única y determina la distribución de probabilidad de X. En otras palabras, si dos variables tienen la misma función generadora de momentos, entonces tienen la misma distribución de probabilidad

  33. Demostraciones (continuación)

  34. Demostraciones (continuación)

  35. Demostraciones (continuación)

  36. Distribución de S2 (1) • Distribución Chi-Cuadrado • El parámetro se denomina grados de libertad. • La suma de variables aleatorias independientes con distribución Chi-Cuadrado, se distribuye chi cuadrado con parametro  igual a la suma de los grados de libertad • La distribución Chi-Cuadrado es un caso particular de la distribución Gama (= /2, =2).

  37. Distribución de S2 (continuación)

  38. Distribución de S2(continuación)

  39. Distribución de S2 (continuación)

  40. Ejercicio de simulación (distribución Ci-cuadrado) • Simular 30 variables aleatorias normales estándar n=100 • Elevarlas al cuadrado • Sumarlas • 4. Hacer el histograma de la variable de la variable obtenida con la suma • 5. Comparar con la densidad de una Chi-Cuadrado con 30 grados de libertad • 6. Calcular la media y la varianza de la variable obtenida con la suma y comparar con a media y la varianza teórica de una Chi-cuadrado con 10 grados de libertad • 7. Simule 50 muestras aleatorias de normales (mu=10, sigma=2) de tamaño n=15. Con cada muestra encuentre la estadística 14S2 /4. Haga el histograma correspondiente y compárelo con la densidad de una chi-cuadrado con 14 grados de libertad

  41. Distribución de la media muestral (varianza desconocida) • Una variable aleatoria X tiene distribución T-Student con  grados de libertad si su función de probabilidad está dada por: • Teorema: Sea Z una variable aleatoria con distribución normal estándar. Y una variable aleatoria 2con  grados de libertada, entonces

  42. Distribución de la media muestral (varianza desconocida)

  43. Ejercicio de simulación (distribución T-Student) • Generar 100 muestras aleatorias de normales (mu=63, sigma=18) de tamaño n=81. • Calcular en cada muestra la media y la varianza muestral (la insesgada) • Generar con esta información valores de una variable T, de acuerdo con el teorema anterior • Obtener el histograma, la media y la varianza de la variable generada y compararlos con los teóricos.

  44. Distribución de la Diferencia de Medias

  45. Distribución de la Diferencia de Medias

  46. Distribución de la diferencia de medias

  47. Distribución de la diferencia de medias

  48. Distribución del Cociente de Varianzas • Distribución F

  49. Distribución del cociente de varianzas

More Related