1 / 15

Bioestadística Diplomado en Sanidad

Bioestadística Diplomado en Sanidad. Tema 4: Estimación y contraste de hipótesis. Estimación. Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población ( parámetro ).

nyla
Download Presentation

Bioestadística Diplomado en Sanidad

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. BioestadísticaDiplomado en Sanidad Tema 4: Estimación y contraste de hipótesis

  2. Estimación • Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población (parámetro). • Para la media de una población: • “El mejor” es la media de la muestra. • Para la frecuencia relativa de una modalidad de una variable: • “El mejor” es la frecuencia relativa en la muestra. • Habría que precisar que se entiende por “el mejor estimador” pero eso nos haría extendernos demasiado. Básicamente: • Debe ser preciso • Debe ser insesgado

  3. ¿Es útil conocer la distribución de un estimador? • Es la clave para hacer inferencia. • Si de una variable conocemos μ y σ, sabemos que para muestras “grandes”, la media muestral es: • aproximadamente normal, • con la misma media y, • desviación típica mucho menor (error estándar) • Es decir si por ejemplo μ=60 y σ=5, y obtenemos muestras de tamaño n=100, • La desv. típica de la media muestral (error estándar) es EE=5/raiz(100)=0,5 • como la media muestral es aproximadamente normal, el 95% de los estudios con muestras ofrecerían estimaciones entre 60±1 • Dicho de otra manera, al hacer un estudio tenemos una confianza del 95% de que la verdadera media esté a una distancia de ±1.

  4. En el ejemplo anterior la situación no era muy realista, pues como de todas maneras no conozco σ desconoceré el intervalo exacto para μ. • Sin embargo también hay estimadores para σ y puedo usarlo como aproximación. • Para tener una idea intuitiva, analicemos el siguiente ejemplo. Nos servirá como introducción a la estimación puntual y por intervalos de confianza.

  5. Ejemplo: Una muestra de n=100 individuos de una población tiene media de peso 60 kg y desviación 5kg. • Dichas cantidades pueden considerarse como aproximaciones (estimaciones puntuales) • 60 kg estima a μ • 5 kg estima a σ • 5/raiz(n)= 0,5 estima el error estándar (típico) EE • Estas son las llamadas estimaciones puntuales: un número concreto calculado sobre una muestra es aproximación de un parámetro. • Una estimación por intervalo de confianza es una que ofrece un intervalo como respuesta. Además podemos asignarle una probabilidad aproximada que mida nuestra confianza en la respuesta: • Hay una confianza del 68% de que μ esté en 60±0,5 • Hay una confianza del 95% de que μ esté en 60±1.

  6. Estimación puntual y por intervalos • Se denomina estimación puntual de un parámetro al ofrecido por el estimador sobre una muestra. • Se denomina estimación confidencial o intervalo de confianza para un nivel de confianza 1-α dado, a un intervalo que ha sido construido de tal manera que con frecuencia 1-α realmente contiene al parámetro. • Obsérvese que la probabilidad de error (no contener al parámetro) es α. • En el siguiente tema se llamará prob. de error de tipo I o nivel de significación. • Valores típicos: α=0,10 ; 0,05 ; 0,01 • En general el tamaño del intervalo disminuye con el tamaño muestral y aumenta con 1-α. • En todo intervalo de confianza hay una noticia buena y otra mala: • La buena: hemos usado una técnica que en % alto de casos acierta. • La mala: no sabemos si ha acertado en nuestro caso.

  7. Fórmulas calve intervalo confianza x ± (Zα/2 x s/√n) p* ± (Zα/2 x √[p*(1-p*)/n ] Fórmula general: Parámetro muestral más/menos el producto del coeficiente de confiabilidad (valor de la Normal del error alfa, habitualmente p=0,05 y Zα/2=1,96) por el error estándar del parámetro a estimar

  8. Introducción a los contrastes de hipótesis

  9. Introducción sencilla al contraste de hipótesis: • Poco técnica, muy informal • Poco rigurosa, más simplista • Presenta el resultado básico fácil de memorizar

  10. La hipótesis formulada con intención de rechazarla se llama hipótesis nula y se representa por H0. • Ejemplos: • La media de edad es 60 años • El porcentaje de curación es el 20% • La media de estancia entre los pacientes tratados con cada medicamento es la misma • El porcentaje de curaciones con cada medicamento es el mismo

  11. Rechazar H0 implica aceptar una hipótesis alternativa (H1): • Ejemplos de las hipótesis de la diapositiva anterior. • La media de edad no es 60 años • El porcentaje de curación no es el 20% • La media de estancia entre los pacientes tratados con cada medicamento no es la misma • El porcentaje de curaciones con cada medicamento no es el mismo

  12. La situación de resultados se puede esquematizar según la tabla. α = p(rechazar H0| H0 cierta) β = p(aceptar H0| H0 falsa) α y β están inversamente relacionadas.

  13. Razonamiento intuitivo del contraste de hipótesis. Presenta siempre un resultado en términos de probabilidad, p. Esta p se puede entender, sin profundizar demasiado, como la probabilidad que tiene la hipótesis nula de ser cierta según los datos de la muestra. Si este valor p es mayor que el error α que se acepta y esta fijado con anterioridad, se entiende que existe más probabilidad de acertar que de fallar si esta hipótesis se acepta. Si la probabilidad p, es mayor que α, se acepta la hipótesis nula. Por el contrario, si la probabilidad p, es menor que α, se descarta la hipótesis nula y se acepta la alternativa.

  14. Contrastes básicos de Hipótesis: Variables cuantitativas Prueba de Kolmogorov-Smirnov. Ho: Distribución normal (0,05) p(K-S)>0.05 y n≥30 CONTRASTES PARAMETRICOS T-Student (una muestra) H0: μ = μ0 H1: μ ≠ μ0 (0,025) H1: μ>(<)μ0 (0,05) T-Student (dos muestras independientes o relacionadas) H0: μ1 = μ2 H1: μ1 ≠ μ2 (0,025) H1: μ1>(<)μ2 (0,05) Analizar: H0: σ21= σ22 H1: σ21≠σ22 (0.05) ANOVA H0: μ1=μ2=...=μk H1: μ1≠μ2≠...≠μk (0,05) p(K-S)<0.05 y n≤30 CONTRASTES NO PARAMETRICOS U de Mann Whitney (datos independientes) H0: μ1 = μ2 H1: μ1 ≠ μ2 (0,025) T de Wilcoxon (datos relacionados) H0: μ1 = μ2 H1: μ1 ≠ μ2 (0,025) Kruskal Wallis (datos independientes) H0: μ1=μ2=...=μk H1: μ1≠μ2≠...≠μk (0,05) Friedman (datos relacionados) H0: μ1=μ2=...=μk H1: μ1≠μ2≠...≠μk (0,05) (0,05)

  15. Contrastes básicos de Hipótesis: Variables cualitativas Variables cualitativas Chi cuadrado H0: Homogeneidad entre muestras H0: Independencia H1: No homogeneidad H1: No indepenedencia

More Related