Bioestad stica diplomado en sanidad
Download
1 / 15

Bioestadística Diplomado en Sanidad - PowerPoint PPT Presentation


  • 97 Views
  • Uploaded on

Bioestadística Diplomado en Sanidad. Tema 4: Estimación y contraste de hipótesis. Estimación. Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población ( parámetro ).

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' Bioestadística Diplomado en Sanidad' - nyla


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
Bioestad stica diplomado en sanidad

BioestadísticaDiplomado en Sanidad

Tema 4: Estimación y contraste de hipótesis


Estimaci n
Estimación

  • Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población (parámetro).

    • Para la media de una población:

      • “El mejor” es la media de la muestra.

    • Para la frecuencia relativa de una modalidad de una variable:

      • “El mejor” es la frecuencia relativa en la muestra.

  • Habría que precisar que se entiende por “el mejor estimador” pero eso nos haría extendernos demasiado. Básicamente:

    • Debe ser preciso

    • Debe ser insesgado


Es til conocer la distribuci n de un estimador
¿Es útil conocer la distribución de un estimador?

  • Es la clave para hacer inferencia.

    • Si de una variable conocemos μ y σ, sabemos que para muestras “grandes”, la media muestral es:

      • aproximadamente normal,

      • con la misma media y,

      • desviación típica mucho menor (error estándar)

    • Es decir si por ejemplo μ=60 y σ=5, y obtenemos muestras de tamaño n=100,

      • La desv. típica de la media muestral (error estándar) es EE=5/raiz(100)=0,5

      • como la media muestral es aproximadamente normal, el 95% de los estudios con muestras ofrecerían estimaciones entre 60±1

      • Dicho de otra manera, al hacer un estudio tenemos una confianza del 95% de que la verdadera media esté a una distancia de ±1.


  • En el ejemplo anterior la situación no era muy realista, pues como de todas maneras no conozco σ desconoceré el intervalo exacto para μ.

  • Sin embargo también hay estimadores para σ y puedo usarlo como aproximación.

  • Para tener una idea intuitiva, analicemos el siguiente ejemplo. Nos servirá como introducción a la estimación puntual y por intervalos de confianza.


  • Ejemplo: Una pues como de todas maneras no conozco σ desconoceré el intervalo exacto para μ.muestra de n=100 individuos de una población tiene media de peso 60 kg y desviación 5kg.

    • Dichas cantidades pueden considerarse como aproximaciones (estimaciones puntuales)

      • 60 kg estima a μ

      • 5 kg estima a σ

      • 5/raiz(n)= 0,5 estima el error estándar (típico) EE

        • Estas son las llamadas estimaciones puntuales: un número concreto calculado sobre una muestra es aproximación de un parámetro.

    • Una estimación por intervalo de confianza es una que ofrece un intervalo como respuesta. Además podemos asignarle una probabilidad aproximada que mida nuestra confianza en la respuesta:

      • Hay una confianza del 68% de que μ esté en 60±0,5

      • Hay una confianza del 95% de que μ esté en 60±1.


Estimaci n puntual y por intervalos
Estimación puntual y por intervalos pues como de todas maneras no conozco σ desconoceré el intervalo exacto para μ.

  • Se denomina estimación puntual de un parámetro al ofrecido por el estimador sobre una muestra.

  • Se denomina estimación confidencial o intervalo de confianza para un nivel de confianza 1-α dado, a un intervalo que ha sido construido de tal manera que con frecuencia 1-α realmente contiene al parámetro.

    • Obsérvese que la probabilidad de error (no contener al parámetro) es α.

      • En el siguiente tema se llamará prob. de error de tipo I o nivel de significación.

      • Valores típicos: α=0,10 ; 0,05 ; 0,01

    • En general el tamaño del intervalo disminuye con el tamaño muestral y aumenta con 1-α.

    • En todo intervalo de confianza hay una noticia buena y otra mala:

      • La buena: hemos usado una técnica que en % alto de casos acierta.

      • La mala: no sabemos si ha acertado en nuestro caso.


Fórmulas calve intervalo confianza pues como de todas maneras no conozco σ desconoceré el intervalo exacto para μ.

x ± (Zα/2 x s/√n)

p* ± (Zα/2 x √[p*(1-p*)/n ]

Fórmula general:

Parámetro muestral más/menos el producto del coeficiente de confiabilidad (valor de la Normal del error alfa, habitualmente p=0,05 y Zα/2=1,96) por el error estándar del parámetro a estimar


Introducci n a los contrastes de hip tesis

Introducción a los contrastes de hipótesis pues como de todas maneras no conozco σ desconoceré el intervalo exacto para μ.



  • La hipótesis formulada con intención de rechazarla se llama hipótesis nula y se representa por H0.

  • Ejemplos:

  • La media de edad es 60 años

  • El porcentaje de curación es el 20%

  • La media de estancia entre los pacientes tratados con cada medicamento es la misma

  • El porcentaje de curaciones con cada medicamento es el mismo


  • Rechazar H0 implica aceptar una hipótesis alternativa (H1): llama hipótesis nula y se representa por H0.

  • Ejemplos de las hipótesis de la diapositiva anterior.

  • La media de edad no es 60 años

  • El porcentaje de curación no es el 20%

  • La media de estancia entre los pacientes tratados con cada medicamento no es la misma

  • El porcentaje de curaciones con cada medicamento no es el mismo


La situación de resultados se puede esquematizar según la tabla.

α = p(rechazar H0| H0 cierta) β = p(aceptar H0| H0 falsa)

α y β están inversamente relacionadas.


Razonamiento intuitivo del contraste de hipótesis tabla..

Presenta siempre un resultado en términos de probabilidad, p.

Esta p se puede entender, sin profundizar demasiado, como la probabilidad que tiene la hipótesis nula de ser cierta según los datos de la muestra.

Si este valor p es mayor que el error α que se acepta y esta fijado con anterioridad, se entiende que existe más probabilidad de acertar que de fallar si esta hipótesis se acepta.

Si la probabilidad p, es mayor que α, se acepta la hipótesis nula.

Por el contrario, si la probabilidad p, es menor que α, se descarta la hipótesis nula y se acepta la alternativa.


Contrastes básicos de Hipótesis: Variables cuantitativas tabla.

Prueba de Kolmogorov-Smirnov. Ho: Distribución normal (0,05)

p(K-S)>0.05 y n≥30 CONTRASTES PARAMETRICOS

T-Student (una muestra)

H0: μ = μ0 H1: μ ≠ μ0 (0,025)

H1: μ>(<)μ0 (0,05)

T-Student (dos muestras independientes o relacionadas)

H0: μ1 = μ2 H1: μ1 ≠ μ2 (0,025)

H1: μ1>(<)μ2 (0,05)

Analizar: H0: σ21= σ22

H1: σ21≠σ22 (0.05)

ANOVA

H0: μ1=μ2=...=μk

H1: μ1≠μ2≠...≠μk (0,05)

p(K-S)<0.05 y n≤30 CONTRASTES NO PARAMETRICOS

U de Mann Whitney (datos independientes)

H0: μ1 = μ2 H1: μ1 ≠ μ2 (0,025)

T de Wilcoxon (datos relacionados)

H0: μ1 = μ2 H1: μ1 ≠ μ2 (0,025)

Kruskal Wallis (datos independientes)

H0: μ1=μ2=...=μk

H1: μ1≠μ2≠...≠μk (0,05)

Friedman (datos relacionados)

H0: μ1=μ2=...=μk

H1: μ1≠μ2≠...≠μk (0,05) (0,05)


Contrastes básicos de Hipótesis: Variables cualitativas tabla.

Variables cualitativas Chi cuadrado

H0: Homogeneidad entre muestras H0: Independencia

H1: No homogeneidad H1: No indepenedencia


ad