Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza
Sponsored Links
This presentation is the property of its rightful owner.
1 / 41

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza PowerPoint PPT Presentation


  • 140 Views
  • Uploaded on
  • Presentation posted in: General

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza. Laboratorio de Bioestadística y Epidemiología, sección Ensayos Clínicos Unidad de Bioestadística Universidad Autónoma de Barcelona. Hipótesis de trabajo. Debe estar lo más claramente formulada.

Download Presentation

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza

Laboratorio de Bioestadística y Epidemiología, sección Ensayos Clínicos

Unidad de Bioestadística

Universidad Autónoma de Barcelona

Jose.Rios@uab.es / Ferran.Torres@uab.es


Hipótesis de trabajo

  • Debe estar lo más claramente formulada.

  • Debe ser ‘estadística’ y ‘científicamente’ correcta

    • Prohíbo circulación de camiones en Rondas. Tres semanas después encargo un estudio para ver si el número de accidentes en Rondas con camiones disminuye.

  • Las ‘técnicas de pesca’ se han de evitar siempre.

Jose.Rios@uab.es / Ferran.Torres@uab.es


Hipótesis de trabajo

  • Por supuesto, LA HIPÓTESIS DE TRABAJO SE FORMULA CON ANTERIORIDAD A CUALQUIERA DE LOS PASOS

Jose.Rios@uab.es / Ferran.Torres@uab.es


En el fondo todo está relacionado

Jose.Rios@uab.es / Ferran.Torres@uab.es


Inferencia estadística

Pruebas estadísticas

Intervalo de confianza

Jose.Rios@uab.es / Ferran.Torres@uab.es


¿Qué es lo que busca todo el mundo?

p

Jose.Rios@uab.es / Ferran.Torres@uab.es


¿Para qué se usa la estadística?

MUESTRA

Prueba estadística

Intervalo de confianza

Inferir

Probabilidad

POBLACIÓN

Jose.Rios@uab.es / Ferran.Torres@uab.es


Errores de Tipo I y II

  • El valor del error tipo I ó  es de 0.05 (5%)

  • El valor del error tipo II ó  es igual o superior

  • a 0.20 (20%)

  • El poder (1 - ) es igual ó superior a 0.80 (80%)

Jose.Rios@uab.es / Ferran.Torres@uab.es


Datoscategóricos.Definiciones básicas

  • Variable binaria: {evento,no evento}

    • Proporciones:p = r/n

      • suma de eventos en un grupo de individuos

      • denominador fijo: n individuos

      • distribución binomial

    • Recuentos:

      • suma de eventos raros en un periodo de tiempo o un territorio

      • 0,1,2,…,k

      • denominador personas-tiempo  tasas

      • distribución Poisson

Jose.Rios@uab.es / Ferran.Torres@uab.es


  • Distribución de la muestra

    • Tendencia central:X media

    • Dispersión o variabilidad:DE desviación estándar

  • Distribución de la media de una muestra

    • Tendencia central:media

    • Dispersión o variabilidad: error estándard

Datos cuantitativos

Jose.Rios@uab.es / Ferran.Torres@uab.es


Distribución normal

Distribución

de la

media

X

X

X +’2’ EEM

Distribución

de la

muestra

X + ‘2’DS =>95%

Jose.Rios@uab.es / Ferran.Torres@uab.es


¿p?

  • Probabilidad de observar, por azar, una diferencia como la de la muestra o mayor, cuando H0 es cierta

  • Es una medida de la evidencia en contra de la H0

    • Es el azar una explicación posible de las diferencias observadas?

      • Supongamos que así es (H0).

      • ¿Con qué probabilidad observaríamos unas diferencias de esa magnitud, o incluso mayor? P-valor

      • Si P-valor pequeño, rechazamos H0.

    • ¿Difícil?... No, es como un juicio!

Jose.Rios@uab.es / Ferran.Torres@uab.es


¿p?

  • Se acepta un valor máximo de 5% (0,05).

    • Si p0,05  diferencias estadísticamente significativas.

    • Si p>0,05  diferencias estadísticamente NO significativas.

  • NO implica importancia clínica.

  • NO implica magnitud de efecto!!

    • Influenciada por el tamaño de la muestra. Si  n   p

Jose.Rios@uab.es / Ferran.Torres@uab.es


Errores y aciertos

Jose.Rios@uab.es / Ferran.Torres@uab.es


Situaciones

  • Conclusión: Diferencias estadísticamente significativas

    • Realidad: Hay diferencias  Acierto

    • Realidad: No hay diferencias  Error tipo I ()

  • Conclusión: Diferencias NO estadísticamente significativas

    • Realidad: No hay diferencias  Acierto

    • Realidad: Hay diferencias

      • Error tipo II ()

      • Muestra insuficiente

Jose.Rios@uab.es / Ferran.Torres@uab.es


Utilidad de Creer en la Existencia de Dios (según Pascal)

H0: Dios No Existe

H1: Dios Existe

Jose.Rios@uab.es / Ferran.Torres@uab.es


Sentido/No sentido de la prueba estadística

  • Una o dos colas

    • Sentido – una cola

      • El ‘fenómeno’ existe si A es mayor que B

    • No Sentido – dos colas

      • El ‘fenómeno’ existe si A es diferente que B

Jose.Rios@uab.es / Ferran.Torres@uab.es


Pruebas de hipótesis

Unilateral (una cola)

Ho: E - C  0

H1: E - C > 0

Bilateral (dos colas)

Ho: E - C = 0

H1: E - C > 0 ó E - C < 0

Jose.Rios@uab.es / Ferran.Torres@uab.es


Revisión de la aplicabilidad de las distintas pruebas estadísticas

Jose.Rios@uab.es / Ferran.Torres@uab.es


Normalidad

MÉTODOS PARAMÉTRICOS

Jose.Rios@uab.es / Ferran.Torres@uab.es


No normalidad

X

MÉTODOS NO PARAMÉTRICOS

Jose.Rios@uab.es / Ferran.Torres@uab.es


Pruebas paramétricas y no-paramétricas

  • Una prueba paramétrica requiere la estimación de uno o más parámetros (estadísticos) de la población

    • Ej.: Una estimación de la diferencia entre la media antes y después de una intervención

  • Las pruebas no-paramétricas no involucran ningún tipo de estimación de parámetros

    • Ej.: Facilitarnos la una estimación de la P[X>Y], probabilidad de que, selecionando un paciente después del tratamiento, su valor sea mayor que antes del tratamiento

Jose.Rios@uab.es / Ferran.Torres@uab.es


Pruebas paramétricas y no-paramétricas

  • Advantage of non-parametric test

    • No assumptions about the distribution of the data

    • Handles every kind of outcome variable

  • Disadvantage

    • Non-parametric test do not have the same statistical power as parametric test do

  • Data issues

    • Ranks of data, not data in original units, used

    • Effect of outliers is removed (can be good or bad)

  • Use n-p. test when p. methods are inappropriate due to lack of distribution requirements

Jose.Rios@uab.es / Ferran.Torres@uab.es


Pruebas estadísticas

Jose.Rios@uab.es / Ferran.Torres@uab.es


V. CUANTITATIVA NORMALEN AMBOS GRUPOS

Estadística /

Comparar medias /

Prueba T para muestras independientes

Grupos

independientes

V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO

Estadística /

Pruebas no paramétricas /

2 muestras independientes /

U de Mann-Whitney

COMPARACIÓN

DE MEDIAS

Grupos

apareados

V. DIFERENCIA NORMAL

Estadística /

Comparar medias /

Prueba T para muestras relacionadas

V. DIFERENCIA NO NORMAL

Estadística /

Pruebas no paramétricas /

2 muestras relacionadas /

Wilcoxon

Estadísticos / Pruebas no paramétricas /

K-S de 1 muestra / Normal

NORMALIDAD?

Más chuletario

V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos)

Jose.Rios@uab.es / Ferran.Torres@uab.es


p > 0.05

No se rechaza H0

NORMALIDAD ?

(NPAR TEST K-S (NORMAL))

INDEPENDENCIA ?

ASIGNACIONES ALEATORIAS

HOMOSCEDASTICIDAD?

H0:n

ó n

(TEST DE LEVENE)

ANOVA

SI

Test a posteriori

p < 0.05

--> Test de Scheffé

NO

NPAR TEST K-W (Kruskal-Wallis)

Más chuletario

V. CUANTITATIVA .vs. V. CUALITATIVA (  2 grupos)

Jose.Rios@uab.es / Ferran.Torres@uab.es


Cumplimiento de condiciones de aplicabilidad

* 1 v. cuantitativa aleatoria .vs. 1 v. cuantitativa diseñada

REGRESION

(Normalidad de la v. cuantitativa en los grupos a comparar,

homoscedasticidad)

* 2 v. cuantitativas aleatorias

(Normalidad de las dos v. cuantitativas en su conjunto)

CORRELACION

Incumplimiento de condiciones de aplicabilidad

* NONPAR CORR (Test de Spearman)

Más chuletario

V. CUANTITATIVA .vs. V. CUANTITATIVA

Jose.Rios@uab.es / Ferran.Torres@uab.es


Análisis de la Co-varianza (ANCOVA)

  • Los valores que estamos comparando pueden estar afectados directamente por otros (covarianción)

    • TA al final del estudio

    • TA al inicio del estudio

  • Medias ajustadas: Media al final del estudio si las TA al inicio fuesen las mismas.

Jose.Rios@uab.es / Ferran.Torres@uab.es


Intervalo de Confianza

Def.: “Si se realiza el mismo experimento en las mismas condiciones, el 95% de las veces la media que obtendremos estará entre los márgenes”

Intuitivamente: “El verdadero valor se encuentra dentro del intervalo con una confianza del 95%”

Jose.Rios@uab.es / Ferran.Torres@uab.es


Amplitud del IC

  • También depende de la información que la muestra proporciona sobre el verdadero valor poblacional

    • Mayor tamaño de muestra ->

      mayor precisión -> IC más estrecho

    • Mayor dispersión de la medida ->

      IC más amplio

Jose.Rios@uab.es / Ferran.Torres@uab.es


Relación entre IC y significación (p)

p=0.002

IC al 95%

p=0.05

0

Jose.Rios@uab.es / Ferran.Torres@uab.es


Intervalo de Confianza

2 grupos

Dif. NS

2 grupos

Dif. Sig.

Jose.Rios@uab.es / Ferran.Torres@uab.es


Intervalo de confianza para evaluar

ensayos de superioridad

Superioridad observada

Superioridad no observada

0

Jose.Rios@uab.es / Ferran.Torres@uab.es


Distribución normal

Distribución

de la

media

X

X

X +’2’ EEM

Distribución

de la

muestra

X + ‘2’DS =>95%

Jose.Rios@uab.es / Ferran.Torres@uab.es


Estimación

  • Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población (parámetro).

Jose.Rios@uab.es / Ferran.Torres@uab.es


Estimación

  • Problema que presenta el uso de estimadores puntuales:

    • El problema de los estimadores puntuales es que solo dan una idea de lo que puede valer el parámetro que estimamos, sin conocer como de buena es la aproximación; es decir, simplemente proporcionan un valor (de los muchos posibles) que puede proponerse como valor del parámetro.

    • Si realizamos diversas muestras, obtendremos tantas estimaciones del parámetro como muestras

Jose.Rios@uab.es / Ferran.Torres@uab.es


Estimación

  • Ventaja de la estimación por intervalos de confianza:

    • Se trata de asignar al parámetro poblacional desconocido, por ejemplo μ, un intervalo de valores, digamos (a, b) entre los cuales está μ con una cierta confianza (1- α). Es decir, si se cumple que

    • diremos entonces que (a, b) es un intervalo de confianza para el parámetro μ construido al (1- a)% de confianza o, lo que es lo mismo, al a% de error.

  • ¿INTERPRETACIÓN?

Jose.Rios@uab.es / Ferran.Torres@uab.es


Estimación

  • Por ejemplo, seleccionamos cinco muestras aleatorias de n=5 y elaboramos sus intervalos de confianza. Consideramos un nivel de confianza del 90%

Jose.Rios@uab.es / Ferran.Torres@uab.es


Un último ejemplo:

Una muestra de n=100 individuos de una población tiene media de peso 60 kg y desviación 5kg.

Dichas cantidades pueden considerarse como aproximaciones (estimaciones puntuales)

60 kg estima a μ

5 kg estima a σ

5/raiz(n)= 0,5 estima el error estándar (típico) EE

Estas son las llamadas estimaciones puntuales: un número concreto calculado sobre una muestra es aproximación de un parámetro.

Una estimación por intervalo de confianza es una que ofrece un intervalo como respuesta. Además podemos asignarle una probabilidad aproximada que mida nuestra confianza en la respuesta:

Hay una confianza del 68% de que μ esté en 60±0,5

Hay una confianza del 95% de que μ esté en 60±1.

Ojo: He hecho un poco de trampa. ¿Quien la ve?

Estimación

Jose.Rios@uab.es / Ferran.Torres@uab.es


Pero hemos de tener en cuenta que todo intervalo de confianza conlleva dos noticias, la buena y la mala

La buena: hemos usado una técnica que en % alto de casos acierta.

La mala: no sabemos si ha acertado en nuestro caso.

Estimación

Jose.Rios@uab.es / Ferran.Torres@uab.es


Para quien guste de las fórmulas

Jose.Rios@uab.es / Ferran.Torres@uab.es


  • Login