1 / 41

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza. Laboratorio de Bioestadística y Epidemiología, sección Ensayos Clínicos Unidad de Bioestadística Universidad Autónoma de Barcelona. Hipótesis de trabajo. Debe estar lo más claramente formulada.

knox
Download Presentation

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza Laboratorio de Bioestadística y Epidemiología, sección Ensayos Clínicos Unidad de Bioestadística Universidad Autónoma de Barcelona Jose.Rios@uab.es / Ferran.Torres@uab.es

  2. Hipótesis de trabajo • Debe estar lo más claramente formulada. • Debe ser ‘estadística’ y ‘científicamente’ correcta • Prohíbo circulación de camiones en Rondas. Tres semanas después encargo un estudio para ver si el número de accidentes en Rondas con camiones disminuye. • Las ‘técnicas de pesca’ se han de evitar siempre. Jose.Rios@uab.es / Ferran.Torres@uab.es

  3. Hipótesis de trabajo • Por supuesto, LA HIPÓTESIS DE TRABAJO SE FORMULA CON ANTERIORIDAD A CUALQUIERA DE LOS PASOS Jose.Rios@uab.es / Ferran.Torres@uab.es

  4. En el fondo todo está relacionado Jose.Rios@uab.es / Ferran.Torres@uab.es

  5. Inferencia estadística Pruebas estadísticas Intervalo de confianza Jose.Rios@uab.es / Ferran.Torres@uab.es

  6. ¿Qué es lo que busca todo el mundo? p Jose.Rios@uab.es / Ferran.Torres@uab.es

  7. ¿Para qué se usa la estadística? MUESTRA Prueba estadística Intervalo de confianza Inferir Probabilidad POBLACIÓN Jose.Rios@uab.es / Ferran.Torres@uab.es

  8. Errores de Tipo I y II •  El valor del error tipo I ó  es de 0.05 (5%) •  El valor del error tipo II ó  es igual o superior • a 0.20 (20%) •  El poder (1 - ) es igual ó superior a 0.80 (80%) Jose.Rios@uab.es / Ferran.Torres@uab.es

  9. Datoscategóricos.Definiciones básicas • Variable binaria: {evento,no evento} • Proporciones: p = r/n • suma de eventos en un grupo de individuos • denominador fijo: n individuos • distribución binomial • Recuentos: • suma de eventos raros en un periodo de tiempo o un territorio • 0,1,2,…,k • denominador personas-tiempo  tasas • distribución Poisson Jose.Rios@uab.es / Ferran.Torres@uab.es

  10. Distribución de la muestra • Tendencia central: X media • Dispersión o variabilidad: DE desviación estándar • Distribución de la media de una muestra • Tendencia central: media • Dispersión o variabilidad: error estándard Datos cuantitativos Jose.Rios@uab.es / Ferran.Torres@uab.es

  11. Distribución normal Distribución de la media X X X +’2’ EEM Distribución de la muestra X + ‘2’DS =>95% Jose.Rios@uab.es / Ferran.Torres@uab.es

  12. ¿p? • Probabilidad de observar, por azar, una diferencia como la de la muestra o mayor, cuando H0 es cierta • Es una medida de la evidencia en contra de la H0 • Es el azar una explicación posible de las diferencias observadas? • Supongamos que así es (H0). • ¿Con qué probabilidad observaríamos unas diferencias de esa magnitud, o incluso mayor? P-valor • Si P-valor pequeño, rechazamos H0. • ¿Difícil?... No, es como un juicio! Jose.Rios@uab.es / Ferran.Torres@uab.es

  13. ¿p? • Se acepta un valor máximo de 5% (0,05). • Si p0,05  diferencias estadísticamente significativas. • Si p>0,05  diferencias estadísticamente NO significativas. • NO implica importancia clínica. • NO implica magnitud de efecto!! • Influenciada por el tamaño de la muestra. Si  n   p Jose.Rios@uab.es / Ferran.Torres@uab.es

  14. Errores y aciertos Jose.Rios@uab.es / Ferran.Torres@uab.es

  15. Situaciones • Conclusión: Diferencias estadísticamente significativas • Realidad: Hay diferencias  Acierto • Realidad: No hay diferencias  Error tipo I () • Conclusión: Diferencias NO estadísticamente significativas • Realidad: No hay diferencias  Acierto • Realidad: Hay diferencias • Error tipo II () • Muestra insuficiente Jose.Rios@uab.es / Ferran.Torres@uab.es

  16. Utilidad de Creer en la Existencia de Dios (según Pascal) H0: Dios No Existe H1: Dios Existe Jose.Rios@uab.es / Ferran.Torres@uab.es

  17. Sentido/No sentido de la prueba estadística • Una o dos colas • Sentido – una cola • El ‘fenómeno’ existe si A es mayor que B • No Sentido – dos colas • El ‘fenómeno’ existe si A es diferente que B Jose.Rios@uab.es / Ferran.Torres@uab.es

  18. Pruebas de hipótesis Unilateral (una cola) Ho: E - C  0 H1: E - C > 0 Bilateral (dos colas) Ho: E - C = 0 H1: E - C > 0 ó E - C < 0 Jose.Rios@uab.es / Ferran.Torres@uab.es

  19. Revisión de la aplicabilidad de las distintas pruebas estadísticas Jose.Rios@uab.es / Ferran.Torres@uab.es

  20. Normalidad MÉTODOS PARAMÉTRICOS Jose.Rios@uab.es / Ferran.Torres@uab.es

  21. No normalidad X MÉTODOS NO PARAMÉTRICOS Jose.Rios@uab.es / Ferran.Torres@uab.es

  22. Pruebas paramétricas y no-paramétricas • Una prueba paramétrica requiere la estimación de uno o más parámetros (estadísticos) de la población • Ej.: Una estimación de la diferencia entre la media antes y después de una intervención • Las pruebas no-paramétricas no involucran ningún tipo de estimación de parámetros • Ej.: Facilitarnos la una estimación de la P[X>Y], probabilidad de que, selecionando un paciente después del tratamiento, su valor sea mayor que antes del tratamiento Jose.Rios@uab.es / Ferran.Torres@uab.es

  23. Pruebas paramétricas y no-paramétricas • Advantage of non-parametric test • No assumptions about the distribution of the data • Handles every kind of outcome variable • Disadvantage • Non-parametric test do not have the same statistical power as parametric test do • Data issues • Ranks of data, not data in original units, used • Effect of outliers is removed (can be good or bad) • Use n-p. test when p. methods are inappropriate due to lack of distribution requirements Jose.Rios@uab.es / Ferran.Torres@uab.es

  24. Pruebas estadísticas Jose.Rios@uab.es / Ferran.Torres@uab.es

  25. V. CUANTITATIVA NORMALEN AMBOS GRUPOS Estadística / Comparar medias / Prueba T para muestras independientes Grupos independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS Grupos apareados V. DIFERENCIA NORMAL Estadística / Comparar medias / Prueba T para muestras relacionadas V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal NORMALIDAD? Más chuletario V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) Jose.Rios@uab.es / Ferran.Torres@uab.es

  26. p > 0.05 No se rechaza H0 NORMALIDAD ? (NPAR TEST K-S (NORMAL)) INDEPENDENCIA ? ASIGNACIONES ALEATORIAS HOMOSCEDASTICIDAD? H0:n ó n (TEST DE LEVENE) ANOVA SI Test a posteriori p < 0.05 --> Test de Scheffé NO NPAR TEST K-W (Kruskal-Wallis) Más chuletario V. CUANTITATIVA .vs. V. CUALITATIVA (  2 grupos) Jose.Rios@uab.es / Ferran.Torres@uab.es

  27. Cumplimiento de condiciones de aplicabilidad * 1 v. cuantitativa aleatoria .vs. 1 v. cuantitativa diseñada REGRESION (Normalidad de la v. cuantitativa en los grupos a comparar, homoscedasticidad) * 2 v. cuantitativas aleatorias (Normalidad de las dos v. cuantitativas en su conjunto) CORRELACION Incumplimiento de condiciones de aplicabilidad * NONPAR CORR (Test de Spearman) Más chuletario V. CUANTITATIVA .vs. V. CUANTITATIVA Jose.Rios@uab.es / Ferran.Torres@uab.es

  28. Análisis de la Co-varianza (ANCOVA) • Los valores que estamos comparando pueden estar afectados directamente por otros (covarianción) • TA al final del estudio • TA al inicio del estudio • Medias ajustadas: Media al final del estudio si las TA al inicio fuesen las mismas. Jose.Rios@uab.es / Ferran.Torres@uab.es

  29. Intervalo de Confianza Def.: “Si se realiza el mismo experimento en las mismas condiciones, el 95% de las veces la media que obtendremos estará entre los márgenes” Intuitivamente: “El verdadero valor se encuentra dentro del intervalo con una confianza del 95%” Jose.Rios@uab.es / Ferran.Torres@uab.es

  30. Amplitud del IC • También depende de la información que la muestra proporciona sobre el verdadero valor poblacional • Mayor tamaño de muestra -> mayor precisión -> IC más estrecho • Mayor dispersión de la medida -> IC más amplio Jose.Rios@uab.es / Ferran.Torres@uab.es

  31. Relación entre IC y significación (p) p=0.002 IC al 95% p=0.05 0 Jose.Rios@uab.es / Ferran.Torres@uab.es

  32. Intervalo de Confianza 2 grupos Dif. NS 2 grupos Dif. Sig. Jose.Rios@uab.es / Ferran.Torres@uab.es

  33. Intervalo de confianza para evaluar ensayos de superioridad Superioridad observada Superioridad no observada 0 Jose.Rios@uab.es / Ferran.Torres@uab.es

  34. Distribución normal Distribución de la media X X X +’2’ EEM Distribución de la muestra X + ‘2’DS =>95% Jose.Rios@uab.es / Ferran.Torres@uab.es

  35. Estimación • Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población (parámetro). Jose.Rios@uab.es / Ferran.Torres@uab.es

  36. Estimación • Problema que presenta el uso de estimadores puntuales: • El problema de los estimadores puntuales es que solo dan una idea de lo que puede valer el parámetro que estimamos, sin conocer como de buena es la aproximación; es decir, simplemente proporcionan un valor (de los muchos posibles) que puede proponerse como valor del parámetro. • Si realizamos diversas muestras, obtendremos tantas estimaciones del parámetro como muestras Jose.Rios@uab.es / Ferran.Torres@uab.es

  37. Estimación • Ventaja de la estimación por intervalos de confianza: • Se trata de asignar al parámetro poblacional desconocido, por ejemplo μ, un intervalo de valores, digamos (a, b) entre los cuales está μ con una cierta confianza (1- α). Es decir, si se cumple que • diremos entonces que (a, b) es un intervalo de confianza para el parámetro μ construido al (1- a)% de confianza o, lo que es lo mismo, al a% de error. • ¿INTERPRETACIÓN? Jose.Rios@uab.es / Ferran.Torres@uab.es

  38. Estimación • Por ejemplo, seleccionamos cinco muestras aleatorias de n=5 y elaboramos sus intervalos de confianza. Consideramos un nivel de confianza del 90% Jose.Rios@uab.es / Ferran.Torres@uab.es

  39. Un último ejemplo: Una muestra de n=100 individuos de una población tiene media de peso 60 kg y desviación 5kg. Dichas cantidades pueden considerarse como aproximaciones (estimaciones puntuales) 60 kg estima a μ 5 kg estima a σ 5/raiz(n)= 0,5 estima el error estándar (típico) EE Estas son las llamadas estimaciones puntuales: un número concreto calculado sobre una muestra es aproximación de un parámetro. Una estimación por intervalo de confianza es una que ofrece un intervalo como respuesta. Además podemos asignarle una probabilidad aproximada que mida nuestra confianza en la respuesta: Hay una confianza del 68% de que μ esté en 60±0,5 Hay una confianza del 95% de que μ esté en 60±1. Ojo: He hecho un poco de trampa. ¿Quien la ve? Estimación Jose.Rios@uab.es / Ferran.Torres@uab.es

  40. Pero hemos de tener en cuenta que todo intervalo de confianza conlleva dos noticias, la buena y la mala La buena: hemos usado una técnica que en % alto de casos acierta. La mala: no sabemos si ha acertado en nuestro caso. Estimación Jose.Rios@uab.es / Ferran.Torres@uab.es

  41. Para quien guste de las fórmulas Jose.Rios@uab.es / Ferran.Torres@uab.es

More Related