1 / 53

Día 20 de Enero

Día 20 de Enero. Error de medida. Frecuentemente se tiende a considerar que nuestros indicadores son medidas sin error de los conceptos que nos interesan, pero esto no es así.

kirra
Download Presentation

Día 20 de Enero

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Día 20 de Enero

  2. Error de medida • Frecuentemente se tiende a considerar que nuestros indicadores son medidas sin error de los conceptos que nos interesan, pero esto no es así. • Error de medición es la diferencia entre el valor real de una variable y el valor que se obtiene con el indicador que estamos usando para medirla

  3. Análisis Factorial • Trata de estimar la relación entre los conceptos en los que estamos interesados y los indicadores empleados para medirlos • Parte de la aceptación de que todos los indicadores que utilizamos incluyen error en la medición y de que ningún indicador es una medida totalmente válida y fiable del concepto que trata de medir.

  4. Diferencias entre: A. Factorial confirmatorio y A. Factorial exploratorio • En el AF exploratorio el investigador No decide, antes de realizar el análisis, la relación entre los conceptos y los indicadores escogidos por él,, en el AF confirmatorio SI. • En el AF exploratorio el investigador incluye los indicadores en el programa y deja que el programa estadístico determine la relación entre éstos y los distintos factores (en menor número que los indicadores) a los que da un nombre una vez observadas las pautas de la relación.

  5. En el AF confirmatorio el investigador determina, previamente a la realización del análisis, qué indicadores están relacionados con cada concepto, también llamado variable latente o factor y da nombres a los factores.

  6. Vamos a empezar con el diseño de un modelo de primer orden para estudiar la hipótesis de que el autoconcepto para adolescentes es un constructo multidimensional formado por cuatro factores: • Autoconcepto general (ACG), • Autoconcepto académico (ACA), • Autoconcepto en lenguaje (ACL), • Autoconcepto en matemáticas (ACM). • La teoría subyacente en esta hipótesis se basa en un modelo propuesto por Shavelson, Hubner y Stanton (1976). El ejemplo con el que vamos a trabajar está tomado de un estudio realizado por Byrne y Worth Gavin (1996) en el cual se estudiaron cuatro hipótesis relacionadas con el modelo de Shavelson, Hubner y Stanton.

  7. La Hipótesis del modelo: • Lo primero será probar la multidimensionalidad del “AUTOCONCEPTO” en los jóvenes. • Vamos a tratar de probar la hipótesis1: el autoconcepto es una estructura que se basa en cuatro componentes específicas. • Posteriormente podríamos probar la hipótesis2: el autoconcepto es un constructo basado sólo en dos componentes (autoconcepto general y autoconcepto académico) y por último la afirmación de que el autoconcepto es una estructura de un solo factor en la que no se distingue la componente general de la académica.

  8. El modelo que implica la Hipótesis1 postula a priori que el autoconcepto para adolescentes es un constructo multidimensional formado por cuatro factores: • Antes de comprobar el modelo vamos a profundizar en sus componentes • Habrá cuatro factores que representaremos dentro de elipses. • Estos cuatro factores están intercorrelacionados y lo indicaremos uniendo cada pareja de ellos con flechas curvas de doble cabeza • Hay 16 variables observadas que indicamos con 16 rectángulos que representan ítems sacados de las subescalas General, Académica, Lenguaje y Matemáticas del “Self Descrption Questionnaire II” (March, 1992). Este cuestionario está formado por 102 ítems de los que aquí sólo usaremos algunos. • Las variables observadas definen los cuatro factores distribuyéndose de la siguiente forma: Factor 1:“autoconcepto general 1, 13, 25 y37”,Factor 2: “autoconcepto académico 4, 16, 28 y 40”, Factor 3 “autoconcepto lenguaje 10,22,34,46” y Factor 4:autoconceto matematicas 07,19,31, 43” • Cada variable observada carga sobre un solo factor • Los errores de medida asociados con cada variable observada no están correlacionados

  9. Para mejorar la identificación del modelo y es algo que se suele hacer habitualmente, he fijado igual a la unidad el peso de cada primera variable observada con su latente correspondiente. Las variables latentes no tienen en principio una escala definida, por lo que podemos fijar uno de los pesos a 1 • Si usamos el botón para dibujar las variables latentes y sus correspondientes indicadores (o variables observadas) notaremos que AMOS fija a 1 todos los pesos que van de las variables de error a las observables y uno de los que van de la latente a las diversas observables que la definen, como mencionamos antes.

  10. El fichero de datos es barbara1.sav • Si ejecutamos el modelo obtendremos la información sobre el gráfico del modelo y tambien en un fichero de texto. • Paso a comentar este fichero de texto a continuación: • The model is recursive. • Sample size = 265 • Nos avisa de que el modelo es recursivo que es lo mismo que decir que no tiene bucles y nos da el tamaño de la muestra (información que ya iba en el fichero de datos) y a continuación nos da el listado de las variables que intervienen en el modelo:

  11. El programa hace un recuento de las variables y de los parámetros del modelo • Variable counts (Group number 1) • Number of variables in your model: … 36 • Number of observed variables: … 16 • Number of unobserved variables: … 20 • Number of exogenous variables: … 20 • Number of endogenous variables: … 16

  12. Parámetros del modelo • Parameter summary (Group number 1) • Weights Covariances Variances Means Intercepts Total • Fixed 20 0 0 0 0 20 • Labeled 0 0 0 0 0 0 • Unlabeled 12 6 20 0 0 38 • Total 32 6 20 0 0 58

  13. Grados de libertad • Numero de variables observadas = p • p *(p+1)/2 = 16*17/2= 136 da el número de estadísticos de la muestra, a los que restaremos el número de parámetros a estimar y como resutado de esta resta obtendremos los grados de libertad. • Computation of degrees of freedom (Default model) • Number of distinct sample moments: 136 • Number of distinct parameters to be estimated: 38 • Degrees of freedom (136 - 38):98

  14. Test de ajuste del modelo • El test 2 hace el papel de una medida de conjunto para estudiar la diferencia entre las covarianzas de la muestra y las covarianzas de la matriz estimada para la población en la que el modelo se ajusta a los datos. • Cuando el número de observaciones es grande se comporta como una 2gl • Siendo gl los grados de libertad, la diferencia entre el número de observaciones y el de parámetros.

  15. Este test 2gl se ha comprobado que tiene problemas porque depende del tamaño de la muestra y de los grados de libertad. • AMOS nos da muchos mas índices, ninguno de ellos definitivo, pero mas fiables que la chi cuadrado, de hecho en este modelo al ser la Chi cuadrado = 158,544 con 98 grados de libertad y p=0 , deberíamos rechazarle. • Result (Default model) • Minimum was achieved • Chi-square = 158,454 • Degrees of freedom = 98 • Probability level = ,000 • Pero estudiaremos mas adelante los otros índices de ajuste.

  16. Resultados no estandarizados

  17. Tabla con los pesos de regresión • Estimate S.E C.R. P Label • SDQ2N01<---gsc 1,000  • SDQ2N13<---gsc 1,082 ,154 7,031 ***  • SDQ2N25<---gsc ,851 ,132 6,445 ***  • SDQ2N37<---gsc ,933 ,131 7,117 ***  • SDQ2N04<---asc 1,000  • SDQ2N16<---asc 1,279 ,150 8,507 ***  • SDQ2N28<---asc 1,247 ,154 8,084 ***  • SDQ2N40<---asc 1,259 ,157 8,036 ***  • SDQ2N10<---esc 1,000  • SDQ2N22<---esc ,889 ,103 8,643 ***  • SDQ2N34<---esc ,670 ,148 4,532 ***  • SDQ2N46<---esc ,842 ,117 7,213 ***  • SDQ2N07<---msc 1,000  • SDQ2N19<---msc ,841 ,058 14,476 ***  • SDQ2N31<---msc ,952 ,049 19,475 ***  • SDQ2N43<---msc ,655 ,049 13,275 *** 

  18. En la tabla tenemos los valores de los pesos de regresión entre las variables latentes y sus indicadores, son los números que en el gráfico del modelo aparecen sobre las flechas que unen a las variables latentes con sus indicadores. • La siguiente columna de la tabla son los errores estándar, que como dependen de la unidad de medida en las variables observadas y en las latentes así como de la magnitud del parámetro estimado, no hay para ellos un criterio definitivo establecido para afirmar si son “pequeños” o grandes”(Joreskog & Sorbom, 1989). • Para conocer la significación estadística de los parámetros se usa aquí el test estadístico CR (Critical Ratio) que representa el cociente entre el parámetro estimado y su error estándar.

  19. Esta CR se comporta como un estadístico Z con el que hacemos el test de si la estimación es diferente de cero. • Si nos basamos en el nivel 0,05, el estadístico necesitaría ser mayor que +1,96 o menor que -1,96, para que la hipótesis de que el valor estimado es cero se pueda rechazar (cosa que ocurre aquí en todos los casos). • Si obtuviéramos parámetros no significativos, a excepción de las varianzas del error, se pueden considerar poco importantes para el modelo y en interés de obtener buenos índices de “Parsimonia”, (simplicidad) se pueden eliminar del modelo. • También hay que recordar que los parámetros no significativos, pueden indicar que el tamaño de la muestra es demasiado pequeño. • Las estimaciones de la tabla anterior están expresadas en forma no estandarizada.

  20. La siguiente tabla incluye información sobre las covarianzas entre los factores y se corresponden con los números que en el diagrama aparecen al lado de las flechas curvas de dos cabezas. • Covariances: (Group number 1 - Default model) • Estimate S.E. C.R. P • gsc<-->asc ,413 ,078 5,284 *** • asc<-->esc ,462 ,078 5,911 *** • gsc<-->esc ,354 ,072 4,938 *** • esc<-->msc ,329 ,100 3,302 *** • asc<-->msc ,870 ,134 6,508 *** • gsc<-->msc ,633 ,118 5,376 ***

  21. La siguiente tabla da las varianzas estimadas, tanto de los factores como de los errores de medida. Los mismos valores aparecen en el diagrama del modelo colocados al lado de las variables correspondientes. • Variances: (Group number 1 - Default model) • Estimate S.E. C.R. P • Gsc ,611 ,137 4,458 ***  • Asc ,559 ,126 4,446 ***  • Esc ,666 ,116 5,741 ***  • Msc 2,299 ,272 8,444 ***  • E1 1,193 ,1259 ,516 ***  • E13 1,115 ,124 9,004 ***  • E25 1,052 ,106 9,877 ***  • E37 ,769 ,087 8,807 ***  • E04 1,389 ,128 10,879 ***  • E16 ,613 ,068 9,003 ***  • E28 ,892 ,090 9,943 *** •  e40 ,948 ,095 10,010 *** •  e10 ,651 ,082 7,923 ***  • E22 ,655 ,075 8,721 ***  • E34 2,580 ,232 11,107 ***  • E46 1,196 ,118 10,165 *** •  e07 ,851 ,100 8,534 ***  • E19 1,222 ,121 10,130 *** •  e31 ,364 ,064 5,646 *** • E43 ,092 10,453 *** 

  22. Una vez que se comprueba que los parámetros estimados tienen sentido volvemos a los índices de ajuste • BOLLEN y SCOTT LONG (1993; 7) afirman que la controversia en los índices de ajuste de los modelos causales, es parte de una controversia mayor: • “¿ como medir mejor el ajuste de los modelos estadísticos en general.?” • JÖRESKOG (1969), llamaba la atención sobre el hecho de que en muestras grandes, incluso las desviaciones triviales pueden ser causantes del rechazo de la hipótesis nula. Por esta razón el programa AMOS presenta varios índices de ajuste que se basan en comparar el modelo propuesto con los modelos saturado e independiente.

  23. El modelo saturado sería el modelo mas general posible, en él no se impone ninguna restricción, por ello viene a ser un modelo "vacío" ya que cualquier conjunto de datos podría ajustarse a él. • Nuestro modelo (default model) sería el resultado de imponer algunas condiciones al modelo saturado. • Y el modelo independiente quedaría situado en el otro extremo. En él se asume que las variables no están correlacionadas en absoluto unas con otras. • La idea es comparar nuestro modelo con los dos modelos extremos, mediante el uso de diferentes índices.

  24. CMIN (mínima discrepancia) • Model NPAR CMIN DF P CMIN/DF • Default model 38 158,454 98 ,000 1,617 • Saturated model 136 ,000 0 • Independence model 16 1696,861 120 ,000 14,141 • NPAR es el número de parámetros, CMIN es la mínima discrepancia y DF son los grados de libertad, P es el valor de la probabilidad y la última columna es el cociente de CMIN entre los grados de libertad. • El valor 158 bajo CMIN representa la discrepancia entre la matriz de covarianza de la población  obtenida a partir de los datos de la muestra S yla matriz de covarianzas que el modelo predice para la población, que se suele representar por (). • Notar que esta CMIN no es otra cosa que la CHI cuadrado que ya apareció previamente

  25. La Hipótesis nula es H0 :  = () • Es equivalente a la H0 :  - () = 0 • Así pues esta Chi cuadrado estudia si los residuos son nulos, la probabilidad asociada a 2 da la probabilidad de obtener un valor superior a 2 , con lo que estaríamos en la región de rechazo siendo H0 una hipótesis cierta. • Por lo tanto cuanto mas alta sea la p mas cercano estará el ajuste entre el modelo que hemos construido y el ajuste perfecto (Bollen, 1989) como nuestra p es 0 la sugerencia es que el ajuste del modelo no es completamente adecuado y si lo interpretamos al pie de la letra habría que rechazar el modelo. Pero hay muchos estudios que afirman que la 2 tiene muchas limitaciones y para superar estas limitaciones se ha pasado a estudiar el cociente entre la 2 y los grados de libertad que es la última columna de la tabla anterior, aunque hay autores como Wheaton (1978) que recomiendan no usar este cociente

  26. Siguiente grupo de estadísticos: RMR, GFI, AGFI y PGFI. • Model RMR GFI AGFI PGFI • Default model ,103 ,933 ,906 ,672 • Saturated model ,000 1,000 • Independence model ,625 ,379 ,296 ,334

  27. RMR es la Raiz Cuadrada de la Media de los Residuos • Representa la media residual al tratar de ajustar la matriz de varianzas-covarianzas del modelo propuesto () con la matriz de varianzas – covarianzas de la muestra S. • Como estos residuos estan en función del tamaño de las varianzas y covarianzas observadas, tienen difícil interpretación. • Se interpretan mejor usando la métrica de la matriz de correlaciones. • El RMR estandarizado toma valores que van de 0 a 1. Cuanto más cercano esté a cero indica mejor ajuste del modelo. Su valor debe acercarse más al correspondiente al modelo saturado que al del modelo independiente. • En un modelo que ajusta bien habría que obtener valores menores que 0,5 • El 0,103 que obtiene nuestro modelo es el valor no estandarizado. Su valor estandariazado es 0,043 que representa la discrepancia media entre la matriz de correlación de la muestra y la matriz de correlación que predice el modelo. Se puede interpretar como que el modelo explica las correlaciones con un error medio de 0,043 (Hu & Bentler)

  28. El GFI (goodness of-fit index) es una medida de la cantidad de varianza y covarianza en S que es explicada conjuntamente por . • El AGFI sólo difiere del GFI en que está ajustado por el número de grados de libertad del modelo. Además también tiene en cuenta la “parsimonia” del modelo penalizando la inclusión de parámetros adicionales. • Tanto GFI como AGFI se pueden considerar como índices de ajuste absoluto porque básicamente no comparan el modelo propuesto con ningún otro modelo. • Aunque el rango de los valores posibles para estos dos índices es de cero a uno, valores cercanos a uno indican un buen ajuste, Joreskog y Sorbom (1993) han hecho notar que teóricamente estos índices pueden ser negativos. • Posteriormente Fan, Thompson y Wang (1999) avisaban de que los valores del GFI y del AGFI pueden estar influenciados por el tamaño de la muestra. • Para nuestro modelo los valores de estos índices 0,933 y 0,906 respectivamente, indican que nuestros datos ajustan bien con el modelo propuesto.

  29. PGFI • El último índice de este grupo es (PGFI) (Parsimony Goodness –of-Fit Index) lo introdujeron James, Mulaik y Brett (1982) para que en el índice se tuviera en cuenta la complejidad del modelo. • Estos índices para la parsimonia se suelen considerar adecuados aunque den valores mas bajos. En nuestro caso 0,672 se puede considerar adecuado.

  30. “Baseline Comparisons” • Model NFI RFI IFI TLI CFI • Delta1 rho1 Delta2 rho2 • Defaultmodel ,907 ,886 ,962 ,953 ,962 • Saturated model 1,000 1,000 1,000 • Independence model ,000 ,000 ,000 ,000 ,000

  31. NFI y CFI • Aunque el NFI ha sido un índice que se ha usado mucho, cada vez se ha tenido mas evidencia de que tiene tendencia a subestimar el ajuste en muestras pequeñas, por ello Bentler(1990) hizo una revisión del NFI para que tuviera en cuenta el tamaño de la muestra y propuso como consecuencia el (CFI ), que aparece en la última columna de la tabla. • El rango de los valores tanto para NFI como para CFI es de cero a uno y derivan de la comparación entre el modelo propuesto con el modelo independiente. • Aunque en un principio se consideraba representativo de un buen ajuste los índices con valores superiores a 0,90, posteriormente según Hu & Bentler, 1999, es necesario obtener valores cercanos a 0’95. En nuestro caso NFI = 0’907 y CFI = 0’962 sugieren que el modelo propuesto ajusta adecuadamente con los datos.

  32. RFI, IFI y TLI • El RFI (Relative Fit Index , Bollen 1986) representa una modificación del NFI y también se mueve del cero al uno y valores superiores a 0,95 indican buen ajuste. • El IFI (Incremental Index of Fit) fue desarrollado por Bollen (1989b) para que se tuviera en cuenta tanto la parsimonia como el tamaño de la muestra. • Su cálculo es similar al del NFI, con excepción de que se tienen en cuenta los grados de libertad. • Es natural que para nuestro modelo obtengamos 0,962 que es consistente con el CFI obtenido e indica un buen ajuste. • Por último el índice Tucker-Lewis TLI.(Tucker y Lewis , 1973) consistente con los otros índices ya mencionados y que también se mueve del cero al uno y que con valores próximos al 0,95 (para muestras grandes) indica un buen ajuste según Hu y Bentler (1999)

  33. “Parsimony-Adjusted Measures” • Model PRATIO PNFI PCFI • Default model ,817 ,740 ,785 • Saturated model ,000 ,000 ,000 • Independence model1,000 ,000 ,000 • El primero, PRATIO se refiere a la inicial ratio propuesta por James, Mulaik y Brett (1982). • Posteriormente ha habido mejoras propuestas para este índice y Amos presenta el PNFI y el PCFI, relacionados con el NFI y el CFI, comentados anteriormente. • En ellos se tiene en cuenta la complejidad del modelo propuesto(James, Mulaik y Brett (1982) y Mulaik y otros (1989)). Los resultados obtenidos PNFI= 0,740 y PCFI =0,785 caen dentro de los valores esperados.

  34. Parámetros de No Centralidad (NCP) • Model NCP LO 90 HI 90 • Defaul tmodel 60,454 29,934 98,886 • Saturated model ,000 ,000 ,000 • Independence model 1576,861 1447,420 1713,699 • Cuando comentamos la chi cuadrado hablamos de cuando el modelo es sostenible y no se debe rechazar. • Pero veamos que pasa si el modelo parece incorrecto y  es diferente de (). • En este caso el estadístico chi cuadrado tiene una distribución no central con un parámetro de no centralidad λ que se estima con NCP. • El parámetro de no centralidad es un parámetro asociado a los grados de libertad y se le puede escribir como χ2 (gl, λ ) . • Funciona como una medida de la discrepanciaentre y () y su interpretación es que cuanto mayor sea la discrepancia mayor será el valor de λ. • El valor que obtenemos para nuestro modelo 60,45, representa la diferencia entre el valor de chi cuadrado y los grados de libertad (156,5 – 98) y además aparece los extremos del intervalo de confianza al 90%, para el valor de este parámetro en la población que cae entre 29,9 y 98,9

  35. Función de discrepancia • Model FMIN F0 LO 90 HI 90 • Default model ,600 ,229 ,113 ,375 • Saturated model ,000 ,000 ,000 ,000 • Independence model 6,428 5,973 5,483 6,491 • Son los valores relativos al mínimo de la función de discrepancia (FMIN) y la discrepancia en la población (FO) y las dos últimas columnas dan también los extremos del intervalo de confianza al 90% para FO.

  36. RMSA (Raíz cuadrada de media del error de aproximación) • Propuesto inicialmente por Steiger y Lind (1980), hasta hace poco tiempo no se le ha reconocido como uno de los criterios que da más información en los modelos de estructura de covarianza. • El RMSEA tiene en cuenta el error de aproximación en la población y da respuesta a la pregunta: ¿Cómo de bien el modelo con parámetros elegidos óptimamente, ajusta la matriz de covarianza de la población, si esta matriz estuviera disponible? (Browne y Cudeck 1993 pgs. 133-138)

  37. En la salida de AMOS hemos obtenido un RMSA de 0,048, con (0,034 , 0,062) como intervalo de confianza al 90% . • Lo que nos indica que podemos tener una seguridad del 90% de que el verdadero valor del RMSA en la población cae dentro de los límites de este intervalo, lo que representa un buen grado de precisión. • Teniendo en cuenta que el RMSA obtenido es menor que 0,05 (ya que da 0,048) y que el borde superior del intervalo al 90% es 0,06 , que es menor al valor que sugirieron Browne y Cudeck (1993), aunque es igual al valor propuesto por Hu y Bentler (1999) y además la probabilidad asociada a este test es mayor que 0,0 (p=0,562) podemos concluir que el modelo propuesto ajusta bien las datos. • Antes de dejar el RMSA hay que recordar que los intervalos de confianza pueden estar influenciados por el tamaño de la muestra y por la complejidad del modelo (McCallum y otros 1996). Por ejemplo si el tamaño de la muestra es pequeño y el número de parámetros estimados es grande, el intervalo de confianza estimado será ancho. • Si diseñamos un modelo complejo (con un gran número de parámetros a estimar) se necesitará una muestra muy grande para poder obtener un intervalo de confianza de tamaño razonable. Por otra parte si el número de parámetros es pequeño, la probabilidad de obtener un intervalo de confianza estrecho es bastante alta, incluso cuando las muestras sean de un tamaño moderado (McCallum y otros 1996).

  38. Model RMSEA LO 90 HI 90 PCLOSE • Default model ,048 ,034 ,062 ,563 • Independence model ,223 ,214 ,233 ,000 • Valores menores que 0,05 indican buen ajuste y valores mayores que 0,08 indican razonables errores de aproximación en la población (Browne y Cudeck 1993). • MacCallum y otros (1996) posteriormente indicaron que valores de RMSA entre 0,08 y 0,10 indican un ajuste mediocre y mayores que 0,10 indican un ajuste pobre. • Pero Hu y Bentler (1999) sugieren que un valor de 0,06 indica un buen ajuste entre el modelo propuesto y los datos observados, con la precaución de que si el tamaño de la muestra es pequeño el RMSEA (Y el TLI) tienden a indicar el rechazo. • Todas estas apreciaciones son un poco juicios subjetivos, por lo que hay que ir con precaución. También Amos nos da los extremos del intervalo de confianza al 90% del RMSEA.

  39. En la salida de AMOS hemos obtenido un RMSA de 0,048, con (0,034 , 0,062) como intervalo de confianza al 90% • Esto indica que podemos tener una seguridad del 90% de que el verdadero valor del RMSA en la población cae dentro de los límites de este intervalo, lo que representa un buen grado de precisión. • Teniendo en cuenta que el RMSA obtenido es menor que 0,05 (ya que da 0,048) y que el borde superior del intervalo al 90% es 0,06 , que es menor al valor que sugirieron Browne y Cudeck (1993), aunque es igual al valor propuesto por Hu y Bentler (1999) y además la probabilidad asociada a este test es mayor que 0,0 (p=0,562) podemos concluir que el modelo propuesto ajusta bien las datos. • Pero hay que recordar que los intervalos de confianza pueden estar influenciados por el tamaño de la muestra y por la complejidad del modelo (McCallum y otros 1996). Por ejemplo si el tamaño de la muestra es pequeño y el número de parámetros estimados es grande, el intervalo de confianza estimado será ancho. • Si diseñamos un modelo complejo (con un gran número de parámetros a estimar) se necesitará una muestra muy grande para poder obtener un intervalo de confianza de tamaño razonable. • Por otra parte si el número de parámetros es pequeño, la probabilidad de obtener un intervalo de confianza estrecho es bastante alta, incluso cuando las muestras sean de un tamaño moderado (McCallum y otros 1996).

  40. estadísticos AIC, BCC, BIC y CAIC • Model AIC BCC BIC CAIC • Default model 234,454 239,685 370,483 408,483 • Saturated model 272,000 290,721 758,843 894,843 • Independence 1728,861 1731,064 1786,137 1802,137 • El estadístico (AIC) es el criterio de información de Akaike (1987), el (BCC) Bozdogan (1987) y las versiones consistentes BIC y CAIC. Estos criterios se dirigen hacia la parsimonia en el ajuste del modelo, por lo que tienen en cuenta el número de parámetros a estimar • Bozdogan (1987), sin embargo apunta que AIC contiene una penalización relacionada solamente con los grados de libertad, aunque esto puede reflejar de alguna manera el número de parámetros a estimar y no el tamaño de la muestra. • Estudios sobre análisis factorial han encontrado que AIC produce estimaciones inconsistentes asintóticamente, por lo que se ha propuesto el CAIC, que tiene en cuenta el tamaño de la muestra (Bandalos, 1993). • El AIC y el CAIC se usan para comparar dos o mas modelos, cuanto mas pequeños sean indican un mejor ajuste del modelo especificado.(Hu y Bentler 1995) • El criterio de Browne-Cudeck (BCC Browne y Cudeck, 1989) y el criterio de información de Bayes (BIC; Raftery 1993; Schwarz, 1978) trabajan de la misma forma que el AIC y el CAIC. La diferencia entre estos índices es que BCC y BIC imponen mayores penalizaciones que AIC y CAIC a la complejidad del modelo. Volviendo a los cuatro índices de la tabla, podemos ver que el indice asignado al modelo propuesto es bastante menor que los índices tanto del modelo saturado como del independiente

  41. ECVI • Model ECVI LO 90 HI 90 MECVI • Default model ,888 ,772 1,034 ,908 • Saturated model 1,030 1,030 1,030 1,101 • Independence model 6,549 6,058 7,067 6,557 • El ECVI (EXPECTED CROSS- VALIDATION INDEX) se propuso inicialmente como un medio de contrastar en una sola muestra la probabilidad de que el modelo se pueda validar con muestras de similar tamaño obtenidas de la misma población (Browne y Cudeck, 1989). Mide específicamente la discrepancia entre la matriz de covarianza en la muestra analizada y la matriz de covarianza esperada que se obtendría en otra muestra de tamaño equivalente. • La aplicación del ECVI asume la comparación de modelos, por lo cual se calcula un ECVI para cada modelo y todos los ECVI calculados se ordenan y el modelo con menor valor de ECVI es el que presenta mayor potencial para replicación. Como el ECVI puede tomar cualquier valor no hay un rango de valores para afirmar que un índice es adecuado. • En nuestro caso ECVI = 0,888 que es menor del ECVI tanto del modelo saturado como del independiente, por lo que podemos concluir que el modelo propuesto es el que mejor ajusta con los datos. • Mas allá de esta comparación (Browne y Cudeck, 1993) mostraron que no se puede conocer la precisión del ECVI teniendo en cuenta el intervalo de confianza. En la tabla vemos que este intervalo es (0,772, 1,034). Por lo tanto se puede afirmar que el modelo estudiado representa un buen ajuste y da una razonable aproximación en la población. El último estadístico MECVI , es realmente idéntico al BCC, excepto por la escala del factor (Arbuckle y Wothke 1999).

  42. HOELTER • Model HOELTER 0.05 HOELTER 0.01 • Default model 204 223 • Independence model 23 25 • Estos índicesson diferentes de los anteriores porque su enfoque es el estudio de lo adecuado del tamaño de la muestra, no el ajuste del modelo. • Su objetivo es calcular el tamaño de la muestra que sería suficiente para que el ajuste del modelo sea el adecuado con un test chi cuadrado ( Hu y Bentler 1995). • Hoelter (1983) propuso que un valor superior a 200 indica que el tamaño de la muestra es adecuado, cosa que ocurre con nuestro modelo (204 y 223 respectivamente). • Por lo que el tamaño de la muestra usada en nuestro modelo (N=265) es satisfactorio, según el critero de Hoelter.

  43. No es necesario especificar en las investigaciones todos los índices que acabamos de revisar. • La pregunta lógica es ¿Cuáles son necesarios? • La respuesta no es sencilla, porque cada índice opera de diferente forma y tiene diferente objetivo. • Pero los índices de ajuste global no muestran posiblemente todo lo que se necesita saber para juzgar lo adecuado un modelo. • Es posible que un modelo ajuste bien y no sea adecuado (Wheaton, 1987). • Los índices dan información sobre el ajuste del modelo, pero no dan información de si el modelo es plausible y esta decisión recae siempre sobre el investigador y su conocimiento del objeto de estudio es decisivo.

  44. Mal ajuste del modelo • Aunque podemos concluir que el modelo al que nos venimos refiriendo ajusta bien los datos, la siguiente tarea puede consistir en revisar las áreas donde el ajuste es peor. • Para ello AMOS proporciona dos tipos de informaciones que pueden se útiles: • Los residuos estandarizados y los índices de modificación. • Hay que indicarle a AMOS que nos muestre esta información que es opcional. Hay que hacer Clic en Análysis Property y elegir la opción “Output” y allí señalar “residuals moments” y “ Modification indices”

  45. Residuos • Recordemos que la esencia de los modelos de estructura está en determinar el ajuste entre la matriz de covarianza restringida () que se obtiene a partir del modelo y la matriz de covarianza de la muestra S. • La discrepancia entre estas dos matrices aparece en la matriz de los residuos (() - S), hay un residuo para cada pareja de variables observadas (Joreskog 1993). • En el caso que estamos estudiando la matriz de residuos contendrá [(16x17)/2] = 136 elementos. • La magnitud de los residuos puede alertar sobre posibles áreas con mal ajuste. • Las matrices de residuos, tanto no estandarizados como estandarizados se pueden obtener como salidas de AMOS. • Pero como los residuos dependen de la unidad de medida de las variables observadas puede no ser fácil su interpretación en la forma no estandarizada y la que se estudia habitualmente es la estandarizada. • Los residuos estandarizados son los residuos divididos entre sus errores estandar (Joreskog y Sorbom 1988). Por lo tanto son puntuaciones Z y es sencilla su interpretación. • Representan el número de desviaciones típicas que se desvían los residuos observados de los residuos nulos que existirían si el ajuste fuera perfecto, esto es en el caso de que () - S =0, valores superiores a 2,58 o menores a -2,58 se consideran grandes (Joreskog y Sorbom 1988). • En nuestro caso sólo a un valor le ocurre (-2,942) que correponde la covarianza entre SDQ2N07 Y SDQ2N34. Con esta información podemos concluir que la única discrepancia estadísticamente significativa está en la covarianza entre estas dos variables.

  46. INDICES DE MODIFICACION • Los índices de modificación muestran donde nuestro modelo tiene problemas de ajuste. Se conceptualizan como una 2 con un grado de libertad (Joreskog y Sorbom 1988). • Para cada parámetro fijado por el investigador Amos muestra un índice de modificación cuyo valor representa el cambio esperado en el valor de la 2, si el parámetro se dejara para ser estimado libremente por el programa. • Todos los parámetros dejados libres tienen automáticamente un valor de índice de modificación igual a cero. • Asociado con el Indice de modificación aparece el EPC (expected parameter change) (Saris, Satorra y Sorbom, 1987), representa el cambio esperado en sentido positivo o negativo para cada parámetro fijado en el modelo y da una información importante para evaluar el ajuste si se cambian los parámetros del modelo. • En la salida estos índices MI y EPC se presenta primero para las covarianzas y luego para los pesos de regresión. Recordar que los MI aplicables son aquellos que se fijaron a cero. Por ello no aparecen valores en las covarianzas porque en nuestro ejemplo estas se estimaron libremente. • Los únicos con sentido serían los de los errores de covarianzas. Sólo el que hay entre cov err25 y err01 parece tener interés, con un valor de 13,487 y su p de cambio 0,285, pero como indica un error de covarianza se puede considerar que tiene poco interés. Volviendo a los pesos de regresión, parece que solamente dos son de interés: SDQ2N07  ESC y SDQ2N34  MSC pero sus asociados MI y EPC no vale la pena incluirles en una reespecificación del modelo.

  47. ANÁLISIS POST HOC • En este momento el investigador puede decidir si quiere reespecificar y reestimar el modelo. • Si decide que SI, tiene que ser consciente de que sus análisis son ya exploratorios en lugar de confirmatorios. Son exploratorios en el sentido de que se enfocan a la detección de los parámetros que ajustan peor en el modelo especificado originalmente. • La decisión de si proceder o no a la reespecificación del modelo es doble. En primer lugar y sobre todo el investigador tiene que decidir si la estimación del parámetro en cuestión tiene sentido sustantivo. Si por ejemplo es razonable dejar libre el parámetro con mayor MI (índice de modificación) y en segundo lugar habrá que considerar si el nuevo modelo se convierte en sobreespecificado. • En general sobreidentificar un modelo implica la especificación de parámetros adicionales que son “frágiles” en el sentido de que representan efectos débiles y que son difíciles de replicar con otra muestra, también produce un significativo incremento de los errores estandar y también se influye en los primitivos parámetros del modelo aunque su significado substantivo sea inequívoco. • Con respecto al modelo que hemos estado revisando podríamos concluir que teniendo en cuenta lo razonable y estadísticamente significativos que son los parámetros estimados así como el buen ajuste del modelo (en particular el CFI = 0,962, RMSA = 0,048) podríamos concluir que no vale la pena incorporar parámetros al modelo. Por lo que se puede concluir que el modelo de cuatro factores que hemos estudiado representa una descripción adecuada de la estructura del autoconcepto de los jóvenes.

  48. Segunda Hipótesis. El autoconcepto es una estructura de dos factores. • El modelo que estudiaremos a continuación postula que el autoconcepto tiene usa estructura formada por dos factores GSC (autoconcepto general) y ASC (autoconcepto académico). • El primer factor autoconcepto general queda como en el ejemplo anterior mientras que en el factor autoconcepto académico cargan las variables que en el anterior cargaban en los tres factores restantes. • Los pesos SDQ2N10  ESC y SDQ2N07  ESC que antes estaban fijados a 1 ahora se estimarán libremente.

  49. Autoconcepto como estructura de dos factores

More Related