David r gonz lez barreto universidad de puerto rico
This presentation is the property of its rightful owner.
Sponsored Links
1 / 96

David R. González Barreto Universidad de Puerto Rico PowerPoint PPT Presentation


  • 56 Views
  • Uploaded on
  • Presentation posted in: General

David R. González Barreto Universidad de Puerto Rico. Análisis Multivariado de Datos (MVDA ), un enfoque aplicado ( gráfico - geométrico ), y sus Aplicaciones en Umetrics. Motivación.

Download Presentation

David R. González Barreto Universidad de Puerto Rico

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


David r gonz lez barreto universidad de puerto rico

David R. GonzálezBarreto

Universidad de Puerto Rico

AnálisisMultivariado de Datos (MVDA),un enfoqueaplicado (gráfico-geométrico),y susAplicaciones en Umetrics


Motivaci n

Motivación

  • La habilidad de capturardatoshacetiempo le vieneganando la carrera a la habilidad de obtenerinformaciónsignificativa de estosdatos.

  • Es necesariohaceruso de herramientasanalíticasadecuadasqueextraiganinformaciónsustantiva de grandes bases de datos.


Motivaci n1

Motivación

  • Existen muchas situaciones (típico de PAT) en donde es necesario la medición y/o monitoreo simultáneo de múltiples variables de proceso o de calidad.

  • El monitoreo independiente de estas características puede llevarnos a decisiones erróneas con respecto al estado del proceso o producto.


Motivaci n2

Motivación

  • Si m pruebas independientes univariadas son realizadas, cada una con probabilidad α de cometer el Error Tipo I, la probabilidad global de cometer este error para todas las pruebas está dado por:

    αglogal = 1 – (1 – α )m

Ejemplo: 10 pruebas con α = 0.05

αglobal= 1 – (1 - 0.05)10

αglobal= 1 – 0.5987 = 0.4013


Estructura de correlaci n

Estructurade Correlación

Univariados

Control para dos variables

Intro

PCA

E -PCA

PLS

E - PLS

Q Chart

MVDA - DRGB – Septiembre 2011 [5]


Estructura de datos

Estructura de Datos

VARIABLES

K

OBSERVACIONES, OBJETOS, MUESTRAS, CASOS, ÍTEMS

N


Tipos de problemas b sicos

Tipos de ProblemasBásicos

  • Visión general de los datos (data overview)

  • Clasificación y/o discriminación entre grupos de observaciones

  • Regresión y modelaje entre dos bloques de datos (X y Y)


Tipos de problemas b sicos1

Tipos de ProblemasBásicos

Clasificación y/o discriminación entre grupos de observaciones

Regresión y modelaje entre dos bloques de datos (X y Y)

Visión general de los datos

I

II

III

X

  • X

  • Y

PCA

PCA

PLS


T cnicas multivariadas

Técnicas Multivariadas

Datos del

Proceso

X

Datosde Calidad,

Productividad

Y

Temperatura, Presión, Velocidad,

Nivel de fluido, Ph, concentración, rendimiento, ……,

Peso, Dureza, Grosor, Potencia, Presión, Velocidad, Content Uniformity, Disolución, ……

Existen Técnicas para:

Explicar la variación en X ó Y (PCA)

- mientras maximiza la Varianza (X) ó (Y)

Explicar la variación en X eY yla relación entre X e Y (PLS)

- mientras maximiza la Covarianza (X ,Y)


Principio de proyecciones

Principio de Proyecciones

  • Las bases de MVDA pueden ser delineadas en términos de la geometría de espaciosmultidimensionales.

  • Los datosmultivariados y susmodelospuedenrepresentarsecomopuntos, líneas, planos e hiperplanos en éstosespaciosmultidimensionales.


Principio de proyecciones1

Principio de Proyecciones

Supongaque K = 3, estoesexisten 3 variables. Cadaobservaciónpuede ser representada en un conjunto de ejes, un espacio tridimensional


Principio de proyecciones2

Principio de Proyecciones

El principio de representarcadaobservacióncomo un punto en el espacio multidimensional haceposibleconvertirunatabla de datos en unarepresentacióngráfica. Todaslasobservaciones de X se desplegan en el espacio de dimensión K, comounanube de puntos. En estagráfica se presentan 20 observaciones.


Principio de proyecciones3

Principio de Proyecciones

  • El análisis de datoscorresponde a formularunadescripcióncuantitativa de la forma de la nube de puntos. Este modelopuede verse comounaventanaen el espacio tridimensional.

  • Estaventana se orienta de forma talqueproveeunavisión general de los datos y permitesuinterpretación.

  • El principio detrás de estaconverisón se conocecomoproyección.

  • La proyecciónlogradisminuir el espacio tridimensional original en un espaciobidimensional(la ventana). Examinando la posición de cadaobservación en la ventanaobetenemosunavisión general de los datos.


Principio de proyecciones4

Principio de Proyecciones

  • El principio de proyeccionespuede ser matemáticamenteextendedido a cualquiernúmero de variables en el espacio K.

  • Ejemplo: el archivo FOODS, suministradoporUmetrics, es un ejemplodondetenemos 16 observaciones (N) paracadauna de 20 variables (K, K > N, imposibleusarregresión). El objetivo del estudioes el de investigarpatrones de consumoalimenticio en paiseseuropeos.


Principio de proyecciones5

Principio de Proyecciones

Base de Datos – FOODS.xls


Principio de proyecciones6

Principio de Proyecciones

  • K (20) > N (16)

  • Cadauna de las 16 observaciones (países) se convierte en un punto de la nube de puntosen el espacio de veintedimensiones.

  • Este espaciopuedereducirse a muchasmenosdimensionesextrayendo la informaciónsustancial de los datos, proyectandocadaobservación en la ventana.

  • Note como los paísesnórdicos se agrupan en la parte superior.

  • Estaes la escencia de la metodología de PCA.


Ejemplo foods

Ejemplo FOODS

Ejemplo Foods: Score Plot

Ejemplo Foods: Loadings Plot


Ejemplo foods1

Ejemplo FOODS

Ejemplo Foods: Distance to Model: DMODX

No se observanoutliers, todos los países se ajustanbien al modelo


Principal component analysis

Principal Component Analysis

PCA


Componentes principales pca

ComponentesPrincipales-PCA

  • PCA es un método para crear combinaciones lineales de las características originales que son ortogonales; a estas combinaciones se le llama los componentes principales (PC).

  • Los PCs, a través de las combinaciones lineales independientes intentan contienen la mayoría de la variabilidad de las características originales.


David r gonz lez barreto universidad de puerto rico

PCA

  • PCA se utiliza para encontrar las estructuras de correlación entre las múltiples variables.

  • La idea es encontrar un puñado de variables no correlacionadas, que son combinaciones lineales de las variables originales, que contengan la mayoría de la variabilidad de éstas. Por esta razón, se le conoce como una técnica de reducción de dimensiones.


Datos multivariados

DatosMultivariados

Matriz de Datos:

  • Las filas corresponden a las unidades experimentales y las columnas a las características

  • p: número de características consideradas

  • n: número de unidades experimentales

  • Xrj: valor de la característica j en la unidad experimental r donde r = 1,2,…,n and j = 1,2,…,p.


David r gonz lez barreto universidad de puerto rico

PCA

Si p variables son consideradas, existen p PCs:

PC1= α11X1 + α12X2 + … + α1pXp

PC2= α21X1 + α22X2 + … + α2pXp

:

:

PCp= αp1X1 + αp2X2 + … + αppXp


David r gonz lez barreto universidad de puerto rico

PCA

  • El primer PC contiene la mayor proporción de la variabilidad.

  • El segundo PC contiene la segunda mayor proporción de la variabilidad, así sucesivamente….


David r gonz lez barreto universidad de puerto rico

3

2

1

0

X2

-1

-2

-3

-4

-4

-3

-2

-1

0

1

2

3

4

X1

PCA

Dos ComponentesPrincipales

PC1

PC2


David r gonz lez barreto universidad de puerto rico

PCA

Matriz de Covarianza:

σii = Var(Xi) parai = 1,2,…,p

σij = Cov(Xi,Xj) parai ≠ j = 1,2,…,p


David r gonz lez barreto universidad de puerto rico

PCA

Coeficiente de Correlación:

ρij = coeficiente de correlación entre Xi and Xj para i ≠ j = 1,2,…,p. -1 ≤ ρij ≤ 1 para cada i ≠ j


David r gonz lez barreto universidad de puerto rico

PCA

Matriz de Correlación:

ρij = coeficiente de correlación entre Xi and Xjfor i ≠ j = 1,2,…,p.


David r gonz lez barreto universidad de puerto rico

PCA

Simca – realizaestepretratamiento

pordefault

Centralización y Varianza Unitaria

Tomado de: IBS Caribe,Inc. presentationonChemometrics

Interpretaciónde Centralización

Tomado de: IBS Caribe, Presentation on Chemometrics and Multivariate Model Development.


David r gonz lez barreto universidad de puerto rico

PCA

  • Estandarización de los datos: necesaria para tener las variables en unidades comparables (codificación).

  • A esta estandarización se le conoce como “Standard Normal VariateTransformation” o “SNV correction” en pre-tratamiento espectral.


David r gonz lez barreto universidad de puerto rico

PCA

DatosEstandarizados:

son el promedio y desviaciónestándar de cada variable paratodaslasobservaciones.


David r gonz lez barreto universidad de puerto rico

PCA

Matrix de DatosEstandarizados:

Las filascorresponden a lasunidadesexperimentales y lascolumnas a lascaracterísticas


David r gonz lez barreto universidad de puerto rico

PCA

  • Las variables deben ser estandarizadas si son medidas en escalas muy diferentes o si sus varianzas difieren siginificativamente.

  • Usar la matriz de correlación para calcular los componentes principales PC’s es equivalente a estandarizar los datos.

  • La matriz de covarianza se utiliza cuando no es necesario estandarizar los datos.


David r gonz lez barreto universidad de puerto rico

PCA

  • Los componentesprincipales de un conjunto de variables del proceso x1, x2, ….., xp, son unascombinacioneslinealesparticulares de estas variables.

    z1 = c11x1 + c12x2 + … + c1pxp

    z2 = c21x1 + c22x2 + … + c2pxp

    :::

    zp = cp1x1 + cp2x2 + … + cppxp


David r gonz lez barreto universidad de puerto rico

PCA

  • Cij’s son constantes que se obtienen de los vectores propios (eigenvectors).

  • Las variables de los componentes principales z1, z2, …., zp son los ejes de un nuevo sistema de coordenadas que se obtienen de rotar el sistema original de ejes (basado en las x’s).

  • Los nuevos ejes representan las direcciones de máxima variabilidad.


David r gonz lez barreto universidad de puerto rico

PCA

  • Encontrar los cij’s es relativamente fácil.

  • Si las variables x1, x2, …, xp se representan con un vector x con matriz de covarianza Σ y los valores propios (eigenvalues) de Σ son λ1> λ2> …. λp> 0.

  • Entonces las constantes cij’s son los elementos del “eigenvector” i asociados con el “eigenvalue” i.

  • La varianza del componente principal i es el “eigenvalue” i, λi.

  • La proporción de la variabilidad explicada por el componente principal i está dado por:


David r gonz lez barreto universidad de puerto rico

PCA

  • Encontrar los cij’s es relativamente fácil.

  • Si las variables x1, x2, …, xp se representan con un vector x con matriz de covarianza Σ y los valores propios (eigenvalues) de Σ son λ1> λ2> …. λp> 0.

  • Entonces las constantes cij’s son los elementos del “eigenvector” i asociados con el “eigenvalue” i.

  • La varianza del componente principal i es el “eigenvalue” i, λi.

  • La proporción de la variabilidad explicada por el componente principal i está dado por:

Intro

PCA

E -PCA

PLS

E - PLS

Q Chart

MVDA - DRGB – Septiembre 2011 [37]


David r gonz lez barreto universidad de puerto rico

PCA

  • Los vectores propios (eigenvectors) proveen los coeficientes para los PC’s:

    • PC1 = α11Z1 + α12Z2 + … + α1pZp

  • Los valores propios (eigenvalues) corresponden a las varianzas de los PC’s.

    • λ1, λ2, …, λp

  • La suma de las varianzas de las variables originales es igual a la suma de las varianzas de los PC’s.


Geometr a de pca

Geometría de PCA


Geometr a de pca1

Geometría de PCA


David r gonz lez barreto universidad de puerto rico

PCA

¿Cuantos PC’s?

  • “ScreePlot” – “estado estable”

  • Porcentaje de la Varianza

  • Criterio: Eigenvalues > 1 – Matriz de Correlación


David r gonz lez barreto universidad de puerto rico

PCA

Figure 7: “Scree Plot” (Matriz de Covarianza)


David r gonz lez barreto universidad de puerto rico

PCA

¿Cuantos PC’s?

  • Porcentaje de la varianza

    • Puededecidirmantener los PCs queexpliquen el 85% de la varianza, porejemplo.


David r gonz lez barreto universidad de puerto rico

PCA

¿Cuántos PC’s?

Criterio Eigenvalue > 1: los eigenvalues son las varianzas de los PCs; por lo tanto , cuando usamos variables estandarizadas (matriz de correlación), se pueden considerar todos los PCs cuyo eigenvalue sea mayor de 1.

ScreePlot (Matriz de Correlacion)


David r gonz lez barreto universidad de puerto rico

PCA

Tradeoff entre el número de componentes y el “overfitting”

R2 – goodness of fit

Q2 – goodness of prediction


Pasos en pca

Pasos en PCA

  • Seleccione las variables para el análisis.

  • Decida si utilizara datos estandarizados, o,

    • Seleccione la matriz a utilizarse: matriz de covarianza ∑ o matriz de correlación P.

  • Determine el numero de PCs significativos.

  • Interprete los PCs (cuando sea posible).

  • Use los PCs estudios futuros.


David r gonz lez barreto universidad de puerto rico

PCA

  • “Scores plots”:

    • Muestralasobservationesproyectadas en el hiper-planocreadopor los PCs.

    • Muestra un resumen de la relacion entre lasobservaciones.

Score Plot


David r gonz lez barreto universidad de puerto rico

PCA

  • Loadingsplots:

    • Muestra la relación entre distintas variables.

    • Los “loadings” son los pesos que combinan las variables originales para obtener los scores.

    • Geométricamente, representan la dirección de los PCs.

    • La dirección del plano de proyección provee información sobre la importancia de las variables.


David r gonz lez barreto universidad de puerto rico

PCA

Loading Plot


Pca ejemplo

PCA - Ejemplo

Escuela % de RetenciónGPA_ESPGPA-INGGPA-MATT_PromedioProportion

A0.9090913.035023.062762.107365.1130.714571

B0.8690103.026402.938061.991095.3350.678788

D0.8640782.859262.786101.793925.3450.674847

E0.8498293.238673.117572.231595.5250.689655

F0.8240742.815702.715281.812695.7420.603896

H0.8197883.249213.369932.428334.8220.743590

A0.8187502.663532.580261.811615.5230.542857

I0.7868062.719012.592161.633735.6250.536278

J0.7863012.706992.893891.726685.5660.515789

K0.7378642.807343.129582.011355.6360.578947

L0.6447762.343042.280701.366985.9540.393939


Pca ejemplo1

PCA - Ejemplo

Eigenanalysis of the Correlation Matrix

Eigenvalue 4.9869 0.5929 0.2739 0.0803 0.0404 0.0257

Proportion 0.831 0.099 0.046 0.013 0.007 0.004

Cumulative 0.831 0.930 0.976 0.989 0.996 1.000

Variable PC1 PC2 PC3 PC4 PC5 PC6

% de Retención 0.352 0.774 -0.188 -0.401 0.278 0.053

GPA_ESP 0.433 -0.074 -0.342 0.449 -0.059 0.696

GPA-ING 0.403 -0.492 -0.113 -0.713 -0.261 0.080

GPA-MAT 0.425 -0.337 -0.135 0.198 0.677 -0.437

Tiempo_Promedio -0.395 -0.040 -0.900 -0.055 -0.044 -0.168

Proportion 0.435 0.194 -0.087 0.294 -0.626 -0.536


Pca ejemplo2

PCA - Ejemplo

EjemploEscuelas: Model Overview


Pca ejemplo3

PCA - Ejemplo

EjemploEscuelas: Scores Plot


Pca ejemplo4

PCA - Ejemplo

EjemploEscuelas: Loadings Plot


Partial least squares

Partial Least Squares

PLS


David r gonz lez barreto universidad de puerto rico

PLS

  • PLS es un método para construir modelos de predicción cuando existen múltiples variables y una alta (relación) entre las mismas.

  • PLS es una extensión de regresión a PCA, que es utilizado para conectar la información de dos bloques de variables, X e Y.


David r gonz lez barreto universidad de puerto rico

PLS

  • PLS intenta encontrar unos pocos factores fundamentales o latentes que explican la mayor parte de la variabilidad en las respuestas.

  • La idea es extraer estos factores latentes mientras se modela adecuadamente las respuestas.


Estructura de datos1

Estructura de Datos

RESPUESTAS

M

FACTORES/PREDICTORES

K

X

PLS

  • Y

OBSERVACIONES, OBJETOS, MUESTRAS, CASOS, ÍTEMS

OBSERVACIONES, OBJETOS, MUESTRAS, CASOS, ÍTEMS

N

N


Geometr a de pls

Geometría de PLS

K = 3, M = 1, dos nubes de puntos


Geometr a de pls1

Geometría de PLS

K = 3, M = 3, dos nubes de puntos


Geometr a de pls2

Geometría de PLS

Primer Componente, ambos espacios

Score Vectors


Geometr a de pls3

Geometría de PLS

Segundo Componente, ambos espacios

Línea de segundocomponente de X

Ortogonal a la primera, esto no es

necesariamenteciertopara el espacioY


Geometr a de pls4

Geometría de PLS

Score vectors, otroscomponentes

El segundo par de “score vectors” (t2, u2),

Correlacionan, peroregularmentemenos

que el primer componente


David r gonz lez barreto universidad de puerto rico

PLS

ModelajeIndirecto

Tomado de: An Introduction to Partial Least Squares Regression by Randall D. Tobias


Pls ejemplo

PLS - Ejemplo

Ejemplo: el archivo LOWARP, suministradoporUmetrics, es un ejemplodondetenemos 17 observaciones (mezclas) de unacubierta de plásticopara un celular. Cuatrocomponentes son utilizados en la mezcla. El objetivo del estudioes el de conseguircubiertas con pocadeformación (warpage) y alto esfuerzo (strength). Catorcerespuestasrelacionadas a lasdeformaciones y el esfuerzo son medidas en la cubierta.


Pls ejemplo1

PLS - Ejemplo

Base de Datos – LOWARP

Factores - X

Respuestas - Y


Pls ejemplo2

PLS - Ejemplo

LOWARP – Weight Plot


Pls ejemplo3

PLS - Ejemplo

LOWARP – Observed vs Predicted


Pls ejemplo4

PLS - Ejemplo

TresComponentes

Dos Componentes


Pls ejemplo5

PLS - Ejemplo

t1/t2 - Score plot

Biplot


Pls ejemplo6

PLS - Ejemplo

Interpretación de los “weights”


Pls ejemplo7

PLS - Ejemplo

Coeficientes de variables correlacionadas wrp1 y wrp2


Pls ejemplo8

PLS - Ejemplo

Coeficientes de variables no correlacionadas wrp4 y st4


Pls ejemplo9

PLS - Ejemplo

VIP – Variance Influence on projection


Pls ejemplo10

PLS – Ejemplo

Diagnóstico de observaciones – “outliers” p “non-linearities”

Unaobservaciónpuede ser un outlier en X en Y y/o en la relación entre X e Y. Cuatro score Plots puedenayudar: t1/u1, t2/u2, t1/t2 y u1/u2

La no-linearidad entre X e Y

Puede ser observada en los scores tj/uj


Pls ejemplo11

PLS - Ejemplo

t1/u1 - Score plot

t2/u2 - Score plot

En general se observaunacorrelaciónalta entre los factores y lasrespuestas; puntos 6,11, 12 son comodiferentes

Indicaunacorrelaciónalta entre

Los factores y lasrespuestas; no parecenexistir “outliers”.


Pls resumen de gr ficos

PLS – Resumen de gráficos

  • t/t score útilparaencontrardesviaciones en X

  • u/u plot – útilparaencontrardesviaciones en Y

  • t/u plot – útilparaencontrardesviaciones de la correlaciónexistenteentre X e Y. Ademásesútilparadesviaciones a la linearidad entre X e Y.

  • DmodX/DmodY, muestra la distancia de cadaobservación al modelo en el espacio X/Y ypuedenayudar a detectar “outliers” moderados


Pls ejemplo12

PLS - Ejemplo

DMOD- distancia al modelo – detect “outliers”moderados

DMODX

DMODY


Pls ejemplo13

PLS - Ejemplo

R2VX- variaciónexplicada de los predictores X

Primer Componente

DMODY


Gr ficos multivariados monitoreo

Gráficos Multivariados - Monitoreo

Hotelling, PCA


Gr ficos multivariados

GráficosMultivariados

Variables Dendendientes

Variables Independendientes

Intro

PCA

E -PCA

PLS

E - PLS

Q Chart

MVDA - DRGB – Septiembre 2011 [81]


Gr ficos multivariados1

GráficosMultivariados

HotellingT2

Fase I – uso de los gráficos de control para establecer control (obtener límites adecuados)

Fase II – monitoreo de observaciones futuras

m = # de muestras, n = tamaño de muestra

p = # de variables

Intro

PCA

E -PCA

PLS

E - PLS

Q Chart

MVDA - DRGB – Septiembre 2011 [82]


Gr ficos multivariados ejemplo p 2 n 3

GráficosMultivariados – Ejemplop = 2, n = 3

Intro

PCA

E -PCA

PLS

E - PLS

Q Chart

MVDA - DRGB – Septiembre 2011 [83]


Gr ficos multivariados ejemplo

GráficosMultivariados - Ejemplo

Promedios

Varianzas

Cov / Corr

Intro

PCA

E -PCA

PLS

E - PLS

Q Chart

MVDA - DRGB – Septiembre 2011 [84]


Gr ficos multivariados ejemplo1

GráficosMultivariados - Ejemplo


Gr ficos multivariados ejemplo2

GráficosMultivariados - Ejemplo

T Square

3.56183

3.63906

0.62709

7.97026

2.09700

2.75502

0.41027

1.48648

0.91915

3.87732

MEAN1MEAN2

118.43367.6

COV

244.000 234.367

234.367 383.167


Gr ficos multivariados ejemplo3

GráficosMultivariados - Ejemplo

  • Uno de los retos en estos gráficos cuando ocurre una señal de fuera de control es distinguir o diagnosticar cual o cuales de las variables son las que han cambiado su comportamiento. Entre los métodos sugeridos para el disgnóstico se encuentran:

    • Gráficos Univariados usando límites Bonferroni

    • Usar Componentes Principales

    • Descomposición de T2

      di = T2 – T2(i)

      donde T2(i) – la estadística T2 sin la variable I,

      valores de di altos indican variables sospechosas

  • Otro reto con estas variables es la estinmación de la matriz de covarianza y el vector de promedios


  • David r gonz lez barreto universidad de puerto rico

    PCA

    • Los gráficos de Control Multivariados son efectivos en la medida en que p, el número de variables del proceso a monitorearse no sea muy grande.

    • A medida que p aumenta el ARL de detectar un cambio particular también aumenta, porque el cambio se “diluye” en el espacio dimesional de las p variables del proceso.

    • Métodos para descubrir el subconjunto de variables que operan sobre el proceso se le conocen como “Latent Structure Methods”.

    • Uno de estos métodos es el de componentes principales PCA – siglas en inglés).


    Pca ejemplo fase i

    PCA – Ejemplo – Fase I

    Intro

    PCA

    E -PCA

    PLS

    E - PLS

    Q Chart

    MVDA - DRGB – Septiembre 2011 [89]


    David r gonz lez barreto universidad de puerto rico

    Type: PCA-X Observations (N)=20, Variables (K)=4 (X=4, Y=0)

    PCA

    Correlations: X1, X2, X3, X4

    X1 X2 X3

    X2 0.930

    X3 0.206 0.167

    X4 0.359 0.450 0.344


    David r gonz lez barreto universidad de puerto rico

    PCA

    Principal Component Analysis: X1, X2, X3, X4 Eigenanalysis of the Correlation MatrixEigenvalue 2.3181 1.0118 0.6088 0.0613Proportion 0.580 0.253 0.152 0.015Cumulative 0.580 0.832 0.985 1.000Variable PC1 PC2 PC3 PC4X1 0.594 -0.334 0.257 0.685X2 0.607 -0.330 0.083 -0.718X3 0.286 0.794 0.534 -0.061X4 0.444 0.387 -0.801 0.104


    Pca z scores fase i

    PCA – Z Scores – Fase I

    Intro

    PCA

    E -PCA

    PLS

    E - PLS

    Q Chart

    MVDA - DRGB – Septiembre 2011 [92]


    Pca trajectory plot fase i

    PCA – Trajectory Plot – Fase I


    Pca ejemplo fase ii

    PCA – Ejemplo – Fase II

    Variables Originales

    Z Scores

    Intro

    PCA

    E -PCA

    PLS

    E - PLS

    Q Chart

    MVDA - DRGB – Septiembre 2011 [94]


    Pca trajectory plot fase ii

    PCA – Trajectory Plot – FaseII


    Pca trajectory plot fase ii1

    PCA – Trajectory Plot – FaseII

    Hotelling T2 – monitoreomultivariado

    Pesos señal de fuera de control – obs. 23


  • Login