1 / 27

Calibración multivariada Parte 4 - PCR

Calibración multivariada Parte 4 - PCR. Alejandro C. Olivieri. Departamento de Química Analítica Instituto de Química Rosario (CONICET) Facultad de Ciencias Bioquímicas y Farmacéuticas Universidad Nacional de Rosario ARGENTINA. Regresión en componentes principales (PCR).

Download Presentation

Calibración multivariada Parte 4 - PCR

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Calibración multivariada Parte 4 - PCR Alejandro C. Olivieri Departamento de Química Analítica Instituto de Química Rosario (CONICET) Facultad de Ciencias Bioquímicas y Farmacéuticas Universidad Nacional de Rosario ARGENTINA

  2. Regresión en componentes principales (PCR)

  3. Scores significativos Scores poco significativos Matriz de scores PCA Análisis de componentes principales Matriz de datos de calibración

  4. 2  100 1000 × 100 98  100 PCA Análisis de componentes principales Información comprimida

  5. Análisis de componentes principales Pearson, K, Principal Components Analysis, The London, Edinburgh and Dublin Philosophical Magazine and Journal, 6, 566, (1901).

  6. Precursores del análisis de componentes principales Eugenio Beltrami, 1873 Camille Jordan, 1874

  7. Variables latentes Variables explícitas Descomposición matricial mediante PCA U Matriz de autovectores de XTX X Matriz de calibración T Matriz de scores X = U  T

  8. Clasificación de autovectores en PCA Significativo Poco significativo

  9. Clasificación de autovectores en PCA U Matriz de autovectores de XTX Significativos Poco significativos

  10. Descomposición matricial mediante PCA Se seleccionan únicamente los autovectores y scores significativos

  11. Descomposición de la matriz con unos pocos autovectores XA Matriz de calibración reconstruida con A factores UA TA Matriz de los Ascores más significativos Matriz de los A autovectores más significativos XA = UA TA

  12. Imagen original: A=1 A=2 A=4 A=16 A=32 A=8 Ejemplo de reconstrucción matricial Imágenes reconstruidas

  13. La matriz TA es considerablemente menor en tamaño que la matriz original de datos X, ya que en general el número de factores es muy inferior al de longitudes de onda. • Sin embargo, la matriz TA contiene virtualmente la misma información que X. • Por lo tanto, podría reemplazarse X por TA en la calibración de un modelo sin pérdida significativa de información.

  14. Regresión en componentes principales (PCR) 1) Compresión de las señales mediante análisis de componentes principales y cálculo de scores significativos. 2) Calibración inversa (del tipo ILS), reemplazando las señales por los scores. PCR = PCA + ILS

  15. Regresión en componentes principales (PCR) • 1) Compresión de la información de calibración • PCA: Calcular los scores T • AScores:Seleccionar TA(formada por las primeras A columnas de T) • 2) Modelo ILS que relaciona los scores de calibrado con las concentraciones del analito • yn= TAvn+ e

  16. Regresión en componentes principales (PCR) Etapa de calibración

  17. Ventaja adicional de la regresión en componentes principales El cálculo de los coeficientes de regresión requiere la inversión de una matriz. En ILS la inversión se complica si los espectros de las diferentes muestras son similares entre sí. En PCR no existe este problema, porque los “espectros” son reemplazados por los scores. Los scores son ortogonales entre sí, de modo que la inversión de la matriz es siempre posible.

  18. Regresión en componentes principales (PCR) En PCR se cumple fácilmente que el número de factores es menor que el número de mezclas de calibrado. En PCR la matriz de scores se invierte fácilmente.

  19. Regresión en componentes principales (PCR) Etapa de predicción Los coeficientes de regresión de la etapa de calibrado se emplean para la predicción de la concentración del analito en la muestra, reemplazando la señal de la muestra por sus scores.

  20. Regresión en componentes principales (PCR) Etapa de predicción Scores de la muestra

  21. Regresión en componentes principales (PCR) Revisión de la etapa de predicción El espectro de la muestra puede reconstruirse con los scores de la muestra y los autovectores, para dar una aproximación xA. Errores de ajuste para diagnóstico de outliers: eA = xA x

  22. Residuos espectrales y detección de componentes inesperados ej ej Long. de onda Long. de onda Ausencia de componentes inesperados sres≈ Ruido Presencia de componentes inesperados sres>> Ruido

  23. Regresión en componentes principales (PCR) Revisión de la etapa de predicción También puede reconstruirse el vector de coeficientes de regresión bn, a partir de del vector vn calculado en la etapa de calibrado de PCR

  24. Coeficientes de regresión Vector bn Long. de onda yn = bn1x1 + bn2x2 + … + bnJ xJ

  25. Regresión en componentes principales (PCR) • Ventajas: • Espectros completos • Calibración inversa (sólo deben conocerse algunos componentes calibrados) • Residuos espectrales (ventaja de primer orden) • Poco sensible a la colinealidad espectral por el uso de scores ortogonales • Factores que expresan la máxima variancia espectral

  26. Raw calibration Predicted vs. actual Raw unknowns 2 2 20 Ideal 1.5 1.5 Real 15 1 1 Predicted 10 0.5 0.5 Slope = 0.99395 SD = 0.013326 0 0 5 Intcp = -0.083437 SD = 0.13548 -0.5 -0.5 5 10 15 20 20 40 60 80 100 120 20 40 60 80 100 120 Actual Análisis de biodiesel en mezclas con gasoil mediante espectros NIR y PCR en la región completa de 120 sensores (5940-7368 cm-1) 120 sensores Error relativo de predicción (A = 9): 5.5 %

  27. ¿Qué puede ser mejor que la regresión en componentes principales?

More Related