1 / 19

Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica

Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica Maestría en Ingeniería Biomédica GIBULA. Máquinas de Soporte Vectorial. (Clase Nº 1: Ideas Preliminares). Material digital elaborado por: Miguel Vera. Mérida, Abril de 2009. Universidad de Los Andes

leroy-kane
Download Presentation

Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica Maestría en Ingeniería Biomédica GIBULA Máquinas de Soporte Vectorial. (Clase Nº 1: Ideas Preliminares) Material digital elaborado por: Miguel Vera Mérida, Abril de 2009

  2. Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica Maestría en Ingeniería Biomédica GIBULA Preliminar Nº 1 Clasificador Bayesiano: Una Aproximación Estrictamente Geométrica Mérida, Abril de 2009

  3. Introducción a un Clasificador Bayesiano: Idea Geométrica Vamos a suponer que se tienen los siguientes datos: La columna 1 es la data correspondiente a la variable “1”; mientras que la columna 2 representa la data de la variable “2”. Cada variable está compuesta por 13 observaciones

  4. Introducción a un Clasificador Bayesiano: Idea Geométrica La graficación de los mismos, en Matlab, arrojaría la siguiente representación: En ella los ceros (º), representan la variable “1” y las cruces (+) la variable “2”

  5. Introducción a un Clasificador Bayesiano: Idea Geométrica Si ahora se representan, sobre la misma grafica, la media aritmética de cada variable, se obtendría: * * En ella *, representa la media de la variable “1” y * la media de la variable “2”

  6. Introducción a un Clasificador Bayesiano: Idea Geométrica Asignando un vector a cada una de las medias aritméticas calculadas, se tiene que: En ella, el vector rojo se le asignó a la media de la variable “1” y el verde a la media de la variable “2”

  7. Introducción a un Clasificador Bayesiano: Idea Geométrica Representando los vectoresW=(C+ -Co) y C= (C+ + Co)/2, se tiene que:

  8. Introducción a un Clasificador Bayesiano: Idea Geométrica Ejemplo1: Dado el punto desconocido X, determinar si pertenece a la clase C+ ó a la clase Co * Este es el punto desconocido x

  9. Introducción a un Clasificador Bayesiano: Idea Geométrica Solución: 1.- Se traza el vector posición correspondiente al punto dado * Este es el punto desconocido X Este es el vector posición correspondiente al punto desconocido X

  10. Introducción a un Clasificador Bayesiano: Idea Geométrica Solución: 2.- Se traza el vector diferencia X-C Este es el vector diferencia X-C *

  11. El clasificador realiza su trabajo en base a la posición, respecto a la frontera de decisión, de la intersección del vector posición del punto dado y el vector X-C. Para este ejemplo, el punto dado no pertenecía a la data original, sin embargo, el clasificador detecta que pertenece a la C+ * Este es el punto desconocido x

  12. Introducción a un Clasificador Bayesiano: Idea Geométrica Ejemplo2: Dado el punto desconocido X, determinar si pertenece a la clase C+ ó a la clase Co. Solución:

  13. Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica Maestría en Ingeniería Biomédica GIBULA Preliminar Nº 2 Análisis de Componentes Principales (PCA): Una Aproximación Geométrica-Computacional Mérida, Abril de 2009

  14. Algoritmo para hacer un PCA en 2D 1.- Graficar los datos originales 2.- Determinar la media aritmética de cada variable y ajustar los datos originales 3.- Determinar la Covarianza 4.- Calcular los valores y vectores propios 5.- Ordenar y elegir las PC 6.- Obtener los conjuntos de datos Transformados

  15. Introducción al PCA: Idea Geométrica-Computacional Vamos a suponer que se tienen los siguientes datos: La columna 1 es la data correspondiente a la variable “X”; mientras que la columna 2 representa la data de la variable “Y”. Cada variable está compuesta por 10 observaciones

  16. Introducción al PCA: Idea Geométrica-Computacional 1.- La graficación de los mismos, en Matlab, arrojaría la siguiente representación:

  17. Introducción al PCA: Idea Geométrica-Computacional 2.- Si ahora se calcula la media aritmética de cada variable y se resta a cada dato su correspondiente media, se obtendrían los siguientes: Nota: Cuando se realiza este procedimiento, estadísticamente se utiliza la expresión datos ajustados con media “cero”

  18. Introducción al PCA: Idea Geométrica-Computacional 3 y 4.- Luego de determinar la matriz de covarianza, calcular los Autovectores y Autovalores y graficar, se puede obtener la siguiente representación gráfica:

  19. Introducción al PCA: Idea Geométrica-Computacional 5.- Por simple inspección se puede ordenar en forma creciente los AV tomando en cuenta los av. 6.- Para lo generación del nuevo conjunto de datos se aplica: DatosFinales=LineaVectorCaracteristica×LineaDatosAjustados. Los Datos Transformados y su respectiva gráfica se muestra a continuación:

More Related