1 / 11

Las Redes Neuronales como complemento al Análisis de Componentes Principales

Las Redes Neuronales como complemento al Análisis de Componentes Principales. Ángel Berihuete Francisco Álvarez. Curso de doctorado 99-00 Principios de 1999. N.N. C.P.A. (Transformación Karhunen-Loève). Problema común en el reconocimiento de patrones estadísticos: Extracción de variables.

reidar
Download Presentation

Las Redes Neuronales como complemento al Análisis de Componentes Principales

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Las Redes Neuronales como complemento al Análisis de Componentes Principales Ángel Berihuete Francisco Álvarez

  2. Curso de doctorado 99-00 Principios de 1999 N.N. C.P.A.(Transformación Karhunen-Loève) • Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. • El espacio de de datos es transformado a un espacio de características. • Los datos están representados por el conjunto de variables que aportan mayor información intrínseca • Producimos una reducción de la dimensionalidad • Distintas topologías de Red Neuronal: • Perceptrón (multicapa) • S.O.M. • Hopfield • Aprendizajes: • Supervisado • No supervisado

  3. Topología de la red Aprendizaje de la red Se actualizan los pesos de la red neuronal para conseguir la función deseada.

  4. Curso de doctorado 00-01 • Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. • El espacio de de datos es transformado a un espacio de características. • El conjunto está representado por el conjunto de variables con mayor información intrínseca • Generamos una reducción de la dimensionalidad • Distintas topologías de Red Neuronal: • Perceptrón (multicapa) • S.O.M. • Mapas autoorganizados de Kohonen • Aprendizajes: • Supervisado • No supervisado Francisco Álvarez Andrés Jiménez Ángel Berihuete

  5. Una sola neurona lineal con un aprendizaje del tipo Hebb para sus pesos, puede evolucionar en un filtro para la primera componente principal de los datos. (Oja, 1982) ¡Estamos de enhorabuena!

  6. Generalización: Algoritmo G.H.A. • Red con dos niveles • Red Progresiva • Cada neurona en la capa de salida es lineal. • l < m • El aprendizaje es de tipo Hebbian • Los pesos tienden a las componentes principales de los datos

  7. Abril de 2001Implementamos el algoritmo en Matlab

  8. ¿Cómo aprende la red?

  9. Reconstruyendo la imagen • Ratio de compresión. • Error mínimos cuadrados. • Almacenamos la matriz de pesos para un una nueva foto.

  10. Mejora del algoritmo: Filtro de Entropía • Seleccionamos los datos que tienen mayor entropía relativa dentro de la imagen. • Menor tiempo de computación. • Obtenemos un error de mínimos • cuadrados menor.

  11. Nuevas líneas de investigación • Análisis de Componentes Independientes. • Teoría de la información. • Programación en hardware paralelo.

More Related