1 / 19

Aprendizaje de Agentes II

Aprendizaje de Agentes II. Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales. Intuición. ?.  b 2 -a 2. Modelo de una Neurona Artificial. REDES NEURONALES MULTICAPA. Introducción. Redes neuronales con una o mas capas ocultas.

colt-ellis
Download Presentation

Aprendizaje de Agentes II

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales

  2. Intuición ?  b2-a2

  3. Modelo de una Neurona Artificial

  4. REDES NEURONALES MULTICAPA

  5. Introducción • Redes neuronales con una o mas capas ocultas. • MLP - Multilayer Perceptrons (Perceptrón Multicapa) • Normalmente cada capa oculta de una red usa el mismo tipo de función de activación. • La función de activación de la salida es sigmoidal o lineal. • Llamados aproximadores universales.

  6. Introducción • Perceptrón multicapas con una sola capa oculta no-lineal (neuronas sigmoidales) aproximan cualquier función continua. • No hay prueba de cuantas capas ocultas se requieren para esto. • BP-Backpropagation es un método general para resolver iterativamente los pesos y los bias del MLP. • Usa la técnica del gradiente descendente para el cálculo de los pesos, minimizando el error.

  7. BP-Backpropagation • Rumelhart, Hinton y Williams (1986) basandose en trabajos de (Werbos 74) y (Parker 82). • Método para que la RNA aprendiera la asociación entre patrones de entrada y las clases correspondientes. • Técnica de optimización diseñada para minimizar una función objetivo:

  8. Algoritmo • Inicialización aleatoria de pesos • Aplicar patrón de entrada • Propagación de la entrada a través de todas las capas • La RNA genera salidas y se calcula el error para cada neurona de salida • Los errores se transmiten hacia atrás, partiendo de la capa de salida hacia las neuronas de la capa intermedia • Este proceso se repite capa por capa. • Se reajustan los pesos de conexión da cada neurona en base al error recibido.

  9. Demo

More Related