1 / 16

Introducción

Introducción. Calculabilidad clásica Autómatas finitos, máquina de Turing Computación celular Autómatas celulares, redes neuronales. Reseña histórica RNAs Neurona biológica, aprendizaje humano Definición Propiedades. Calculabilidad clásica. Objetivo de un Ingeniero en Informática:

baris
Download Presentation

Introducción

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Introducción • Calculabilidad clásica • Autómatas finitos, máquina de Turing • Computación celular • Autómatas celulares, redes neuronales. • Reseña histórica • RNAs • Neurona biológica, aprendizaje humano • Definición • Propiedades

  2. Calculabilidad clásica • Objetivo de un Ingeniero en Informática: • Resolver los problemas de los usuarios, utilizando siempre que se pueda y sea adecuado un ordenador. • Requerimientos • Modelos de computación en los que basar la solución a los problemas. • Máquinas que implementen dichos modelos o algún tipo de ejecución equivalente a los mismos. • Información sobre los tipos de problemas que se pueden resolver con los modelos.

  3. K  Calculabilidad clásica • Máquinas de estados finitos • Modelos de computación centralizados, compuestos de elementos de memoria, proceso y entrada/salida. M

  4. Calculabilidad clásica • Autómatas finitos determinísticos • Equivalentes a los no determinísticos • Reconocen los lenguajes regulares. • Máquina de Turing determinística • Equivalente a la no determinística. • Resuelve problemas que puedan formalizarse en base a funciones µ-recursivas. • Teorema de Church-Turing: Máquina de Turing = Algoritmo • Problema de la parada

  5. M1 M3 M1 M1 M1 M2 M3 Computación celular • Principios: • Simplicidad de la unidades de proceso • Paralelismo inmenso • Localidad del conocimiento. • Red de autómatas

  6. Computación celular • Autómatas celulares • Idéntico modelo de computación en todas las células • Grafo de conexión regular: rejilla. • Redes neuronales • Cada arco del grafo tiene un peso asociado. • El modelo de computación se basa en la suma ponderada de las entradas y en una función de activación. • Resuelven el problema de la parada. Pero no el de la estabilidad. • Equivalentes a la máquina de Turing si limitamos las unidades de proceso a un número finito.

  7. Reseña histórica • McCulloch y Pitts publican “A logical calculus of the ideas immanent in nervous activity” (1943) • Hebb diseña la primera ley de aprendizaje (1949) • Rosenblatt presenta el perceptrón(1962) • Problema XOR. Crisis en neurocomputación (1969) • Kohonen y Carpenter trabajan en redes autoorganizadas y memorias asociativas(70s)

  8. Reseña histórica • Hopfield presenta su red(80s) • Perceptrón multicapa con regla delta generalizada. Solución al problema XOR(1986) • Afianzamiento de la neurocomputación • IEEE International Conference on Neural Networks(1987) • Neural Networks(1988) • Neural Computation(1989) • IEEE Transaction on Neural Networks(1990)

  9. Neurona biológica • Morfología: • Dendritas • Soma • Axón • Sinapsis • Fisiología: • Pesos sinápticos • Potencial sináptico • Umbral • Activación/Inhibición (Despolarización)

  10. Neurona artificial • Pesos sinápticos: matriz de pesos W • Potencial sináptico: entrada Xn • Umbral:  • Activación/Inhibición: función de activación o de transferencia f

  11. Redes Neuronales • Red Neuronal: • Modelos computacionales paralelos con unidades de proceso (neuronas) adaptativas y masivamente interconectadas. • Características: • El procesamiento de la información lo realizan elementos simples (unidades de proceso o neuronas artificiales) • Los resultados se transmiten entre neuronas a través de sus conexiones sinápticas (localidad) • Los enlaces tienen un peso (peso sináptico) que potencia/atenúa la señal emitida. • Cada unidad de proceso aplica una función de activación a la entrada para determinar la salida

  12. Aprendizaje humano • El cerebro se puede contemplar como un ordenador complejo, no lineal y paralelo, en el que las neuronas están organizadas según la tarea a ejecutar. • La experiencia juega un papel importante en el conocimiento adquirido por los humanos. • Las RNA se parecen al cerebro en dos aspectos: • La red adquiere el conocimiento mediante un proceso de aprendizaje (aprendizaje mediante ejemplos) • Los pesos de las conexiones entre las unidades de proceso se utilizan para almacenar el conocimiento.

  13. Definiendo modelos neuronales • Arquitectura: estructura de la red o patrón de conexión entre sus elementos.

  14. Definiendo modelos neuronales • Algoritmo de entrenamiento o aprendizaje • procedimiento para determinar los pesos de las conexiones. • Tipos: • Supervisado: un experto asesora el entrenamiento. (Xi,Yi) i = 1,..,p • Por refuerzo: premios y castigos. (Xi, Ri) i = 1,..,p • No supervisado: sin información sobre los resultados (Xi) i = 1,..,p

  15. Definiendo modelos neuronales • Dinámica de la computación • Evolución de las unidades de proceso desde que se les da una entrada hasta que generan la salida calculada para dicha entrada. • La salida la determina la función de activación: • Neuronas binarias: función paso • Neuronas bipolares: función signo • Neuronas continuas: funciones logística y tangente hiperbólica.

  16. Propiedades de RNA • No linealidad. • Permiten la representación de aplicaciones o correspondencias entre las entradas y salidas. • Adaptabilidad: Acomodan sus pesos sinápticos a los cambios del entorno. • Información contextual: El conocimiento viene representado por el estado de activación de la red neuronal. Cada neurona está afectada potencialmente por la actividad global de las otras neuronas de la red. • Tolerancia a fallos: Si una neurona o un enlace de la red neuronal son dañados, la respuesta de la red probablemente no quedará afectada. Por otra parte, una red es capaz de reconocer señales de entrada diferentes a las señales entrenadas cuando difieren moderadamente.   • Implementación VLSI: utilizadas en el reconocimiento de patrones, procesamiento de señales y control en tiempo real.

More Related