REDES NEURONALES Algoritmos de Aprendizaje

32,737 views

Published on

Algoritmos de Aprendizaje

Published in: Education, Technology
0 Comments
12 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
32,737
On SlideShare
0
From Embeds
0
Number of Embeds
107
Actions
Shares
0
Downloads
919
Comments
0
Likes
12
Embeds 0
No embeds

No notes for slide

REDES NEURONALES Algoritmos de Aprendizaje

  1. 1. Algoritmos de Aprendizaje.
  2. 2. Aprendizaje <ul><li>El aprendizaje es el proceso por medio del cual, los parámetros libres de una red neuronal son adaptados a través de un proceso de estimulación por el ambiente en el cual la red se encuentra inmersa. </li></ul><ul><li>El tipo de aprendizaje es determinada por la manera en la cual el cambio de parámetros tiene lugar. </li></ul><ul><ul><ul><ul><li>Mendel and Mc Claren (1970) </li></ul></ul></ul></ul>
  3. 3. El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacíon de entrada. Los cambios que se producen durante el proceso de aprendizaje son la destrucción, modificación y creación de conexiones entre las neuronas. W = 0 Destrucción; W › 0 Creación Aprendizaje
  4. 4. Tipos de Aprendizaje <ul><li>Aprendizaje Supervisado </li></ul><ul><ul><ul><ul><li>entrada, salida, objetivo </li></ul></ul></ul></ul><ul><li>Aprendizaje No supervisado </li></ul><ul><ul><ul><ul><li>entrada, salida </li></ul></ul></ul></ul><ul><li>Aprendizaje por Reforzamiento . </li></ul><ul><ul><ul><ul><li>Recompensa/castigo </li></ul></ul></ul></ul>
  5. 5. Reglas de Aprendizaje • Aprendizaje Supervisado A la red se le proporciona un conjunto de ejemplos del comportamiento propio de la red (inputs/targets) • Aprendizaje por Reforzamiento A la red se proporciona un grado de desempeño de la misma. • Aprendizaje No supervisado Las entradas son las unicas disponibles para el aprendizaje, el algoritmo de la red aprende a categorizar las entradas (clustering)
  6. 6. Aprendizaje Supervisado
  7. 7. Aprendizaje Supervisado <ul><li>Se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro), que determina la respuesta que debería generar la red apartir de una entrada determinada. </li></ul>
  8. 8. Algoritmos de Aprendizaje Supervisado
  9. 9. Algoritmos con Aprendizaje Supervisado Se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro), que determina la respuesta que debería generar la red apartir de una entrada determinada. <ul><li>Aprendizaje por Corrección de error. </li></ul><ul><li>Aprendizaje por Refuerzo. </li></ul><ul><li>Aprendizaje Estocástico. </li></ul>
  10. 10. Aprendizaje por Corrección de Error  :factor de aprendizaje ( 0 <  < 1 ) Consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre los valores deseados y los obtenidos en la salida de la red; es decir en función del error cometido en la salida
  11. 11. Ejemplos de Corrección de Error <ul><li>Regla de aprendizaje del perceptrón </li></ul><ul><li>Regla delta (  ) o del mínimo error cuadrado ; LMS (Widrow - Hoff). </li></ul><ul><li>Regla delta generalizada o algoritmo de Retropropagación de error (Rumelhart, Hinton, Williams), </li></ul><ul><li>Ejemplos de Redes: Perceptrón, Adaline/Madaline, y Backpropagation </li></ul>
  12. 12. Redes que utilizan el Aprendizaje por Corrección de Error:
  13. 13. Aprendizaje No Supervisado
  14. 14. Aprendizaje no supervisado
  15. 15. Aprendizaje No supervisado <ul><li>El aprendizaje no supervisado o autosupervisado no hay un maestro o critico externo para supervisar el proceso de aprendizaje. </li></ul><ul><li>No existen ejemplos etiquetados de la función que será aprendida por la red </li></ul>
  16. 16. Aprendizaje No Supervisado <ul><li>Esta constituido por un conjunto de reglas que dan a la red la habilidad de aprender asociaciones entre los patrones que ocurren en conjunto frecuentemente. </li></ul><ul><li>Una vez aprendido como asociación permite a las redes realizar tareas útiles de reconocimiento de patrones y recordar. </li></ul>
  17. 17. REDES CON APRENDIZAJE NO SUPERVISADO Tambien llamado autosupervisado, no requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas. existen varias posibilidades en cuanto a la interpretación de la salida de estas redes, que dependen de su estructura o del algoritmo de aprendizaje empleado los casos de salida pueden representar:
  18. 18. <ul><li>grado de familiaridad o similitud entre la información que se presenta a la entrada y las informaciones que se han mostrado hasta entonces. </li></ul><ul><li>agrupamiento o establecimiento de categorías. </li></ul><ul><li>Prototipado, es decir obtener ejemplares representantes de las clases a las que pertenecen las informaciones de entrada. </li></ul>
  19. 19. <ul><ul><ul><li>Codificación de los datos de entrada, generando a la salida una versión codificada de la entrada, con menos bits, pero manteniendo la información relevante de los datos. </li></ul></ul></ul><ul><ul><ul><li>Mapeo de características, obteniendo a la salida un mapa topográfico de las características de los de entrada, de tal forma que si se presentan en la red informaciones similares, siempre sean afectadas neuronas de salida próximas entre si, en la misma zona del mapa. </li></ul></ul></ul>
  20. 20. <ul><li>El aprendizaje Supervisado no involucra valores objetivo. De hecho, los objetivos son los mismos que las entradas. </li></ul><ul><li>En otras palabras, el aprendizaje no supervisado usualmente realiza la misma tarea que una red autoasociativa, la compresión de la información de las entradas. </li></ul>
  21. 21. Algoritmos de Aprendizaje No Supervisado
  22. 22. Tipos de aprendizaje No Supervisado <ul><li>Aprendizaje Asociativo </li></ul><ul><li>Aprendizaje Competitivo y cooperativo </li></ul>
  23. 23. ¿Qué es una Asociación? <ul><li>Es cualquier relación entre la entrada de un sistema y su salida de tal forma que cuando el patrón A se presenta al sistema este responde con un patrón B . </li></ul>
  24. 24. Aprendizaje Hebbiano . Donald O. Hebb (1949) <ul><ul><ul><li>Pretende medir la familiaridad o extraer características de los datos de entrada. Este tipo de aprendizaje consiste en el ajuste de los pesos de las conexiones de acuerdo con la correlación (multiplicación en el caso de valores binarios +1, -1) de los valores de activación (salidas) de las dos neuronas conectadas: </li></ul></ul></ul>
  25. 25. Aprendizaje Hebbiano . <ul><li>Si las dos unidades son activas (positivas), se produce un reforzamiento de la conexión. </li></ul><ul><li>Cuando una unidad es activa y la otra pasiva (negativa) se produce un debilitamiento de la conexión. </li></ul><ul><li>Ejemplos de redes: Red de Hopfield, Additive Grossberg, Shunting Grossberg, Learning Matrix, BAM, TAM, LAM. </li></ul>
  26. 26. Variantes del Aprendizaje Hebbiano <ul><ul><li>Drive - Reinforcement (Sejnowski) </li></ul></ul><ul><ul><li>Hebbiano Diferencial (Kosko) </li></ul></ul><ul><ul><li>Aprendizaje Hebbiano Difuso (Kosko) </li></ul></ul><ul><ul><ul><li>Adaptive bidirectional associative memory (ABAM en 1987) </li></ul></ul></ul><ul><ul><ul><li>Fuzzy Asociative Memory (FAM), utilizando aprendizaje Hebbiano Difuso. </li></ul></ul></ul><ul><ul><li>También se utiliza el aprendizaje hebbiano combinado con otros métodos, esto se puede ver en las redes : </li></ul></ul><ul><ul><ul><li>Maquina de Boltzmann </li></ul></ul></ul><ul><ul><ul><li>Maquina de Cauchy </li></ul></ul></ul><ul><ul><ul><li>Counterpropagation (CPN en 1987) </li></ul></ul></ul><ul><ul><ul><li>Learning Vector Quantization (LVQ). </li></ul></ul></ul>
  27. 27. Aprendizaje Competitivo y Cooperativo. En estas redes las neuronas compiten y cooperan unas con otras con el fin de llevar a cabo una tarea dada. Cuando se presenta a la red cierta información de entrada, solo una de las neuronas de salida o un cierto grupo de neuronas, se activan. quedando anuladas las demás (valores de respuesta mínimos).
  28. 28. <ul><li>El objetivo de este tipo de aprendizaje es categorizar (Clustering) los datos que se introducen en la red. </li></ul>
  29. 29. Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo . <ul><li>LVQ (Learning Vector quantization) Kohonen. </li></ul><ul><li>Cognitron y Neocognitron (Fukushima). </li></ul><ul><li>SOM (Kohonen). </li></ul><ul><li>ART (Carpenter y Grossberg). </li></ul>
  30. 30. Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo LVQ ART
  31. 31. Metas del Aprendizaje No supervisado <ul><li>El encontrar grupos de información </li></ul><ul><li>Reducción de la dimensionalidad </li></ul><ul><li>la Construcción de mapas topográficos </li></ul><ul><li>el encontrar las causas ocultas o fuentes de datos </li></ul><ul><li>Modelar la densidad de datos </li></ul>
  32. 32. Usos del Aprendizaje No supervisado <ul><li>Compresión de Datos.. </li></ul><ul><li>Clasificación. </li></ul><ul><li>Hacer otras tares de aprendizaje mas fácil. </li></ul><ul><li>Una teoría del aprendizaje humano y la percepción. </li></ul>
  33. 33. Aprendizaje Por Refuerzo
  34. 34. Aprendizaje por Reforzamiento
  35. 35. Aprendizaje por Reforzamiento <ul><li>El aprendizaje de una comparación entrada/salida se desempeña a través de la interacción continua del medio ambiente de tal forma que se minimice un índice escalar de su desempeño. </li></ul>
  36. 36. Aprendizaje por Reforzamiento Se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida de la red se ajusta a la deseada (éxito=1, fracaso=-1) y en función de ello se ajustan los pesos basándose en un mecanismo de probabilidades.
  37. 37. Algoritmos de Aprendizaje Por Refuerzo
  38. 38. Algoritmos de Aprendizaje por Refuerzo <ul><li>Algoritmo Lineal con Recompensa y penalización (Linear Reward - Penalty), Narendra /Thathacher. </li></ul><ul><li>Algoritmo Asociativo con recompensa y penalización (Barto / Anandan). </li></ul><ul><li>Adaptive Heuristic Critic (Barto, Sutton, Anderson). </li></ul>
  39. 39. Aprendizaje por Refuerzo Es un aprendizaje supervisado mas lento que el anterior que se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida de la red se ajusta a la deseada (éxito=1, fracaso=-1) y en función de ello se ajustan los pesos basándose en un mecanismo de probabilidades.
  40. 40. Ejemplos de algoritmos que usan el Aprendizaje por Refuerzo <ul><li>Algoritmo Lineal con Recompensa y penalización (Linear Reward - Penalty), Narendra /Thathacher. </li></ul><ul><li>Algoritmo Asociativo con recompensa y penalización (Barto / Anandan). </li></ul><ul><li>Adaptive Heuristic Critic (Barto, Sutton, Anderson). </li></ul>
  41. 41. Aprendizaje Estocástico Este tipo de aprendizaje consiste en básicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad.
  42. 42. Aprendizaje Estocástico <ul><li>Posee una analogia en terminos termodinamicos. </li></ul><ul><li>El estado energetico E representa el grado de estabilidad. </li></ul><ul><li>Un estado de minima energia representa que su funcion se aproxima al objetivo deseado. </li></ul><ul><li>La función de Lyapunov se emplea tipicamente. </li></ul>
  43. 43. Ejemplos de algoritmos de Aprendizaje Estocástico <ul><li>Maquina de Boltzmann (Hinton, Ackley, Sejnowky). </li></ul><ul><li>Temple Simulado (Simulated Anneling). </li></ul><ul><li>Maquina de Cauchy (Szu) </li></ul>
  44. 44. Aprendizaje por Reforzamiento <ul><li>El aprendizaje de una comparación entrada/salida se desempeña a través de la interacción continua del medio ambiente de tal forma que se minimice un índice escalar de su desempeño. </li></ul>
  45. 45. Tipos de Asociación Entrada /Salida
  46. 46. Tipos de Asociación entre las Informaciones de Entrada y Salida <ul><li>Heteroasociación: </li></ul><ul><li>Se refiere al caso en el que la red aprende parejas </li></ul><ul><li>de datos; de tal forma que cuando se presente </li></ul><ul><li>cierta información de entrada A i , deberá responder </li></ul><ul><li>generando la correspondiente salida asociada B i . </li></ul>
  47. 47. Tipos de Asociación entre las Informaciones de Entrada y Salida <ul><li>Autoasociación: </li></ul><ul><li>La red aprende cierta informaciones A 1 , A 2 , ... A N , </li></ul><ul><li>de tal forma que cuando se le presenta cierta </li></ul><ul><li>información de entrada realizará una autocorrelación </li></ul><ul><li>respondiendo con uno de los datos almacenados, el </li></ul><ul><li>más parecido al de entrada. </li></ul>
  48. 48. Características de las Redes Hetereoasociativas Precisan al menos de dos capas. <ul><li>Conectividad: </li></ul><ul><ul><ul><li>Con conexiones hacia delante (Perceptrón, </li></ul></ul></ul><ul><ul><ul><li>Backpropagation, etc..) </li></ul></ul></ul><ul><ul><ul><li>Con conexiones hacia atrás (Art, Bam, etc..) </li></ul></ul></ul><ul><ul><ul><li>Con conexiones laterales (CABAM) </li></ul></ul></ul><ul><ul><ul><li>Con capas multidimensionales (Neocognitron) </li></ul></ul></ul>
  49. 49. Características de las Redes Hetereoasociativas <ul><li>Aprendizaje </li></ul><ul><ul><ul><li>Con supervisión (Perceptron, Backpropa- </li></ul></ul></ul><ul><ul><ul><li>tion, etc..) </li></ul></ul></ul><ul><ul><ul><li>Sin supervisión (Art, Bam, etc..) </li></ul></ul></ul><ul><li>Objetivo de utilización </li></ul><ul><ul><ul><li>Computar una función general de entrada </li></ul></ul></ul><ul><ul><ul><li>Clasificación de datos de entrada </li></ul></ul></ul>
  50. 50. Redes Autoasociativas Una red autoasociativa asocia una información de entrada con el ejemplar más parecido de los almacenados conocidos por la red. De esta manera, su principal misión es reconstruir una determinada información de entrada que se presenta incompleta o distorsionada.
  51. 51. Características de las Redes Autoasociativas Precisan al menos de una capa <ul><li>Conectividad </li></ul><ul><ul><ul><li>Conexiones laterales entre las neuronas </li></ul></ul></ul><ul><ul><ul><li>(Hopfield, etc.) </li></ul></ul></ul><ul><ul><ul><li>Conexiones autorrecurrentes (Brain-State </li></ul></ul></ul><ul><ul><ul><li>in-a-Box, Additive Grossberg, etc) </li></ul></ul></ul>
  52. 52. Características de las Redes Autoasociativas <ul><li>Aprendizaje </li></ul><ul><ul><ul><li>No supervisado (Hopfield, Additive </li></ul></ul></ul><ul><ul><ul><li>Grossberg, etc..) </li></ul></ul></ul><ul><li>Objetivo de utilización </li></ul><ul><ul><ul><li>Filtrado de información para la </li></ul></ul></ul><ul><ul><ul><li>reconstrucción de datos </li></ul></ul></ul><ul><ul><ul><li>Facilitar la búsqueda por contenido </li></ul></ul></ul><ul><ul><ul><li>en bases de datos </li></ul></ul></ul><ul><ul><ul><li>Resolver problemas de optimización </li></ul></ul></ul>
  53. 53. REPRESENTACIÓN DE LA INFORMACIÓN DE ENTRADA Y SALIDA. Las neuronas pueden también clasificarse por el tipo de entradas y salidas que manejen. Así unas redes manejaran valores analógicos en sus entradas y salidas, es decir valores reales continuos. Cuando esto ocurre las funciones de activación de las neuronas serán también continuas, del tipo lineal o sigmoidal.
  54. 54. Otras redes admiten solamente valores discretos o binarios (0, 1) en sus entradas y salidas, en este caso las funciones de activación serán del tipo escalón. Existen un tipo de redes que podrían denominarse como híbridas en los que los valores de entrada pueden ser valores continuos, aunque las funciones de salida sean discretas.
  55. 55. Dudas ???
  56. 56. Hasta la próxima !!! Uff !!!

×