Unidad   1 Repaso de Redes Neuronales Artificiales
<ul><li>Es un arreglo masivo de elementos de procesamiento simple llamados neuronas, los cuales poseen un alto grado de in...
Red Neuronal Artificial <ul><li>Las redes neuronales artificiales son redes interconectadas masivamente  en paralelo y con...
Estructura Típica De Una Neurona Biológica
Una Neurona Biológica Consta De: <ul><li>a).  Un Cuerpo Celular, </li></ul><ul><li>(de 5 a 10 µm de diámetro) </li></ul><u...
Existen 2 tipos de sinapsis: <ul><li>a).  Las sinapsis excitadoras.- </li></ul><ul><li>Cuyos neurotransmisores provocan  d...
<ul><li>b).  Las sinapsis inhibidoras.- </li></ul><ul><li>Cuyos neurotransmisores tienden a estabilizar el potencial de la...
<ul><li>La suma de los efectos excitadores e inhibidores determina si la célula será o no  estimulada; Es decir, si emitir...
Similitud directa entre actividad sináptica y la analogía con las RNA <ul><li>1.  Las señales que llegan a la sinapsis son...
<ul><li>3.  Las señales pueden  excitar  a la neurona (sinapsis con peso positivo) o  inhibirla  (peso negativo). </li></u...
<ul><li>5.  Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona se activa. </li></ul><ul><li>6.  ...
¿Como se relaciona una RNA con un sistema neuronal Biológico? <ul><li>Las redes neuronales tratan de imitar a los sistemas...
Capas en una RNA.
<ul><li>Para realizar esto se requieren  por lo  menos tres capas. </li></ul><ul><li>La primera capa se conoce como  capa ...
<ul><li>Dicha información es procesada y finalmente entregada por la capa de salida. </li></ul><ul><li>Entonces la capa de...
Niveles o capas de neuronas
<ul><li>Un modelo matemático simple de la neurona biológica  es el propuesto por McCulloch y Pitts (en 1943). </li></ul>
<ul><li>En este modelo, el i-esimo (ith) elemento de procesamiento calcula una suma de ponderaciones (pesos) de sus entrad...
<ul><li>Donde la función de activación  a(f)  es una función escalón unitaria: </li></ul>
<ul><li>Por lo anterior, el primer trabajo en tratar al cerebro como un organismo computacional fue el trabajo de McCulloc...
<ul><li>Lo cual indica que las neuronas son binarias (on-off). </li></ul><ul><ul><li>2.- Es  preciso que un número fijo de...
<ul><ul><li>4.-  La activación de cualquier sinapsis inhibitoria impide por completo la excitación de la neurona en ese mo...
<ul><li>w ij   representa la fuerza de la sinapsis ( conocida como la conexión o eslabón ) que conecta a la neurona  j  ( ...
¿Como trabaja una RNA? <ul><li>Primeramente, todos los datos son procesados de acuerdo a un  PESO asociado. </li></ul><ul>...
<ul><li>La red neuronal es programada con niveles de umbral para cada uno de los cálculos que se realizan en la capa ocult...
¿Cómo aprende la red neuronal? <ul><li>El sistema aprende al correr conjuntos de datos a través de la red. </li></ul><ul><...
<ul><li>Después de que se corrieron un gran número de muestras, un peso aleatoriamente seleccionado se puede ajustar y/o s...
Modelado de Redes Neuronales Artificiales
Notación y modelo de una neurona <ul><li>La representación de una neurona artificial, así como las funciones de transferen...
Neurona de una entrada y Funciones de transferencia <ul><li>Entrada neurona con umbral </li></ul><ul><ul><ul><ul><li>w   n...
Funciones de transferencia Esta función se utiliza en el  Perceptron   para crear neuronas las cuales toman decisiones de ...
Funciones de transferencia <ul><li>Este tipo de funciones se usan como aproximadores lineales ( Neural Linear ). </li></ul>
Funciones de transferencia <ul><li>Comúnmente esta función se utiliza en las redes de retropropagación (backpropagation). ...
Neurona de Múltiples Entradas
Notación  usada en diagramas de múltiples entradas <ul><li>En la figura se presenta un diagrama de una neurona con R entra...
A RQUITECTURAS DE  RNA <ul><li>Red neuronal con una Capa de neuronas </li></ul>Dos o más  neuronas pueden ser combinadas e...
<ul><li>Cada elemento del vector de entrada  p   esta conectado a cada neurona a través de la matriz de ponderaciones  W. ...
<ul><li>Los elementos del vector de entrada  entran a la red a través de la matriz de ponderaciones  W  como se expresa a ...
<ul><li>p  es un vector de entrada de longitud  R ,  W   es una matriz  SxR   y,  a  y  b   son vectores de longitud  S . ...
Arquitectura De Redes Neuronales <ul><li>Los parámetros fundamentales de la red son: </li></ul><ul><ul><li>Número de capas...
Red neuronal de Múltiples Capas
Red neuronal con varias  capa de neuronas (forma condensada)
Redes Monocapa: l 1 l n l 2 Las  redes  monocapa  se utilizan típicamente en  en tareas relacionadas en lo que se conoce c...
Redes Multicapa: Redes con conexiones hacia delante (feedforward) Este tipo de redes son especialmente útiles en aplicacio...
Redes con conexiones  hacia adelante y hacia atrás   (feedforward / feedback): En  este  tipo  de  redes circula informaci...
Redes Con Conexiones Hacia Adelante Y Hacia Atrás (feedforward / Feedback)  También existen algunas que tienen conexiones ...
Red neuronal  de tipo  feedforward .
Red neuronal  de tipo  feedforward .
Conexiones con propagación hacia atrás en RNA
Red neuronal  de tipo recurrente
... <ul><li>La retroalimentación de la salida a la entrada le permite a la red recurrente exhibir un comportamiento tempor...
... <ul><li>Comúnmente, la  red recurrente   sé alimenta con un vector de entrada inicial.  Y una vez inicializada, en cad...
MECANISMOS DE APRENDIZAJE (ajuste de pesos de interconexión) <ul><li>En los modelos de RNA,  la creación de una nueva cone...
¿Qué son las reglas de aprendizaje en RNA? <ul><li>La regla de aprendizaje de una red   son criterios que se siguen para c...
Clasificación de RNA según  el aprendizaje que observan <ul><li>Redes neuronales que utilizan OFF LINE .- (desconexión de ...
... <ul><ul><li>En las redes con aprendizaje  OFF LINE, los PESOS de las conexiones permanecen fijos después de que termin...
... <ul><li>Redes con aprendizaje ON LINE .- en estas redes no se distingue entre la fase de entrenamiento y de operación,...
Redes con aprendizaje supervisado <ul><li>Tipos de  aprendizajes  supervisados: </li></ul><ul><ul><li>Aprendizaje por corr...
El Aprendizaje Por Corrección De Error <ul><li>Este aprendizaje consiste en ajustar los pesos de las conexiones de la red ...
Aprendizaje Por Reforzamiento
Aprendizaje por Reforzamiento Se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es deci...
Algoritmos de  Aprendizaje por Refuerzo <ul><li>Algoritmo Lineal con Recompensa y penalización (Linear Reward - Penalty), ...
El aprendizaje estocástico <ul><li>Consiste básicamente en realizar cambios aleatorios en los valores de los pesos de las ...
Ejemplos de algoritmos de Aprendizaje Estocástico <ul><li>Maquina de Boltzmann (Hinton, Ackley, Sejnowky). </li></ul><ul><...
Redes con aprendizaje no supervisado <ul><li>Tipos de algoritmos de aprendizaje no supervisado: </li></ul><ul><ul><li>Apre...
El  aprendizaje  Hebbiano <ul><li>Se basa en el siguiente postulado: </li></ul><ul><li>&quot;Cuando un axón de una celda  ...
... <ul><li>Ejemplos: </li></ul><ul><li>Red de Hopfield; </li></ul><ul><li>Red Additive Grossberg; </li></ul><ul><li>Red S...
Aprendizaje competitivo y cooperativo <ul><li>En este aprendizaje las neuronas compiten ( y cooperan ) unas con otras con ...
... <ul><li>Ejemplo: </li></ul><ul><li>Cuantización del Vector de Aprendizaje o  LVQ, </li></ul><ul><li>Aplicado a redes  ...
... <ul><li>Dentro del aprendizaje competitivo existe la teoría de la resonancia adaptativa, utilizada en la red  feedforw...
Ejemplos De Redes Con Aprendizaje Competitivo  Y  Cooperativo . <ul><li>LVQ (Learning vector quantization) Kohonen. </li><...
Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo LVQ ART
<ul><li>La salida de la red se calcula mediante: </li></ul>Modelo y  Arquitectura de un Perceptron
<ul><li>Red Perceptron </li></ul>
La matriz de pesos de la red es:
<ul><li>Se definirá un vector compuesto de los elementos de la  i  th fila de  W : </li></ul>
<ul><li>Ahora se puede particionar la matriz de pesos: </li></ul>
<ul><li>Esto permitirá escribir el  i th elemento del vector de salida de la red como: </li></ul>
Recordando que la función de transferencia  hardlim   se define como: a n=Wp+b n
Unificación de la regla de aprendizaje
El umbral es un peso con una entrada de  1.
Perceptron de Múltiples-Neuronas Para actualizar la ith fila de la matriz de pesos: En forma de Matriz:
Capacidad de la regla de aprendizaje del  Perceptron La regla del Perceptron siempre convergirá a los pesos que cumplan co...
Limitaciones del Perceptron Frontera de decisión lineal  Problemas linealmente  No separables
UNIDAD VI Redes de propagación hacia delante  y aprendizaje supervisado RED ADALINE Adaline simple. Algoritmo  LMS .
Introducción <ul><li>A finales de los  50’s  bernard widrow  empezaba a trabajar en redes neuronales, en el tiempo en el q...
<ul><li>En 1960 Widrow  y su asesorado Marcian Hoff, presentaron la red ADALINE (adaptive linear neuron), y una regla de a...
<ul><li>La red ADALINE  es muy similar al perceptron, excepto que su función de transferencia es linear, en vez de escalón...
<ul><li>El algoritmo LMS  es más poderoso que la regla de aprendizaje del Perceptrón. </li></ul><ul><li>La regla del Perce...
Diferencias entre . . . <ul><li>El algoritmo  LMS  minimiza el error medio cuadrático,  y por consiguiente trata de mover ...
Diferencias entre . . . PERCEPTRON ADALINE Función de Transferencia ESCALON LINEAL Resolución de problemas Linealmente Sep...
Red  ADALINE a p u r e l i n W p b +   W p b + = = a i p u r e l i n n i   p u r e l i n w T i p b i +   w T i p b i...
ADALINE de dos entradas a p u r e l i n n   p u r e l i n w T 1 p b +   w T 1 p b + = = = a w T 1 p b + w 1 1  p 1 w ...
Mínimo Error Cuadrático p 1 t 1 { , } p 2 t 2 { , }  p Q t Q { , }    Conjunto Entrenamiento: p q t q Entrada: Objetiv...
Ecuaciones Importantes en el Algoritmo LMS W k 1 +   W k   2  e k   p T k   + = b k 1 +   b k   2  e k   +...
Condiciones para la Estabilidad e i g I 2  R –     1 2   i – 1  = Resumiendo, las condiciones de estabilidad son: ...
Modelo de una neurona lineal en MATLAB p(1) p(2) p(3) p(R) W(1,1) W(1,R) 1 b n a  a = purelin(w*p+b) a = w*p+b 0 0 1 -1 a...
Regla de Aprendizaje en ADALINE · ADALINE utiliza un aprendizaje OFF LINE con supervisión.  · Este aprendizaje es la llama...
Regla de Widrow-Hoff Consiste en hallar el vector de pesos W deseado, único, que deberá asociar cada vector de entrada con...
Esta función de error está definida en el espacio de pesos multidimensional para un conjunto de entradas, y la regla de Wi...
Se utiliza el método de gradiente decreciente para saber en qué dirección se encuentra el mínimo global de dicha superfici...
a) ADALINE     b) PERCEPTRÓN
La regla de Widrow-Hoff es implementada realizando cambios a los pesos en la dirección opuesta en la que el error está inc...
Algoritmo de aprendizaje en ADALINE 1.   Se aplica un vector o patrón de entrada  P R  en las entradas del ADALINE. 2.   S...
ENTRENAMIENTO ADALINE <ul><li>Ya se explicó la regla de aprendizaje usada para las redes neuronales Adaline, conocida como...
ENTRENAMIENTO ADALINE <ul><li>El entrenamiento comprende la aplicación de la regla de Widrow-Hoff  (determinación  de las ...
ENTRENAMIENTO ADALINE <ul><li>Sin embargo, si se procede por medio de las funciones anteriores, es necesario realizar un n...
Ejercicio:  1 1.0  2 0.0  3 2.0 =  =  = R E p p T   1 2 - - - p 1 p 1 T 1 2 - - - p 2 p 2 T + = = R 1 2 - - - 1 – 1...
Iteración: 1 e 0   t 0   a 0   t 1 a 0   1 – 0 1 – = – = – = – = W 1   W 0   2  e 0   p T 0   + = W 1  ...
Iteración:  2 Manzana a 1   W 1   p 1   W 1   p 2 0.4 0.4 – 0.4 1 1 1 – 0.4 – = = = = e 1   t 1   a 1   t 2 ...
Iteración:  3 e 2   t 2   a 2   t 1 a 2   1 – 0.64 –   0.36 – = – = – = – = W 3   W 2   2  e 2   p T 2  ...
Upcoming SlideShare
Loading in...5
×

Introduccion redes neuronales artificiales

8,573

Published on

Redes Neuronales Artificiales

Published in: Education, Technology

Transcript of "Introduccion redes neuronales artificiales"

  1. 1. Unidad 1 Repaso de Redes Neuronales Artificiales
  2. 2. <ul><li>Es un arreglo masivo de elementos de procesamiento simple llamados neuronas, los cuales poseen un alto grado de interconectividad entre sus elementos, en los que la información puede fluir en cascada o en retroceso. Estos arreglos están inspirados en la naturaleza biológica de las neuronas. </li></ul>¿ Que Es Una RNA?
  3. 3. Red Neuronal Artificial <ul><li>Las redes neuronales artificiales son redes interconectadas masivamente en paralelo y con organización jerárquica, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biológico. </li></ul><ul><li>Teuvo Kohonen. </li></ul>
  4. 4. Estructura Típica De Una Neurona Biológica
  5. 5. Una Neurona Biológica Consta De: <ul><li>a). Un Cuerpo Celular, </li></ul><ul><li>(de 5 a 10 µm de diámetro) </li></ul><ul><li>b). Una rama principal, el Axón, </li></ul><ul><li>c). Varias ramas más cortas, las Dendritas. </li></ul>
  6. 6. Existen 2 tipos de sinapsis: <ul><li>a). Las sinapsis excitadoras.- </li></ul><ul><li>Cuyos neurotransmisores provocan disminuciones de potenciales en la membrana de la célula postsináptica, facilitando la generación de impulsos a mayor velocidad. </li></ul>
  7. 7. <ul><li>b). Las sinapsis inhibidoras.- </li></ul><ul><li>Cuyos neurotransmisores tienden a estabilizar el potencial de la membrana, dificultando la emisión de impulsos. </li></ul>
  8. 8. <ul><li>La suma de los efectos excitadores e inhibidores determina si la célula será o no estimulada; Es decir, si emitirá o no un tren de pulsos, así como su velocidad. </li></ul>
  9. 9. Similitud directa entre actividad sináptica y la analogía con las RNA <ul><li>1. Las señales que llegan a la sinapsis son las entradas a la neurona. </li></ul><ul><li>2. Dichas señales son ponderadas (atenuadas o modificadas) a través de un parámetro, denominado PESO , asociado a la sinapsis correspondiente. </li></ul>
  10. 10. <ul><li>3. Las señales pueden excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). </li></ul><ul><li>4. El efecto es la suma de las entradas ponderadas. </li></ul>
  11. 11. <ul><li>5. Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona se activa. </li></ul><ul><li>6. Cada neurona se activa o no se activa. </li></ul>
  12. 12. ¿Como se relaciona una RNA con un sistema neuronal Biológico? <ul><li>Las redes neuronales tratan de imitar a los sistemas neuronales. Esto se realiza a través del uso de capas . </li></ul><ul><li>Las capas son niveles diferentes dentro de una red neuronal donde la información entra , se procesa , y sale . </li></ul>
  13. 13. Capas en una RNA.
  14. 14. <ul><li>Para realizar esto se requieren por lo menos tres capas. </li></ul><ul><li>La primera capa se conoce como capa de entrada . Esta capa es la que recibe la información en el sistema. </li></ul>
  15. 15. <ul><li>Dicha información es procesada y finalmente entregada por la capa de salida. </li></ul><ul><li>Entonces la capa de salida se puede considerar como la respuesta. </li></ul><ul><li>Entre la capa de entrada y la capa de salida se encuentran n capas ocultas. </li></ul>
  16. 16. Niveles o capas de neuronas
  17. 17. <ul><li>Un modelo matemático simple de la neurona biológica es el propuesto por McCulloch y Pitts (en 1943). </li></ul>
  18. 18. <ul><li>En este modelo, el i-esimo (ith) elemento de procesamiento calcula una suma de ponderaciones (pesos) de sus entradas, y </li></ul><ul><li>La salida será y i = 1 (se dispara) ó y i = 0 (si no se dispara) siempre y cuando la suma de las entradas ponderadas (pesos) este por arriba o por debajo de un cierto umbral  i . </li></ul>
  19. 19. <ul><li>Donde la función de activación a(f) es una función escalón unitaria: </li></ul>
  20. 20. <ul><li>Por lo anterior, el primer trabajo en tratar al cerebro como un organismo computacional fue el trabajo de McCulloch y Pitts (M-P). </li></ul><ul><li>La teoría de M-P se basa en cinco suposiciones: </li></ul><ul><ul><li>1.- La actividad de una neurona es un proceso TODO-NADA . </li></ul></ul>
  21. 21. <ul><li>Lo cual indica que las neuronas son binarias (on-off). </li></ul><ul><ul><li>2.- Es preciso que un número fijo de sinapsis (>1) sea excitado, dentro de un cierto período de adición para que se excite una neurona. </li></ul></ul><ul><ul><li>3.- El único retraso significativo dentro del sistema nervioso es el retardo sináptico. </li></ul></ul>
  22. 22. <ul><ul><li>4.- La activación de cualquier sinapsis inhibitoria impide por completo la excitación de la neurona en ese momento. </li></ul></ul><ul><ul><li>5.- La estructura de la red de interconexiones no cambia con el transcurso del tiempo. </li></ul></ul>
  23. 23. <ul><li>w ij representa la fuerza de la sinapsis ( conocida como la conexión o eslabón ) que conecta a la neurona j ( fuente ) a la neurona i ( destino ). </li></ul><ul><ul><li>Una ponderación positiva corresponde a una excitación sináptica. </li></ul></ul><ul><ul><li>Una ponderación negativa corresponde a una inhibición sináptica. </li></ul></ul><ul><li>Si w ij = 0, no hay conexión entre las dos neuronas. </li></ul>
  24. 24. ¿Como trabaja una RNA? <ul><li>Primeramente, todos los datos son procesados de acuerdo a un PESO asociado. </li></ul><ul><li>Como resultado, un valor de salida es calculado. </li></ul><ul><li>Los pesos usados son asignados en base a la importancia y a la contribución en el proceso. </li></ul>
  25. 25. <ul><li>La red neuronal es programada con niveles de umbral para cada uno de los cálculos que se realizan en la capa oculta. </li></ul><ul><li>Si el valor de salida está por arriba del umbral, entonces la salida es llevada a la próxima capa a través de una neurona. Este proceso se repite hasta que se alcanza la salida deseada. </li></ul>
  26. 26. ¿Cómo aprende la red neuronal? <ul><li>El sistema aprende al correr conjuntos de datos a través de la red. </li></ul><ul><li>Debido a que conjuntos de datos están corriendo a través del sistema, el sistema puede ajustar los pesos al comparar sus resultados parciales con el resultado final. </li></ul>
  27. 27. <ul><li>Después de que se corrieron un gran número de muestras, un peso aleatoriamente seleccionado se puede ajustar y/o sintonizar para representar el peso exacto. </li></ul><ul><li>Al aprender como se repiten patrones y secuencias, entonces la red podrá realizar predicciones exactas cuando datos con resultados desconocidos sean procesados. </li></ul>
  28. 28. Modelado de Redes Neuronales Artificiales
  29. 29. Notación y modelo de una neurona <ul><li>La representación de una neurona artificial, así como las funciones de transferencia que se visualizarán en este objetivo son tomadas del modelo de simulación de RNA presentado en el programa de MATLAB. </li></ul>
  30. 30. Neurona de una entrada y Funciones de transferencia <ul><li>Entrada neurona con umbral </li></ul><ul><ul><ul><ul><li>w n a </li></ul></ul></ul></ul><ul><li>p </li></ul><ul><li>b = 1 </li></ul>
  31. 31. Funciones de transferencia Esta función se utiliza en el Perceptron para crear neuronas las cuales toman decisiones de clasificación. Cuando este tipo de función ( hardlim ) toma en cuenta un cierto umbral su salida se incrementará de 0 a 1 cuando p exceda un valor dado por -b/w .
  32. 32. Funciones de transferencia <ul><li>Este tipo de funciones se usan como aproximadores lineales ( Neural Linear ). </li></ul>
  33. 33. Funciones de transferencia <ul><li>Comúnmente esta función se utiliza en las redes de retropropagación (backpropagation). El umbral puede ser constante o puede cambiar como en el caso de la ponderación con una regla apropiada de aprendizaje. El umbral se puede ajustar durante el entrenamiento. </li></ul>
  34. 34. Neurona de Múltiples Entradas
  35. 35. Notación usada en diagramas de múltiples entradas <ul><li>En la figura se presenta un diagrama de una neurona con R entradas </li></ul>
  36. 36. A RQUITECTURAS DE RNA <ul><li>Red neuronal con una Capa de neuronas </li></ul>Dos o más neuronas pueden ser combinadas en una capa. Una red puede contener una o más capas. A continuación se presenta una red con una capa que contiene R entradas y S neuronas:
  37. 37. <ul><li>Cada elemento del vector de entrada p esta conectado a cada neurona a través de la matriz de ponderaciones W. (R  S). </li></ul>
  38. 38. <ul><li>Los elementos del vector de entrada entran a la red a través de la matriz de ponderaciones W como se expresa a continuación: </li></ul>
  39. 39. <ul><li>p es un vector de entrada de longitud R , W es una matriz SxR y, a y b son vectores de longitud S . </li></ul>Una capa neuronal incluye la matriz de ponderaciones, las operaciones de multiplicación, el vector de umbral b, el sumador, y la función de transferencia.
  40. 40. Arquitectura De Redes Neuronales <ul><li>Los parámetros fundamentales de la red son: </li></ul><ul><ul><li>Número de capas </li></ul></ul><ul><ul><li>Número de neuronas por capa </li></ul></ul><ul><ul><li>Grado de conectividad </li></ul></ul><ul><ul><li>Tipo de conexiones entre neuronas </li></ul></ul>
  41. 41. Red neuronal de Múltiples Capas
  42. 42. Red neuronal con varias capa de neuronas (forma condensada)
  43. 43. Redes Monocapa: l 1 l n l 2 Las redes monocapa se utilizan típicamente en en tareas relacionadas en lo que se conoce como autoasociación: por ejemplo, para regenerar informaciones de entrada que se presentan a la red incompletas o distorsionadas . P/ejemplo Hopfield, BSB, Learnig Matrix
  44. 44. Redes Multicapa: Redes con conexiones hacia delante (feedforward) Este tipo de redes son especialmente útiles en aplicaciones de reconocimiento o clasificación de patrones. En este tipo de redes, todas las señales neuronales se propagan hacia adelante a través de las capas de la red. No existen conexiones hacia atrás y normal- mente tampoco autorrecurrentes, ni laterales.
  45. 45. Redes con conexiones hacia adelante y hacia atrás (feedforward / feedback): En este tipo de redes circula información tanto hacia adelante como hacia atrás durante el funcionamiento de la red. Para que esto sea posible, existen conexiones feedforward y conexiones feedback entre las neuronas. P/ ejemplo: ART, BAM, CABAM.
  46. 46. Redes Con Conexiones Hacia Adelante Y Hacia Atrás (feedforward / Feedback) También existen algunas que tienen conexiones laterales entre neuronas de la misma capa. Estas conexiones se diseñan como excitadores (con peso positivo) o inhibidoras (con peso negativo), estableciendose una competencia entre las neuronas correspondientes.
  47. 47. Red neuronal de tipo feedforward .
  48. 48. Red neuronal de tipo feedforward .
  49. 49. Conexiones con propagación hacia atrás en RNA
  50. 50. Red neuronal de tipo recurrente
  51. 51. ... <ul><li>La retroalimentación de la salida a la entrada le permite a la red recurrente exhibir un comportamiento temporal. </li></ul><ul><li>Por lo anterior, la salida de la red recurrente puede presentar un comportamiento oscilatorio o converger. </li></ul>
  52. 52. ... <ul><li>Comúnmente, la red recurrente sé alimenta con un vector de entrada inicial. Y una vez inicializada, en cada ciclo, las salidas de la red son usadas como entradas. </li></ul><ul><li>Ejemplos de este tipo de red son: las redes Elman y las redes de Hopfield. </li></ul>
  53. 53. MECANISMOS DE APRENDIZAJE (ajuste de pesos de interconexión) <ul><li>En los modelos de RNA, la creación de una nueva conexión implica que el peso de la misma pasa a tener un valor distinto de cero. </li></ul><ul><li>De la misma forma, una conexión se destruye cuando su peso pasa a ser cero. </li></ul>
  54. 54. ¿Qué son las reglas de aprendizaje en RNA? <ul><li>La regla de aprendizaje de una red son criterios que se siguen para cambiar el valor asignado a las conexiones (o sea cómo se modifican los valores de los pesos). Existen dos tipos de reglas de aprendizaje: </li></ul><ul><ul><li>1) El aprendizaje supervisado, y </li></ul></ul><ul><ul><li>2) El aprendizaje no supervisado. </li></ul></ul>
  55. 55. Clasificación de RNA según el aprendizaje que observan <ul><li>Redes neuronales que utilizan OFF LINE .- (desconexión de la red) Cuando el aprendizaje es OFF LINE se distingue entre una fase de aprendizaje y una fase de operación , existiendo un conjunto de datos de entrenamiento y un conjunto de datos de prueba que serán utilizados en la correspondiente fase. </li></ul>
  56. 56. ... <ul><ul><li>En las redes con aprendizaje OFF LINE, los PESOS de las conexiones permanecen fijos después de que termina la etapa de entrenamiento de la red. </li></ul></ul><ul><li>Debido a que las redes de tipo OFF LINE presentan un carácter estático, estos sistemas no presentan problemas de estabilidad en su funcionamiento. </li></ul>
  57. 57. ... <ul><li>Redes con aprendizaje ON LINE .- en estas redes no se distingue entre la fase de entrenamiento y de operación, de tal forma que los PESOS varían dinámicamente siempre que se presente una nueva información al sistema . </li></ul><ul><li>En las redes ON LINE debido al carácter dinámico de la misma, es importante el estudio de la estabilidad de la red. </li></ul>
  58. 58. Redes con aprendizaje supervisado <ul><li>Tipos de aprendizajes supervisados: </li></ul><ul><ul><li>Aprendizaje por corrección de error. </li></ul></ul><ul><ul><li>Aprendizaje por refuerzo. </li></ul></ul><ul><ul><li>Aprendizaje estocástico. </li></ul></ul>
  59. 59. El Aprendizaje Por Corrección De Error <ul><li>Este aprendizaje consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre los valores deseados y los obtenidos en la salida de la red. </li></ul><ul><ul><li>Ejemplos: La regla de aprendizaje del Perceptron; regla delta o regla del mínimo error cuadrado o regla de Widrow-Hoff, ADALINE y MADALINE. </li></ul></ul>
  60. 60. Aprendizaje Por Reforzamiento
  61. 61. Aprendizaje por Reforzamiento Se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida de la red se ajusta a la deseada (éxito=1, fracaso=-1) y en función de ello se ajustan los pesos basándose en un mecanismo de probabilidades.
  62. 62. Algoritmos de Aprendizaje por Refuerzo <ul><li>Algoritmo Lineal con Recompensa y penalización (Linear Reward - Penalty), Narendra /Thathacher. </li></ul><ul><li>Algoritmo Asociativo con recompensa y penalización (Barto / Anandan). </li></ul><ul><li>Adaptive Heuristic Critic (Barto, Sutton, Anderson). </li></ul>
  63. 63. El aprendizaje estocástico <ul><li>Consiste básicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de las distribuciones de probabilidad </li></ul><ul><ul><li>Ejemplo: la red Maquina de Cauchy </li></ul></ul>
  64. 64. Ejemplos de algoritmos de Aprendizaje Estocástico <ul><li>Maquina de Boltzmann (Hinton, Ackley, Sejnowky). </li></ul><ul><li>Temple Simulado (Simulated Anneling). </li></ul><ul><li>Maquina de Cauchy (Szu) </li></ul>
  65. 65. Redes con aprendizaje no supervisado <ul><li>Tipos de algoritmos de aprendizaje no supervisado: </li></ul><ul><ul><li>Aprendizaje Hebbiano. </li></ul></ul><ul><ul><li>Aprendizaje competitivo y cooperativo. </li></ul></ul>
  66. 66. El aprendizaje Hebbiano <ul><li>Se basa en el siguiente postulado: </li></ul><ul><li>&quot;Cuando un axón de una celda A está suficientemente cerca como para conseguir excitar una celda B y repetida o persistentemente toma parte en su activación, algún proceso de crecimiento o cambio metabólico tiene lugar en una o ambas celdas, de tal forma que la eficiencia de A , cuando la celda a activar es B , aumenta”. </li></ul>
  67. 67. ... <ul><li>Ejemplos: </li></ul><ul><li>Red de Hopfield; </li></ul><ul><li>Red Additive Grossberg; </li></ul><ul><li>Red Shunting Grossberg; </li></ul><ul><li>Red feedforward/feedback de 2 capas = Bidirectional Associative memory, BAM </li></ul>
  68. 68. Aprendizaje competitivo y cooperativo <ul><li>En este aprendizaje las neuronas compiten ( y cooperan ) unas con otras con el fin de llevar a cabo una tarea dada. </li></ul><ul><li>El objetivo de este aprendizaje es categorizar (agrupar) los datos que se introducen en la red. </li></ul>
  69. 69. ... <ul><li>Ejemplo: </li></ul><ul><li>Cuantización del Vector de Aprendizaje o LVQ, </li></ul><ul><li>Aplicado a redes feedforward de dos capas. </li></ul>
  70. 70. ... <ul><li>Dentro del aprendizaje competitivo existe la teoría de la resonancia adaptativa, utilizada en la red feedforward/feedback de dos capas conocida como ART (1 trabaja con información binaria y 2 trabaja con información analógica). </li></ul>
  71. 71. Ejemplos De Redes Con Aprendizaje Competitivo Y Cooperativo . <ul><li>LVQ (Learning vector quantization) Kohonen. </li></ul><ul><li>Cognitron y Neocognitron (Fukushima). </li></ul><ul><li>SOM (Kohonen). </li></ul><ul><li>ART (Carpenter y Grossberg). </li></ul>
  72. 72. Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo LVQ ART
  73. 73. <ul><li>La salida de la red se calcula mediante: </li></ul>Modelo y Arquitectura de un Perceptron
  74. 74. <ul><li>Red Perceptron </li></ul>
  75. 75. La matriz de pesos de la red es:
  76. 76. <ul><li>Se definirá un vector compuesto de los elementos de la i th fila de W : </li></ul>
  77. 77. <ul><li>Ahora se puede particionar la matriz de pesos: </li></ul>
  78. 78. <ul><li>Esto permitirá escribir el i th elemento del vector de salida de la red como: </li></ul>
  79. 79. Recordando que la función de transferencia hardlim se define como: a n=Wp+b n
  80. 80. Unificación de la regla de aprendizaje
  81. 81. El umbral es un peso con una entrada de 1.
  82. 82. Perceptron de Múltiples-Neuronas Para actualizar la ith fila de la matriz de pesos: En forma de Matriz:
  83. 83. Capacidad de la regla de aprendizaje del Perceptron La regla del Perceptron siempre convergirá a los pesos que cumplan con la clasificación deseada, asumiendo que tales pesos existan. NOTA: Recordar que la longitud del vector de pesos no es importante, lo único importante es su dirección.
  84. 84. Limitaciones del Perceptron Frontera de decisión lineal Problemas linealmente No separables
  85. 85. UNIDAD VI Redes de propagación hacia delante y aprendizaje supervisado RED ADALINE Adaline simple. Algoritmo LMS .
  86. 86. Introducción <ul><li>A finales de los 50’s bernard widrow empezaba a trabajar en redes neuronales, en el tiempo en el que frank rosenblatt desarrollo la regla de aprendizaje del perceptron. </li></ul>
  87. 87. <ul><li>En 1960 Widrow y su asesorado Marcian Hoff, presentaron la red ADALINE (adaptive linear neuron), y una regla de aprendizaje la cual denominaron algoritmo LMS (least mean square). </li></ul>Introducción
  88. 88. <ul><li>La red ADALINE es muy similar al perceptron, excepto que su función de transferencia es linear, en vez de escalón. </li></ul><ul><li>Tanto el ADALINE como el Perceptrón sufren de la misma limitación: solo pueden resolver problemas linealmente separables. </li></ul>Introducción
  89. 89. <ul><li>El algoritmo LMS es más poderoso que la regla de aprendizaje del Perceptrón. </li></ul><ul><li>La regla del Perceptrón garantiza la convergencia a una solución que categoriza correctamente el patrón de entrenamiento, pero la red resultante puede ser sensible al ruido ya que frecuentemente el modelo cae cerca de la frontera de decisión. </li></ul>Diferencias Entre La Regla Del Perceptron Y El Algoritmo LMS
  90. 90. Diferencias entre . . . <ul><li>El algoritmo LMS minimiza el error medio cuadrático, y por consiguiente trata de mover la frontera de decisión tan lejos como sea posible del modelo de entrenamiento. </li></ul><ul><li>El algoritmo LMS ha encontrado muchos más usos que la regla de aprendizaje del Perceptrón. En esencia en el área del procesamiento digital de señales. </li></ul>
  91. 91. Diferencias entre . . . PERCEPTRON ADALINE Función de Transferencia ESCALON LINEAL Resolución de problemas Linealmente Separables Linealmente Separables Comportamiento con respecto al RUIDO Sensible al Ruido Minimiza el Ruido Algoritmo de aprendizaje Regla de aprendizaje Del Perceptron LMS
  92. 92. Red ADALINE a p u r e l i n W p b +   W p b + = = a i p u r e l i n n i   p u r e l i n w T i p b i +   w T i p b i + = = =  w i w i 1  w i 2  w i R  =
  93. 93. ADALINE de dos entradas a p u r e l i n n   p u r e l i n w T 1 p b +   w T 1 p b + = = = a w T 1 p b + w 1 1  p 1 w 1 2  p 2 b + + = =
  94. 94. Mínimo Error Cuadrático p 1 t 1 { , } p 2 t 2 { , }  p Q t Q { , }    Conjunto Entrenamiento: p q t q Entrada: Objetivo: x w 1 b = z p 1 = a w T 1 p b + = a x T z = F x   E e 2   = E t a –   2   E t x T z –   2   = = Notación: Mean Square Error: Donde: E es un valor esperado
  95. 95. Ecuaciones Importantes en el Algoritmo LMS W k 1 +   W k   2  e k   p T k   + = b k 1 +   b k   2  e k   + = En forma de Matriz: Donde:  es el parámetro de aprendizaje máximo w i k 1 +   w i k   2  e i k   p k   + = b i k 1 +   b i k   2  e i k   + =
  96. 96. Condiciones para la Estabilidad e i g I 2  R –     1 2   i – 1  = Resumiendo, las condiciones de estabilidad son:  i 0  Ya que , 1 2   i – 1  .  1   i para toda i  0  1  m a x    (donde  i es un eigenvalor de R ) 1 2   i – 1 – 
  97. 97. Modelo de una neurona lineal en MATLAB p(1) p(2) p(3) p(R) W(1,1) W(1,R) 1 b n a  a = purelin(w*p+b) a = w*p+b 0 0 1 -1 a a b/w b/w p n a = purelin(n)
  98. 98. Regla de Aprendizaje en ADALINE · ADALINE utiliza un aprendizaje OFF LINE con supervisión. · Este aprendizaje es la llamada Regla de Widrow-Hoff ( Regla Delta o Regla del Mínimo Error Cuadrático Medio LMS Least Mean Square)
  99. 99. Regla de Widrow-Hoff Consiste en hallar el vector de pesos W deseado, único, que deberá asociar cada vector de entrada con su correspondiente valor de salida correcto o deseado. La regla minimiza el error cuadrático medio definido como: donde: es la función de error R R R a t       p R R R p 1 2 2 1  
  100. 100. Esta función de error está definida en el espacio de pesos multidimensional para un conjunto de entradas, y la regla de Widrow-Hoff busca el punto de este espacio donde se encuentra el mínimo global. Con función de activación lineal Con función de activación sigmoidal
  101. 101. Se utiliza el método de gradiente decreciente para saber en qué dirección se encuentra el mínimo global de dicha superficie. Las modificaciones que se realizan a los pesos son proporcionales al gradiente decreciente de la función de error, por lo que cada nuevo punto calculado está más próximo al punto mínimo.             j R j w lr w 2 
  102. 102. a) ADALINE b) PERCEPTRÓN
  103. 103. La regla de Widrow-Hoff es implementada realizando cambios a los pesos en la dirección opuesta en la que el error está incrementando y absorbiendo la constante -2 en lr . En forma de matriz: Transformando a la expresión del bias (considerando que el bias son pesos con entradas de 1): ) ( ) ( ) , ( j p j e lr j i W     T Ep lr W    E lr b   
  104. 104. Algoritmo de aprendizaje en ADALINE 1. Se aplica un vector o patrón de entrada P R en las entradas del ADALINE. 2. Se obtiene la salida lineal a R = WP R y se calcula la diferencia con respecto a la salida deseada: E R =T R -a R 3. Se actualizan los pesos: W( t+1 ) = W(t) + lrE R P R 4. Se repiten los pasos 1 al 3 con todos los vectores de entrada. 5. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso de aprendizaje, sino, se repite otra vez desde el paso 1 con todos los patrones.
  105. 105. ENTRENAMIENTO ADALINE <ul><li>Ya se explicó la regla de aprendizaje usada para las redes neuronales Adaline, conocida como de Widrow-Hoff, que se aplica sobre un patrón de entrada determinado </li></ul><ul><li>El entrenamiento de la red consiste en la aplicación consecutiva de la regla de aprendizaje para un patrón completo de entrenamiento </li></ul>
  106. 106. ENTRENAMIENTO ADALINE <ul><li>El entrenamiento comprende la aplicación de la regla de Widrow-Hoff (determinación de las diferencias en los pesos), actualización de los pesos y determinación del error. </li></ul><ul><li>Este proceso se realiza por medio de la aplicación de la entrada a la red, para un patrón completo de entrenamiento, o un vector de entrada </li></ul>
  107. 107. ENTRENAMIENTO ADALINE <ul><li>Sin embargo, si se procede por medio de las funciones anteriores, es necesario realizar un número de repeticiones suficiente para hacer que el error calculado sea igual a cero a través de la aplicación de la regla W-H para un patrón completo de entrenamiento </li></ul>
  108. 108. Ejercicio:  1 1.0  2 0.0  3 2.0 =  =  = R E p p T   1 2 - - - p 1 p 1 T 1 2 - - - p 2 p 2 T + = = R 1 2 - - - 1 – 1 1 – 1 – 1 1 – 1 2 - - - 1 1 1 – 1 1 1 – + 1 0 0 0 1 1 – 0 1 – 1 = =  1  m a x - - - - - - - - - - - -  1 2.0 - - - - - - - 0.5 = = p 1 1 – 1 1 – t 1  1 – = =           p 2 1 1 1 – t 2  1 = =           Plátano Manzana
  109. 109. Iteración: 1 e 0   t 0   a 0   t 1 a 0   1 – 0 1 – = – = – = – = W 1   W 0   2  e 0   p T 0   + = W 1   0 0 0 2 0.2   1 –   1 – 1 1 – T 0.4 0.4 – 0.4 = + = a 0   W 0   p 0   W 0   p 1 0 0 0 1 – 1 1 – 0 = = = = Plátano
  110. 110. Iteración: 2 Manzana a 1   W 1   p 1   W 1   p 2 0.4 0.4 – 0.4 1 1 1 – 0.4 – = = = = e 1   t 1   a 1   t 2 a 1   1 0.4 –   1.4 = – = – = – = W 2   0.4 0.4 – 0.4 2 0.2   1.4   1 1 1 – T 0.96 0.16 0.16 – = + =
  111. 111. Iteración: 3 e 2   t 2   a 2   t 1 a 2   1 – 0.64 –   0.36 – = – = – = – = W 3   W 2   2  e 2   p T 2   + 1.1040 0.0160 0.0160 – = = W    1 0 0 = a 2   W 2   p 2   W 2   p 1 0.96 0.16 0.16 – 1 – 1 1 – 0.64 – = = = =
  1. ¿Le ha llamado la atención una diapositiva en particular?

    Recortar diapositivas es una manera útil de recopilar información importante para consultarla más tarde.

×