1) La regla de Hebb incrementa el peso entre la entrada y salida de una neurona en proporción a su producto, permitiendo el aprendizaje asociativo no supervisado.
2) La regla de Hebb con degradación mejora a la anterior al degradar los pesos para evitar que crezcan sin límite.
3) La regla INSTAR considera la razón de aprendizaje igual a la de degradación, minimizando el olvido y proporcionando vectores de pesos normalizados.
5. 1.1.1 Regla de Hebb No Supervisada En forma de Vector: Secuencia de Entrenamiento:
6. Ejemplo: Identificador Pesos Iniciales: Secuencia de Entrenamiento: Primera Iteración (Vista No presente): = 1 a 1 h a r d l i m w 0 p 0 1 w 0 p 1 0.5 – + h a r d l i m 1 0 0 1 0.5 – + 0 (no response) = = =
7. Ejemplo (nnd13uh) Segunda Iteración (Aspecto presente): Tercera Iteración (Vista No presente): A partir de este momento, la Fruta será detectada si cualquiera de los sensores está presente. a 2 h a r d l i m w 0 p 0 2 w 1 p 2 0.5 – + h a r d l i m 1 1 0 1 0.5 – + 1 (banana) = = =
8.
9. Regla de Hebb con Degradación Ésta Regla impide que la matriz de pesos crezca sin medida, lo cual se demuestra al igualar a i y p j a 1:
10. Ejemplo: Asociador de Fruta Primera Iteración (No vista): Segunda Iteración (vista presente): = 0.1 = 1 a 1 h a r d l i m w 0 p 0 1 w 0 p 1 0.5 – + h a r d l i m 1 0 0 1 0.5 – + 0 (no response) = = = a 2 h a r d l i m w 0 p 0 2 w 1 p 2 0.5 – + h a r d l i m 1 1 0 1 0.5 – + 1 (banana) = = =
11. Ejemplo (nnd13hd) (nnd13edr) Tercera Iteración (No vista): Regla de Hebb Hebb Con Degradación
15. Instar (Operación) La instar estará activa cuando Para vectores normalizados, el producto punto mayor ocurre cuando el ángulo entre el vector de pesos y el vector de entradas es cero -- El vector de entrada es igual al vector de pesos. Las filas de una matriz de pesos representa los patrones a ser reconocidos.
16. Reconociendo un Vector Si el umbral es El instar solo será activado cuando = 0. Si el umbral es el instar estará activo para un determinado rango de ángulos. Si b se incrementa, habrá más patrones (sobre un amplio rango de ) los cuales activarán el instar. b w 1 p – = b w 1 p – > w 1
17.
18.
19. Regla Instar (nnd13is, nnd13gis) Hebb con Decay Solo ocurrirán modificaciones al aprendizaje y al olvido cuando la neurona este activa - Regla Instar: o si es igual a En forma de Vector: w i j q w i j q 1 – a i q p j q a i q w q 1 – – + = i j
20. Representación Gráfica Para el caso donde el instar está activo ( a i = 1): or Para el caso donde el instar está inactivo ( a i = 0):
32. Entrenamiento Ahora la naranja será detectada con cualquier sensores activo. (orange) h a 2 h a r d l i m w 0 p 0 2 W p 2 2 – + = a r d l i m 3 1 0 0 0 1 1 – 1 – 2 – + 1 = = a 3 h a r d l i m w 0 p 0 3 W p 3 2 – + = (orange) h a r d l i m 3 0 1 1 – 1 – 1 1 – 1 – 2 – + 1 = =
33. REGLA DE KOHONEN Regla de aprendizaje Asociativo
34.
35. Regla de Kohonen En la regla de Kohonen el aprendizaje no es proporcional a la salida de la neurona, a i (q) . El aprendizaje ocurre cuando el índice i de la neurona es un elemento del conjunto X ( q ). Esta regla es útil para el entrenamiento de redes como los mapas de características auto-organizativas .
36. 1.1.3 REGLA OUTSTAR Redes que recuerdan patrones Asocia estímulos a vectores de salida
37. Redes que Recuerdan La red outstar posee una entrada escalar y un vector de salida.
38. Operación de la Outstar Supongase que se quiere que la outstar recuerde el patrón a * siempre y cuando la entrada p = 1 se presente en la Red. Si Entonces, cuando p = 1 y el patrón será recordado correctamente. Las columnas de una matriz de pesos representan los patrones a recordar.
39. Regla Outstar En la regla instar el termino de degradación de los pesos de la regla Hebb es proporcional a la salida de la red. Mientras que en la regla Outstar el termino de degradación de pesos es proporcional a la entrada de la red. Sí la razón de degradación es igual a la razón de aprendizaje , En forma de Vector:
43. Convergencia a 2 s a t l i n s 1 – 1 – 1 0 0 0 1 + 1 – 1 – 1 (se dan los datos) = = a 3 s a t l i n s 0 0 0 1 – 1 – 1 1 + 1 – 1 – 1 (los datos son recordados) = =