Este documento describe la ecuación de activación estocástica y las redes neuronales auto-organizadas de Kohonen. La ecuación de activación estocástica realiza cambios aleatorios en los pesos de una red neuronal y acepta los cambios que mejoran el comportamiento de la red o los acepta con una probabilidad determinada si no mejoran el comportamiento. Las redes de Kohonen aprenden de forma no supervisada mediante la actualización de los pesos de la neurona ganadora y sus vecinas para formar un mapa topológico de las caracterí
1. Universidad Fermín Toro
Universidad Fermín Toro
Facultad de Ingeniería
Facultad de Ingeniería
Escuela de Computación.
Escuela de Computación.
2.
3.
4. Ecuación de activación estocástica
Cambios aleatorios en
los valores de los pesos
1.Evaluar su efecto
2.Si la red se comporta
mejor, se acepta
3.Sino, se acepta con
una
determinada función de
probabilidad
5. Proceso
Se realiza un cambio aleatorio en los pesos.
Se determina la nueva energía de la red.
Si la energía decrece; se acepta el cambio. Si la
energía no decrece: se aceptaría el cambio en
función de una determinada y preestablecida
distribución de probabilidades.
6. Las arquitecturas usadas en este tipo de red
puede ser:
Boltzman completion network Boltzman input - output network
7. La máquina de cauchy es una versión
mejorada de la máquina de boltzmann,
8. Reconocimiento de textos manuscritos.
Reconocimiento del habla.
Simulación de centrales de producción de energía.
Detección de explosivos.
Identificación de blancos de radares.
Sistemas de control de reactores, procesos químicos, físicos entre
otros.
9. T. Kohonen
presentó en 1982 un
modelo de red
neuronal con
capacidad para
formar mapas de
características de
manera similar a
como ocurre en el
cerebro.
10. Red NO supervisada
Las entradas se conectan a una única capa de neuronas
La conexión puede ser lineal, cuadrada, hexagonal,
irregular, etc.
La red detecta grupos similares o clusters en los datos de
entrada
11. 2 Capas de Neuronas:
Capa de entrada: recibe y
Transmite a la capa de salida.
Capa de salida: Procesa la información
Y forma el mapa de rasgos.
12. Inicialización de los pesos wijk.
Elección de un patrón de entre el conjunto de patrones
de entrenamiento.
Para cada neurona del mapa, calcular la distancia
euclídea entre el patrón de entrada x y el vector de
pesos sinápticos.
Distancia Euclídea entre el vector sináptico y la entrada.
13. Evaluar la neurona ganadora, es decir aquella cuya distancia es la
menor de todas.
Actualizar los pesos sinápticos de la neurona ganadora y de sus vecinas
según la regla:
Actualización de los pesos en una red SOM
Lo usual es fijar un numero de iteraciones antes de comenzar el
aprendizaje.
14. El aprendizaje es de tipo OFF-LINE
Aprendizaje no supervisado de tipo competitivo.
El aprendizaje no concluye después de presentarle una vez
todos los patrones de entrada, sino que habrá que repetir el
proceso varias veces para refinar el mapa topológico de
salida.
16. Reconocimiento de patrones: voz, texto, imágenes,
señales entre otros.
Codificación de datos.
Comprensión de imágenes.
Resolución de problemas de optimización.