Your SlideShare is downloading. ×
  • Like

Loading…

Flash Player 9 (or above) is needed to view presentations.
We have detected that you do not have it on your computer. To install it, go here.

×

Now you can save presentations on your phone or tablet

Available for both IPhone and Android

Text the download link to your phone

Standard text messaging rates apply

redes neuronales tipo Art3

  • 570 views
Published

 

Published in Education , Technology
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
570
On SlideShare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
11
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. MODELO DE RESONANCIA ADAPTATIVA (ART) DILEMAS DE S. GROSSBERG Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones. Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos. Esta teoría se aplica a sistemas competitivos La teoría de la resonancia adaptativa se basa en la idea de hacer resonar la información de entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en resonancia con algunos, y es suficientemente similar, la red considera que pertenece a dicha categoría y únicamente realiza una pequeña adaptación del prototipo almacenado incorporándole algunas características del dato presentado en la entrada. Cuando no resuena con ninguno, esto es, cuando no se parece a ningún representante de alguna categoría (recordados por la red hasta ese momento), la red se encarga de crear una nueva categoría con el dato de entrada como prototipo. ARQUITECTURA DE LA RED ART FUNCIONAMIENTO 1) Se presenta un vector de entrada. 2) Cada neurona de la capa de entrada recibe el valor del componente del vector de entrada y lo envía a todas las neuronas de la capa de salida. 3) Cada neurona de la capa de salida compite con las demás de esta capa hasta que sólo una permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y tienen un peso con un valor fijo - ε que debe ser menor que 1/M, donde M es el número de neuronas de la capa de salida, para que la competición funcione correctamente:
  • 2. Siendo f la función de transferencia de tipo escalón de las neuronas de salida. Después de cierto número de iteraciones, se llega a un punto de estabilidad en la que una neurona resulta vencedora, generando una salida de valor 1, mientras que en las demás neuronas la salida es 0. El valor de salida al final de la competición se pueden obtener más fácilmente mediante la siguiente expresión: 4) La neurona vencedora envía su salida a través de las conexiones hacia atrás. Cada neurona i-ésima de la capa de entrada recibe el valor: Por tanto, al no influir el resto de las neuronas de salida por estar inactivas(0), en la capa de entrada se reciben los valores de los pesos de las conexiones correspondientes. 5) Se compara la información de entrada con la categoría. Si la neurona de salida se ha activado. Esta comparación se hace valorando la siguiente relación de semejanza: Al trabajar con valores binarios, el producto aritmético equivale a la operación AND, 6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de vigilancia (ρ), el cual influirá en el número de clases que establecerá la red. Si no se cumple dicho parámetro entonces la neurona vencedora se resetea, y se repite desde el paso número 2. 7) Si la semejanza es igual o mayor que el parámetro de vigilancia, entonces se asume que la neurona que se ha activado a la salida es la que representa al vector de entrada, para después proceder a ajustar los pesos de la red APRENDIZAJE El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de entrenamiento y de funcionamiento. La red ART utiliza un aprendizaje no supervisado de tipo competitivo. En este tipo de redes se pueden dar dos tipos de aprendizaje: * Aprendizaje lento: ocurre cuando una información de entrada es asociada a una de las categorías existentes. * Aprendizaje rápido: se da cuando se establece una nueva categoría. Inicialmente, cuando la red no ha aprendido nada se le asignan los siguientes pesos: Después, cada vez que se presente un vector de entrada, se realiza el ajuste de los pesos de las conexiones V de la neurona vencedora con cada una de las neuronas de entrada,en función de la diferencia entre este vector y del representante, la variación de los pesos V se realiza según la siguiente ecuación diferencial:
  • 3. Si la neurona de salida no es la vencedora, el valor de su salida es cero, con lo que no debe producir variación en el peso correspondiente. En caso contrario, si la neurona es la vencedora, su salida es 1, con lo que la variación del peso de V sería de : Los pesos de Wji se obtienen normalizando los anteriores. Donde: γ suele tener el valor de 0.5