SlideShare a Scribd company logo
Redes de Neuronas
Recurrentes
Computación con Inspiración Biológica
Grupo de Computación Evolutiva y Redes Neuronales
Departamento de Informática
Universidad Carlos III de Madrid
Redes Recurrentes
‰ Introducción
‰ Red de Hopfield
‰ Redes parcialmente recurrentes
„ Red de Jordan
„ Red de Elman
‰ Redes totalmente recurrentes
Introducción
„ Características principales
‰ Pueden tener ciclos o bucles en las conexiones
(conexiones recurrentes)
‰ Conexiones recurrentes:
„ de una neurona con ella misma
„ entre neuronas de una misma capa
„ entre neuronas de una capa a una capa anterior
Introducción
„ Características principales (II)
‰ Al permitir conexiones recurrentes aumenta el número de
pesos o de parámetros ajustables de la red
„ Aumenta la capacidad de representación
„ Se complica el aprendizaje
‰ Las activaciones no dependen sólo de las activ. de la capa
anterior sino también de la activación de cualquier otra
neurona conectada a ella e incluso de su propia activación
Introducción
‰ Es necesario incluir la variable tiempo
‰ La variable tiempo hace que las redes tengan un
comportamiento dinámico o temporal
‰ Dos formas de entender el modo de actuación y
aprendizaje
„ Evolución de las activaciones de la red hasta alcanzar un
punto estable
„ Evolución de las activaciones de la red en modo continuo
Introducción
1. Evolución hasta alcanzar un punto estable
„ Evolucionar la red (activaciones de sus neuronas),
desde un estado inicial hasta conseguir que las
activaciones de todas las neuronas de la red no se
modifiquen : punto estable
‰ Estado inicial: viene dado por el patrón de entrada
‰ Estado estable: representa al patrón de salida de la red
‰ Destaca la Red de Hopfield
Introducción
2. Evolución de las activaciones en modo
continuo
„ En cada instante disponemos de la salida de la red
„ La salida depende en cada instante t de las entradas en el
instante anterior t-1
‰ Aprendizaje por épocas
‰ Aprendizaje en tiempo real o continuo: se aplica la ley de
aprendizaje en cada instante (para cada patrón)
„ Redes parcialmente recurrentes: sólo tienen ciertas
conexiones recurrentes
„ Redes totalmente recurrentes: no tienen restricciones
„ Todas usan algoritmos supervisados para el ajuste de
parámetros
Introducción
‰ Su comportamiento dinámico facilita el tratamiento de
información temporal o patrones dinámicos:
„ patrones que dependen del tiempo
„ el valor del patrón en un determinado instante depende de sus
valores en instantes anteriores de tiempo
‰ Las redes recurrentes son apropiadas para tratar
información temporal
‰ También pueden emplearse redes estáticas como MLP o
RNBR
„ entrada de la red: secuencia temporal de valores en el pasado
Introducción
Aplicaciones
‰ problemas modelización neurobiólogica
‰ tareas linguísticas
‰ reconocimiento del palabras y fonemas
‰ control de procesos dinámicos
‰ …
Red de Hopfield
„ John Hopfield la propone en 1982
[Hopfield, 1982]
„ Modelo de memoria asociativa
‰ Es capaz de recuperar patrones almacenados a partir de
información incompleta e incluso a partir de patrones con ruido
‰ Actúa como memoria asociativa procesando patrones estáticos
(sin variable tiempo)
‰ Todas las neuronas están conectadas con todas las demás
John Hopfield, 1933-
Red de Hopfield
„ Cada neurona se conecta con todas las demás
Dos formas diferentes de ver una red de Hopfield con 4
neuronas:
„ Matriz de pesos W=(wij), orden n x n.
: peso de la conexión de neurona i a neur j
‰ Matriz simétrica
‰ Los elementos de la diagonal son nulos (no existen
conexiones reflexivas)
„ Las neuronas poseen dos estados -1 y 1
„ Estado de la neurona i en t+1:
Red de Hopfield
ij
w
ji
ij w
w =
Red de Hopfield
„ Donde vi(t+1) es el estado de activación de la neurona i
calculado así:
„ Si el nivel vi(t+1) =0, se considera que el estado de i no
cambia
„ No tiene sentido hablar de entradas o salidas sino del
estado de la red en un intante t
Red de Hopfield
„ Para una red con n neuronas, el estado en (t+1):
„ El estado s representa una palabra binaria con n bits de
información
Aprendizaje y actuación de una red de
Hopfield
„ Dos fases de operación
‰ Fase de almacenamiento
Se determinan los valores que tendrán los pesos para almacenar
un conjunto de patrones
‰ Fase de recuperación
mecanismo para recuperar la información almacenada a partir de
información incompleta
Red de Hopfield
Fase de almacenamiento
„ Conjunto de patrones que se desea almacenar
donde cada patrón x(k) es un vector n-dimensional de componentes
binarias (-1,1)
„ Aplicando la regla de Hebb para almacenar patrones, el
peso wij será:
‰ si las componentes xj(k), xi(k) son iguales, wij se incrementa en
1, si son distintos, se decrementa en 1
„ Ejemplo: en la red de 4 neuronas almacenar
x(1)=[1, 1, -1, -1] y x2=[-1, 1, 1,-1]
Inicialmente los pesos son nulos. Al presentar el patrón x1 la matriz de
pesos será:
Equivale a la operación matricial x1
t
* x1 - I
Al presentar el patrón x(2) se obtendría una matriz de modificación de
los pesos anteriores














−
−
−
−
−
−
−
−
=
0
1
1
1
1
0
1
1
1
1
0
1
1
1
1
0
)
1
(
W














−
−
−
−
=














−
−
−
−
−
−
−
−
+
=
0
0
2
0
0
0
0
2
2
0
0
0
0
2
0
0
0
1
1
1
1
0
1
1
1
1
0
1
1
1
1
0
)
1
(
)
2
( W
W
Red de Hopfield
Fase de almacenamiento
„ Patrón de prueba diferente de los
patrones almacenados (versión incompleta o con ruido de algún
patrón almacenado)
„ La RH va a recuperar el patrón almacenado más parecido al patrón
de prueba x
„ Procedimiento:
‰ Se inicializan los estados de las n neuronas de la red utilizando
dicho patrón x:
‰ Se calculan los estados de la red en los siguiente instantes de
tiempo utilizando las ecuaciones, hasta conseguir un punto
estable
(punto en el que los estados de las neuronas permanecen
invariantes en el tiempo)
‰ El estado estable de la red representa el patrón recuperado
Red de Hopfield
Fase de recuperación
„ Puede ocurrir que en la fase de recuperación la RH
converja a estados estables que no correspondan con
los patrones almacenados
„ Normalmente ésto ocurre por almacenar un excesivo
número de patrones
Red de Hopfield
Fase de recuperación
Red de Hopfield. Función de energía
„ En MLP, RNBR, SOM, etc.. existe una función de error
o energía que describe el funcionamiento de dichas
redes
„ En RH con n neuronas existe una función
de energía:
„ Los puntos estables de RH se corresponden con
mínimos de la función de energía
Red de Hopfield. Función de energía
„ Cuando los estados de la red cambian siguiendo las
ecuaciones, es siempre negativo
„ En la fase de recuperación, cuando se modifican los
estados de la red, se está aplicando el descenso del
gradiente para encontrar un mínimo local de la función
de energía
Capacidad de una red de Hopfield
„ Máximo número de patrones que se pueden almacenar con seguridad
en una red de dimensión determinada.
„ Problema complicado y aún no resuelto de forma satisfactoria.
„ La mayor parte de los estudios realizados ofrecen estimaciones
asintóticas del máximo valor tolerable de patrones cuando la dimensión
de la red es muy grande.
„ Si se desea que todos los prototipos sean recuperados con una
probabilidad próxima a 1, se ha estimado la relación:
donde n es el número de neuronas y p el número de patrones que se
desean recuperar.
„ Si se tolera un cierto margen de error en la recuperación de prototipos,
puede admitirse un número de estos proporcional a la dimensión de la
red, pudiendo llegar a ser del orden de 0.138 n.
Applets de RH
„ http://www.cbu.edu/~pong/ai/hopfield/hopfieldapplet.html
„ http://www.eee.metu.edu.tr/~alatan/Courses/Demo/Hopfield.htm
Redes parcialmente recurrentes
„ Son redes multicapa con algunas conexiones
recurrentes
‰ Estas conexiones permiten recordar el estado anterior de
ciertas neuronas de la red
„ Generalmente existen ciertas neuronas especiales en la capa de
entrada: neuronas de contexto, receptoras de las conexiones
recurrentes
‰ Funcionan como una memoria de la red, almacenando el estado de
las neuronas de una cierta capa en el instante anterior
„ El resto de las neuronas de entrada actúan como receptores de los
datos de entrada
Redes parcialmente recurrentes
„ Concatenando las activaciones de las neuronas de
entrada y de contexto, puede verse como una red
multicapa
„ El cálculo de las activaciones se realiza como en una red
multicapa sin recurrencias
Redes parcialmente recurrentes
„ Los pesos asociados a las conex. recurrentes suelen ser
constantes (no aprendizaje)
„ Por tanto, se puede usar el algoritmo de
retropropagación, ya que los únicos pesos ajustables
son no recurrentes
„ Las más conocidas
‰ Red de Jordan
‰ Red de Elman
Red de Jordan
„ Propuesto por Jordan en 1986 [Jordan, 1986a][Jordan, 1986b]
„ Las neuronas de contexto reciben una copia de las
neuronas de salida y de ellas mismas
„ Las conexiones recurrentes tienen un parámetro
asociado µ (generalmente positivo y menor que 1)
Red de Jordan
„ Cada neurona de contexto recibe una conexión de una neurona
de salida y de ella misma
„ La activación de las neuronas de contexto en t:
„ La entrada total de la red es una concatenación
de las activaciones de las neuronas de
entrada y de las neuronas de contexto
Red de Jordan
„ Neuronas ocultas y de salida: activación sigmoidal
„ Neuronas de contexto: activación lineal
„ Activación de las neuronas de contexto desarrollada en t:
2
( −
t
ci
)
2
(
)
2
(
)
1
( −
+
−
=
− t
y
t
c
t
c i
i
i µ
Red de Jordan
„ Las neuronas de contexto acumulan las salidas de la red
para todos los instantes anteriores
„ El valor de µ determina la sensibilidad de estas
neuronas para retener dicha información
„ µ próximo a 0 estados alejados en el tiempo
se olvidan con facilidad
„ µ próximo a 1 estados alejados en el tiempo
se memorizan con facilidad
Red de Elman
„ Propuesta por Elman en 1990 [Elman, 1990]
„ Las neuronas de contexto reciben una copia de las neuronas
ocultas de la red
Red de Elman
„ Tantas neuronas de contexto como ocultas
„ No existe un parámetro asociado a la conexión recurrente
„ La activación de las neuronas de contexto:
„ El resto de las activaciones se calculan
como en una red feedforward considerando
como entrada el vector total:
Red de Elman y de Jordan. Aprendizaje
1. Se inicializan las neuronas de contexto en t=0
2. En el instante t, se presenta el patrón
que junto a las activaciones de las neuronas de contexto
ci(t) forman el vector de entrada total de la red
3. Se propaga el vector u(t) hacia la salida de la red,
obteniéndose la salida y(t)
4. Se aplica la regla delta generalizada para modificar los
pesos de la red
5. Se incrementa la variable t en una unidad (t+1) y se
vuelve al paso 2
Redes totalmente recurrentes
„ No existe restricción de conectividad
„ Sus neuronas reciben como entrada la activación del resto de
neuronas y su propia activación
„ Los pesos de las conexiones recurrentes se adaptan con
aprendizaje
‰ Aumenta el poder de representación
‰ Se complica el aprendizaje
A: neuronas de entrada
B: resto de neuronas
wji: peso de j a i
Redes totalmente recurrentes
„ El algoritmo de retropropagación estándar no puede
aplicarse a estas redes
„ Existen dos algoritmos basados en retropropagación,
adaptados para redes recurrentes:
‰ Algoritmo de retropropagación a través del tiempo
(Backpropagation through time)
‰ Algoritmo de aprendizaje recurrente en tiempo real
(Real time recurrent learning)
Bibliografía
„ [Jordan, 1986a] Jordan, M. (1986). Attractor dynamics and parallelism
in a connectionist sequential machine. In Proc. of the Eighth Annual
Conference of the Cognitive Science Society, 531--546
„ [Jordan, 1986b] Jordan, M. (1986). Serial Order: a parallel distributed
processing approach. Technical Report, Institute for Cognitive Science.
University of California
„ [Elman, 1990] Elman J. (1990). Finding structure in time. Cognitive
Science, 14: 179--211
„ [Hopfield, 1982] Hopfield, J. (1982). Neural Networks and physical
systems with emergent collective computational abilities. In
Proceedings of the National Academy of Science, vol 81, p 3088—
3092. National Academy of Sciences

More Related Content

Similar to Redes de neuronas recurrentes

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
eyyc
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Sallycastroro
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Lucerow Cruzado Gonzalez
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
marrerosdelacruz
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
Spacetoshare
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
ESCOM
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
Levy GT
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
anaisplani
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
jcbenitezp
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
Jorge Miguel Lazaro Suarez
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
ESCOM
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
Luis Álamo
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
ESCOM
 
presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturas
Jhonatan Navarro
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
ESCOM
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
UNEFA
 

Similar to Redes de neuronas recurrentes (20)

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Redes neurartif
Redes neurartifRedes neurartif
Redes neurartif
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturas
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
 

More from Spacetoshare

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
Spacetoshare
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
Spacetoshare
 
Sums ADA
Sums ADASums ADA
Sums ADA
Spacetoshare
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
Spacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
Spacetoshare
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
Spacetoshare
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
Spacetoshare
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
Spacetoshare
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
Spacetoshare
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
Spacetoshare
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
Spacetoshare
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
Spacetoshare
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
Spacetoshare
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
Spacetoshare
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
Spacetoshare
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
Spacetoshare
 
Determinantes
DeterminantesDeterminantes
Determinantes
Spacetoshare
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
Spacetoshare
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
Spacetoshare
 
Ejer
EjerEjer

More from Spacetoshare (20)

EL HUECO.pdf
EL HUECO.pdfEL HUECO.pdf
EL HUECO.pdf
 
Probles on Algorithms
Probles on AlgorithmsProbles on Algorithms
Probles on Algorithms
 
Sums ADA
Sums ADASums ADA
Sums ADA
 
Manual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmosManual de análisis y diseño de algoritmos
Manual de análisis y diseño de algoritmos
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Fórmulas ADA
Fórmulas ADAFórmulas ADA
Fórmulas ADA
 
Ejercicios Investigación de operaciones
Ejercicios Investigación de operacionesEjercicios Investigación de operaciones
Ejercicios Investigación de operaciones
 
Algoritmos de ordenamiento
Algoritmos de ordenamientoAlgoritmos de ordenamiento
Algoritmos de ordenamiento
 
Ejercicios jess
Ejercicios jessEjercicios jess
Ejercicios jess
 
Sistemas Expertos
Sistemas ExpertosSistemas Expertos
Sistemas Expertos
 
Como escribir tesis
Como escribir tesisComo escribir tesis
Como escribir tesis
 
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOSCOMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
COMPONENTES BÁSICOS DE UN SISTEMA MS-DOS
 
Curso básico de Ensamblador
Curso básico de EnsambladorCurso básico de Ensamblador
Curso básico de Ensamblador
 
Ejercicios álgebra superior
Ejercicios álgebra superiorEjercicios álgebra superior
Ejercicios álgebra superior
 
INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA INDUCCIÓN MATEMÁTICA
INDUCCIÓN MATEMÁTICA
 
Sistemas de ecuaciones
Sistemas de ecuacionesSistemas de ecuaciones
Sistemas de ecuaciones
 
Determinantes
DeterminantesDeterminantes
Determinantes
 
Inducción matemática
Inducción matemáticaInducción matemática
Inducción matemática
 
Tareas números complejos
Tareas números complejosTareas números complejos
Tareas números complejos
 
Ejer
EjerEjer
Ejer
 

Recently uploaded

efemérides del mes de junio 2024 (1).pptx
efemérides del mes de junio 2024 (1).pptxefemérides del mes de junio 2024 (1).pptx
efemérides del mes de junio 2024 (1).pptx
acgtz913
 
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdfAPUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
VeronicaCabrera50
 
DESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdf
DESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdfDESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdf
DESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdf
JonathanCovena1
 
3° SES COMU LUN10 CUENTO DIA DEL PADRE 933623393 PROF YESSENIA (1).docx
3° SES COMU LUN10  CUENTO DIA DEL PADRE  933623393 PROF YESSENIA (1).docx3° SES COMU LUN10  CUENTO DIA DEL PADRE  933623393 PROF YESSENIA (1).docx
3° SES COMU LUN10 CUENTO DIA DEL PADRE 933623393 PROF YESSENIA (1).docx
rosannatasaycoyactay
 
FEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdf
FEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdfFEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdf
FEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdf
Jose Luis Jimenez Rodriguez
 
Escuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdfEscuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdf
Alejandrino Halire Ccahuana
 
Evaluacion del tercer trimestre del 2023-2024
Evaluacion del tercer trimestre del 2023-2024Evaluacion del tercer trimestre del 2023-2024
Evaluacion del tercer trimestre del 2023-2024
israelsouza67
 
tema 7. Los siglos XVI y XVII ( resumen)
tema 7. Los siglos XVI y XVII ( resumen)tema 7. Los siglos XVI y XVII ( resumen)
tema 7. Los siglos XVI y XVII ( resumen)
saradocente
 
La necesidad de bienestar y el uso de la naturaleza.pdf
La necesidad de bienestar y el uso de la naturaleza.pdfLa necesidad de bienestar y el uso de la naturaleza.pdf
La necesidad de bienestar y el uso de la naturaleza.pdf
JonathanCovena1
 
Mundo ABC Examen 1 Grado- Tercer Trimestre.pdf
Mundo ABC Examen 1 Grado- Tercer Trimestre.pdfMundo ABC Examen 1 Grado- Tercer Trimestre.pdf
Mundo ABC Examen 1 Grado- Tercer Trimestre.pdf
ViriEsteva
 
Prueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infanciaPrueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infancia
LudmilaOrtega3
 
Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...
romina395894
 
La vida de Martin Miguel de Güemes para niños de primaria
La vida de Martin Miguel de Güemes para niños de primariaLa vida de Martin Miguel de Güemes para niños de primaria
La vida de Martin Miguel de Güemes para niños de primaria
EricaCouly1
 
Inteligencia Artificial y Aprendizaje Activo FLACSO Ccesa007.pdf
Inteligencia Artificial  y Aprendizaje Activo FLACSO  Ccesa007.pdfInteligencia Artificial  y Aprendizaje Activo FLACSO  Ccesa007.pdf
Inteligencia Artificial y Aprendizaje Activo FLACSO Ccesa007.pdf
Demetrio Ccesa Rayme
 
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIACONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
ginnazamudio
 
Presentación de la historia de PowerPoint y sus características más relevantes.
Presentación de la historia de PowerPoint y sus características más relevantes.Presentación de la historia de PowerPoint y sus características más relevantes.
Presentación de la historia de PowerPoint y sus características más relevantes.
genesiscabezas469
 
Presentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdfPresentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdf
LuanaJaime1
 
RETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docx
RETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docxRETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docx
RETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docx
100078171
 
Liturgia día del Padre del siguiente domingo.pptx
Liturgia día del Padre del siguiente domingo.pptxLiturgia día del Padre del siguiente domingo.pptx
Liturgia día del Padre del siguiente domingo.pptx
YeniferGarcia36
 
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docxLecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
Alejandrino Halire Ccahuana
 

Recently uploaded (20)

efemérides del mes de junio 2024 (1).pptx
efemérides del mes de junio 2024 (1).pptxefemérides del mes de junio 2024 (1).pptx
efemérides del mes de junio 2024 (1).pptx
 
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdfAPUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
APUNTES UNIDAD I ECONOMIA EMPRESARIAL .pdf
 
DESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdf
DESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdfDESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdf
DESARROLLO DE LAS RELACIONES CON LOS STAKEHOLDERS.pdf
 
3° SES COMU LUN10 CUENTO DIA DEL PADRE 933623393 PROF YESSENIA (1).docx
3° SES COMU LUN10  CUENTO DIA DEL PADRE  933623393 PROF YESSENIA (1).docx3° SES COMU LUN10  CUENTO DIA DEL PADRE  933623393 PROF YESSENIA (1).docx
3° SES COMU LUN10 CUENTO DIA DEL PADRE 933623393 PROF YESSENIA (1).docx
 
FEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdf
FEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdfFEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdf
FEEDBACK DE LA ESTRUCTURA CURRICULAR- 2024.pdf
 
Escuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdfEscuela Sabática. El conflicto inminente.pdf
Escuela Sabática. El conflicto inminente.pdf
 
Evaluacion del tercer trimestre del 2023-2024
Evaluacion del tercer trimestre del 2023-2024Evaluacion del tercer trimestre del 2023-2024
Evaluacion del tercer trimestre del 2023-2024
 
tema 7. Los siglos XVI y XVII ( resumen)
tema 7. Los siglos XVI y XVII ( resumen)tema 7. Los siglos XVI y XVII ( resumen)
tema 7. Los siglos XVI y XVII ( resumen)
 
La necesidad de bienestar y el uso de la naturaleza.pdf
La necesidad de bienestar y el uso de la naturaleza.pdfLa necesidad de bienestar y el uso de la naturaleza.pdf
La necesidad de bienestar y el uso de la naturaleza.pdf
 
Mundo ABC Examen 1 Grado- Tercer Trimestre.pdf
Mundo ABC Examen 1 Grado- Tercer Trimestre.pdfMundo ABC Examen 1 Grado- Tercer Trimestre.pdf
Mundo ABC Examen 1 Grado- Tercer Trimestre.pdf
 
Prueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infanciaPrueba/test conoce tus heridas de la infancia
Prueba/test conoce tus heridas de la infancia
 
Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...Este documento contiene, el programa completo de un acto para realizar la pro...
Este documento contiene, el programa completo de un acto para realizar la pro...
 
La vida de Martin Miguel de Güemes para niños de primaria
La vida de Martin Miguel de Güemes para niños de primariaLa vida de Martin Miguel de Güemes para niños de primaria
La vida de Martin Miguel de Güemes para niños de primaria
 
Inteligencia Artificial y Aprendizaje Activo FLACSO Ccesa007.pdf
Inteligencia Artificial  y Aprendizaje Activo FLACSO  Ccesa007.pdfInteligencia Artificial  y Aprendizaje Activo FLACSO  Ccesa007.pdf
Inteligencia Artificial y Aprendizaje Activo FLACSO Ccesa007.pdf
 
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIACONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
CONTENIDOS Y PDA DE LA FASE 3,4 Y 5 EN NIVEL PRIMARIA
 
Presentación de la historia de PowerPoint y sus características más relevantes.
Presentación de la historia de PowerPoint y sus características más relevantes.Presentación de la historia de PowerPoint y sus características más relevantes.
Presentación de la historia de PowerPoint y sus características más relevantes.
 
Presentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdfPresentación de proyecto en acuarela moderna verde.pdf
Presentación de proyecto en acuarela moderna verde.pdf
 
RETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docx
RETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docxRETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docx
RETROALIMENTACIÓN PARA EL EXAMEN ÚNICO AUXILIAR DE ENFERMERIA.docx
 
Liturgia día del Padre del siguiente domingo.pptx
Liturgia día del Padre del siguiente domingo.pptxLiturgia día del Padre del siguiente domingo.pptx
Liturgia día del Padre del siguiente domingo.pptx
 
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docxLecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
Lecciones 10 Esc. Sabática. El espiritismo desenmascarado docx
 

Redes de neuronas recurrentes

  • 1. Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid
  • 2. Redes Recurrentes ‰ Introducción ‰ Red de Hopfield ‰ Redes parcialmente recurrentes „ Red de Jordan „ Red de Elman ‰ Redes totalmente recurrentes
  • 3. Introducción „ Características principales ‰ Pueden tener ciclos o bucles en las conexiones (conexiones recurrentes) ‰ Conexiones recurrentes: „ de una neurona con ella misma „ entre neuronas de una misma capa „ entre neuronas de una capa a una capa anterior
  • 4. Introducción „ Características principales (II) ‰ Al permitir conexiones recurrentes aumenta el número de pesos o de parámetros ajustables de la red „ Aumenta la capacidad de representación „ Se complica el aprendizaje ‰ Las activaciones no dependen sólo de las activ. de la capa anterior sino también de la activación de cualquier otra neurona conectada a ella e incluso de su propia activación
  • 5. Introducción ‰ Es necesario incluir la variable tiempo ‰ La variable tiempo hace que las redes tengan un comportamiento dinámico o temporal ‰ Dos formas de entender el modo de actuación y aprendizaje „ Evolución de las activaciones de la red hasta alcanzar un punto estable „ Evolución de las activaciones de la red en modo continuo
  • 6. Introducción 1. Evolución hasta alcanzar un punto estable „ Evolucionar la red (activaciones de sus neuronas), desde un estado inicial hasta conseguir que las activaciones de todas las neuronas de la red no se modifiquen : punto estable ‰ Estado inicial: viene dado por el patrón de entrada ‰ Estado estable: representa al patrón de salida de la red ‰ Destaca la Red de Hopfield
  • 7. Introducción 2. Evolución de las activaciones en modo continuo „ En cada instante disponemos de la salida de la red „ La salida depende en cada instante t de las entradas en el instante anterior t-1 ‰ Aprendizaje por épocas ‰ Aprendizaje en tiempo real o continuo: se aplica la ley de aprendizaje en cada instante (para cada patrón) „ Redes parcialmente recurrentes: sólo tienen ciertas conexiones recurrentes „ Redes totalmente recurrentes: no tienen restricciones „ Todas usan algoritmos supervisados para el ajuste de parámetros
  • 8. Introducción ‰ Su comportamiento dinámico facilita el tratamiento de información temporal o patrones dinámicos: „ patrones que dependen del tiempo „ el valor del patrón en un determinado instante depende de sus valores en instantes anteriores de tiempo ‰ Las redes recurrentes son apropiadas para tratar información temporal ‰ También pueden emplearse redes estáticas como MLP o RNBR „ entrada de la red: secuencia temporal de valores en el pasado
  • 9. Introducción Aplicaciones ‰ problemas modelización neurobiólogica ‰ tareas linguísticas ‰ reconocimiento del palabras y fonemas ‰ control de procesos dinámicos ‰ …
  • 10. Red de Hopfield „ John Hopfield la propone en 1982 [Hopfield, 1982] „ Modelo de memoria asociativa ‰ Es capaz de recuperar patrones almacenados a partir de información incompleta e incluso a partir de patrones con ruido ‰ Actúa como memoria asociativa procesando patrones estáticos (sin variable tiempo) ‰ Todas las neuronas están conectadas con todas las demás John Hopfield, 1933-
  • 11. Red de Hopfield „ Cada neurona se conecta con todas las demás Dos formas diferentes de ver una red de Hopfield con 4 neuronas:
  • 12. „ Matriz de pesos W=(wij), orden n x n. : peso de la conexión de neurona i a neur j ‰ Matriz simétrica ‰ Los elementos de la diagonal son nulos (no existen conexiones reflexivas) „ Las neuronas poseen dos estados -1 y 1 „ Estado de la neurona i en t+1: Red de Hopfield ij w ji ij w w =
  • 13. Red de Hopfield „ Donde vi(t+1) es el estado de activación de la neurona i calculado así: „ Si el nivel vi(t+1) =0, se considera que el estado de i no cambia „ No tiene sentido hablar de entradas o salidas sino del estado de la red en un intante t
  • 14. Red de Hopfield „ Para una red con n neuronas, el estado en (t+1): „ El estado s representa una palabra binaria con n bits de información
  • 15. Aprendizaje y actuación de una red de Hopfield „ Dos fases de operación ‰ Fase de almacenamiento Se determinan los valores que tendrán los pesos para almacenar un conjunto de patrones ‰ Fase de recuperación mecanismo para recuperar la información almacenada a partir de información incompleta
  • 16. Red de Hopfield Fase de almacenamiento „ Conjunto de patrones que se desea almacenar donde cada patrón x(k) es un vector n-dimensional de componentes binarias (-1,1) „ Aplicando la regla de Hebb para almacenar patrones, el peso wij será: ‰ si las componentes xj(k), xi(k) son iguales, wij se incrementa en 1, si son distintos, se decrementa en 1
  • 17. „ Ejemplo: en la red de 4 neuronas almacenar x(1)=[1, 1, -1, -1] y x2=[-1, 1, 1,-1] Inicialmente los pesos son nulos. Al presentar el patrón x1 la matriz de pesos será: Equivale a la operación matricial x1 t * x1 - I Al presentar el patrón x(2) se obtendría una matriz de modificación de los pesos anteriores               − − − − − − − − = 0 1 1 1 1 0 1 1 1 1 0 1 1 1 1 0 ) 1 ( W               − − − − =               − − − − − − − − + = 0 0 2 0 0 0 0 2 2 0 0 0 0 2 0 0 0 1 1 1 1 0 1 1 1 1 0 1 1 1 1 0 ) 1 ( ) 2 ( W W Red de Hopfield Fase de almacenamiento
  • 18. „ Patrón de prueba diferente de los patrones almacenados (versión incompleta o con ruido de algún patrón almacenado) „ La RH va a recuperar el patrón almacenado más parecido al patrón de prueba x „ Procedimiento: ‰ Se inicializan los estados de las n neuronas de la red utilizando dicho patrón x: ‰ Se calculan los estados de la red en los siguiente instantes de tiempo utilizando las ecuaciones, hasta conseguir un punto estable (punto en el que los estados de las neuronas permanecen invariantes en el tiempo) ‰ El estado estable de la red representa el patrón recuperado Red de Hopfield Fase de recuperación
  • 19. „ Puede ocurrir que en la fase de recuperación la RH converja a estados estables que no correspondan con los patrones almacenados „ Normalmente ésto ocurre por almacenar un excesivo número de patrones Red de Hopfield Fase de recuperación
  • 20. Red de Hopfield. Función de energía „ En MLP, RNBR, SOM, etc.. existe una función de error o energía que describe el funcionamiento de dichas redes „ En RH con n neuronas existe una función de energía: „ Los puntos estables de RH se corresponden con mínimos de la función de energía
  • 21. Red de Hopfield. Función de energía „ Cuando los estados de la red cambian siguiendo las ecuaciones, es siempre negativo „ En la fase de recuperación, cuando se modifican los estados de la red, se está aplicando el descenso del gradiente para encontrar un mínimo local de la función de energía
  • 22. Capacidad de una red de Hopfield „ Máximo número de patrones que se pueden almacenar con seguridad en una red de dimensión determinada. „ Problema complicado y aún no resuelto de forma satisfactoria. „ La mayor parte de los estudios realizados ofrecen estimaciones asintóticas del máximo valor tolerable de patrones cuando la dimensión de la red es muy grande. „ Si se desea que todos los prototipos sean recuperados con una probabilidad próxima a 1, se ha estimado la relación: donde n es el número de neuronas y p el número de patrones que se desean recuperar. „ Si se tolera un cierto margen de error en la recuperación de prototipos, puede admitirse un número de estos proporcional a la dimensión de la red, pudiendo llegar a ser del orden de 0.138 n.
  • 23. Applets de RH „ http://www.cbu.edu/~pong/ai/hopfield/hopfieldapplet.html „ http://www.eee.metu.edu.tr/~alatan/Courses/Demo/Hopfield.htm
  • 24. Redes parcialmente recurrentes „ Son redes multicapa con algunas conexiones recurrentes ‰ Estas conexiones permiten recordar el estado anterior de ciertas neuronas de la red „ Generalmente existen ciertas neuronas especiales en la capa de entrada: neuronas de contexto, receptoras de las conexiones recurrentes ‰ Funcionan como una memoria de la red, almacenando el estado de las neuronas de una cierta capa en el instante anterior „ El resto de las neuronas de entrada actúan como receptores de los datos de entrada
  • 25. Redes parcialmente recurrentes „ Concatenando las activaciones de las neuronas de entrada y de contexto, puede verse como una red multicapa „ El cálculo de las activaciones se realiza como en una red multicapa sin recurrencias
  • 26. Redes parcialmente recurrentes „ Los pesos asociados a las conex. recurrentes suelen ser constantes (no aprendizaje) „ Por tanto, se puede usar el algoritmo de retropropagación, ya que los únicos pesos ajustables son no recurrentes „ Las más conocidas ‰ Red de Jordan ‰ Red de Elman
  • 27. Red de Jordan „ Propuesto por Jordan en 1986 [Jordan, 1986a][Jordan, 1986b] „ Las neuronas de contexto reciben una copia de las neuronas de salida y de ellas mismas „ Las conexiones recurrentes tienen un parámetro asociado µ (generalmente positivo y menor que 1)
  • 28. Red de Jordan „ Cada neurona de contexto recibe una conexión de una neurona de salida y de ella misma „ La activación de las neuronas de contexto en t: „ La entrada total de la red es una concatenación de las activaciones de las neuronas de entrada y de las neuronas de contexto
  • 29. Red de Jordan „ Neuronas ocultas y de salida: activación sigmoidal „ Neuronas de contexto: activación lineal „ Activación de las neuronas de contexto desarrollada en t: 2 ( − t ci ) 2 ( ) 2 ( ) 1 ( − + − = − t y t c t c i i i µ
  • 30. Red de Jordan „ Las neuronas de contexto acumulan las salidas de la red para todos los instantes anteriores „ El valor de µ determina la sensibilidad de estas neuronas para retener dicha información „ µ próximo a 0 estados alejados en el tiempo se olvidan con facilidad „ µ próximo a 1 estados alejados en el tiempo se memorizan con facilidad
  • 31. Red de Elman „ Propuesta por Elman en 1990 [Elman, 1990] „ Las neuronas de contexto reciben una copia de las neuronas ocultas de la red
  • 32. Red de Elman „ Tantas neuronas de contexto como ocultas „ No existe un parámetro asociado a la conexión recurrente „ La activación de las neuronas de contexto: „ El resto de las activaciones se calculan como en una red feedforward considerando como entrada el vector total:
  • 33. Red de Elman y de Jordan. Aprendizaje 1. Se inicializan las neuronas de contexto en t=0 2. En el instante t, se presenta el patrón que junto a las activaciones de las neuronas de contexto ci(t) forman el vector de entrada total de la red 3. Se propaga el vector u(t) hacia la salida de la red, obteniéndose la salida y(t) 4. Se aplica la regla delta generalizada para modificar los pesos de la red 5. Se incrementa la variable t en una unidad (t+1) y se vuelve al paso 2
  • 34. Redes totalmente recurrentes „ No existe restricción de conectividad „ Sus neuronas reciben como entrada la activación del resto de neuronas y su propia activación „ Los pesos de las conexiones recurrentes se adaptan con aprendizaje ‰ Aumenta el poder de representación ‰ Se complica el aprendizaje A: neuronas de entrada B: resto de neuronas wji: peso de j a i
  • 35. Redes totalmente recurrentes „ El algoritmo de retropropagación estándar no puede aplicarse a estas redes „ Existen dos algoritmos basados en retropropagación, adaptados para redes recurrentes: ‰ Algoritmo de retropropagación a través del tiempo (Backpropagation through time) ‰ Algoritmo de aprendizaje recurrente en tiempo real (Real time recurrent learning)
  • 36. Bibliografía „ [Jordan, 1986a] Jordan, M. (1986). Attractor dynamics and parallelism in a connectionist sequential machine. In Proc. of the Eighth Annual Conference of the Cognitive Science Society, 531--546 „ [Jordan, 1986b] Jordan, M. (1986). Serial Order: a parallel distributed processing approach. Technical Report, Institute for Cognitive Science. University of California „ [Elman, 1990] Elman J. (1990). Finding structure in time. Cognitive Science, 14: 179--211 „ [Hopfield, 1982] Hopfield, J. (1982). Neural Networks and physical systems with emergent collective computational abilities. In Proceedings of the National Academy of Science, vol 81, p 3088— 3092. National Academy of Sciences