SlideShare a Scribd company logo
1 of 3
REDES ELMAN
La red Elman tiene neuronas "tansig" en su capa recurrente y neuronas "purelin"
en su capa de salida. Esta combinación de funciones de transferencia le permite
a este tipo de redes aproximar cualquier función con una precisión arbitraria.
El único requerimiento es que en la capa oculta deben existir bastantes
neuronas.
      Debido a que una red Elman puede almacenar información que se puede
referenciar en un futuro, ésta puede aprender tanto patrones temporales como
patrones espaciales.

Creando una red Elman
      Una red Elman con 2 o más capas, puede ser creada con la función newelm.
Con esta función se crea e inicializa una red ELMAN.
Sintaxis:
      net = newelm(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF)
donde:

•   PR :      indica el rango de los vectores de entrada y es de la forma: [min
    max] min es el limite inferior y max el superior.
•   Si, i=1,...,N1 : es el número de neuronas en la i-ésima capa.
•   TFi, i=1,...,N1 : es el tipo de función de transferencia en la i-ésima capa. Su
    valor por default es ‘tansig’.
•   BTF : indica cual es la función de entrenamiento que se utilizará          para
    entrenar la red. La función por default es ‘traingdx’. Los valores posibles
    son los siguientes :
       traingd - Gradient descent backpropagation.
       traingdm - Gradient descent w/momentum backpropagation.
       traingda - Gradient descent w/adaptive lr backpropagation.
       traingdx - Gradient descent w/momentum & adaptive lr backpropagation.
•   BLF : indica que tipo de aprendizaje(función) será usado. Su valor por
    default es ‘learngdm’. Sus valores posibles son:
       learnbp - Backpropagation learning rule.
       learnbpm - Backpropagation learning rule with momentum.
•   PF : indica que función va a interpretar el error cuadrático medio. Su valor
    por default es ‘mse’. Algunos de sus valores posibles son:
       mse        - Mean squared error performance function.
       msereg     - Mean squared error w/reg performance function.
       dmse       - Mean squared error performance derivatives function.
       dmsereg - Mean squared error w/reg performance derivative function.

Entrenando una red Elman:
      La función para entrenar una red neuronal en general es train. TRAIN
entrena una red    NET de acuerdo a NET.trainFcn y NET.trainParam. Algunos de
estos parámetros se asignan en newelm y en caso de que no se den se toman los
que tienen por default. NET.trainFcn es el que indica que tipo de red se va a
entrenar, debido a que train puede entrenar cualquier tipo de red. Para las
redes Elman el valor de este parámetro es inicializado en Newelm.

Como ejemplo observe como se inicializan algunos valores:
net = newelm([-2 2],[10 1],{'tansig','purelin'},'traingdx');
net.trainParam.epochs = 500;
net.trainParam.show = 5;
net.trainParam.goal = 0.01;
net.performFcn = 'sse';
La sintaxis de train es:
      [net,tr] = train(NET,P,T,Pi,Ai)
donde:
NET : es la neurona a ser entrenada.
P: Son los vectores de entrada.
T : Son los vectores objetivo.
Pi y Ai son condiciones de retardo.

La función regresa la nueva red entrenada y opcionalmente        información   del
entrenamiento tal como el número de epochs el error alcanzado.

Tanto los vectores de entrada como los objetivo, tienen que estar en cierta
forma que se llama arreglo de celdas, por lo que se utiliza la función con2seq
para convertirlos a esta forma y así poder pasarlos como parámetros a train.
Ejemplo:
[net,tr] = train(net,Pentrada,Tobjetivo);

Simulación de una red Elman:
      Finalmente para simular una red neuronal se utiliza sim. Su sintaxis es:
[Y,Pf,Af] = sim(net,P,Pi,Ai)
net : es la red que se utilizará para la simulación.
P : Las entradas. Vectores de entrada.
Pi y Ai: son condiciones de retardo iniciales.

Regresa:
Y : Salidas. Una aproximación a los vectores objetivo.
Pf y Af son condiciones de retardo finales.

Pi, Ai, Pf, y Af son opcionales y solo son usados para redes que tienen retardo
en la entrada o en las capas.
Ejemplo:
Salidas = sim(net,Pentradas);


DETECCION DE AMPLITUD (APPELM1)
      Usando las funciones NEWELM, TRAIN y SIM, una red ELMAN es entrenada para
obtener la amplitud de una onda senoidal que esta siendo presentada en el
tiempo.

      Las entradas de la red son ondas senoidales con diferente amplitud.

      Se puede observar que sen(x), 2*sen(x),..., n*sen(x) son funciones
diferentes y que la red Elman lo que realmente esta haciendo es identificar
funciones, ya que cuando se presente una función de   entrada, la red debe
presentar una única salida para dicha entrada.

Continuando con el ejemplo, una vez inicializada y entrenada la red se puede
observar que no se alcanzó el mínimo error deseado, por lo que se recomiendan
tres cosas por hacer:

1.-   Más entremamiento aumentando el n£mero de epochs.
2.-   Tratar con pesos y bias iniciales diferentes.
3.-   Utilizar más neuronas en la capa oculta o recurrente.

La respuesta que tiene la red con las funciones con las que fue entrenada es muy
buena, pero cuando se le presentan funciones con las que no fue entrenada no es
muy buena. No generaliza muy bien.
Conclusiones y recomendaciones:
• La red Elman puede aprender a reconocer patrones variantes en el tiempo.
• En este ejemplos la red hizo un trabajo bastante bueno con solo 10
   neuronas en la capa recurrente y 500 epochs.
• Más neuronas recurrentes y tiempos mayores de entrenamientos pueden ser
   utilizados para incrementar la precisión de la red.
• Entrenando la red con m s funciones causar una red que generaliza       mucho
   mejor.

More Related Content

What's hot

Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpESCOM
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2jcbp_peru
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2jcbp_peru
 
Utp i_ay_se_sistemas difusos i 2013-3
 Utp i_ay_se_sistemas difusos i 2013-3 Utp i_ay_se_sistemas difusos i 2013-3
Utp i_ay_se_sistemas difusos i 2013-3jcbenitezp
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3jcbenitezp
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Algoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPAlgoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPESCOM
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón MulticapaESCOM
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINEESCOM
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna jcbp_peru
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptronc09271
 
Utp sirn_sl2 la rna perceptron
 Utp sirn_sl2 la rna perceptron Utp sirn_sl2 la rna perceptron
Utp sirn_sl2 la rna perceptronjcbenitezp
 
Utp ia_sl2 patrones de aprendizaje de las rna
 Utp ia_sl2 patrones de aprendizaje de las rna Utp ia_sl2 patrones de aprendizaje de las rna
Utp ia_sl2 patrones de aprendizaje de las rnajcbenitezp
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 

What's hot (20)

Boletin3
Boletin3Boletin3
Boletin3
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
redes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbpredes neuronales con Levenberg-Marquardt lmbp
redes neuronales con Levenberg-Marquardt lmbp
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Utp 2015-1_ia lab2
 Utp 2015-1_ia lab2 Utp 2015-1_ia lab2
Utp 2015-1_ia lab2
 
Utp 2015-1_sirn lab2
 Utp 2015-1_sirn lab2 Utp 2015-1_sirn lab2
Utp 2015-1_sirn lab2
 
Utp i_ay_se_sistemas difusos i 2013-3
 Utp i_ay_se_sistemas difusos i 2013-3 Utp i_ay_se_sistemas difusos i 2013-3
Utp i_ay_se_sistemas difusos i 2013-3
 
Utp sirn_sl8 sistemas difusos i 2013-3
 Utp sirn_sl8 sistemas difusos i 2013-3 Utp sirn_sl8 sistemas difusos i 2013-3
Utp sirn_sl8 sistemas difusos i 2013-3
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Algoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBPAlgoritmo de Gradiente Conjugado CGBP
Algoritmo de Gradiente Conjugado CGBP
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
 
Utp sirn_sl2 la rna perceptron
 Utp sirn_sl2 la rna perceptron Utp sirn_sl2 la rna perceptron
Utp sirn_sl2 la rna perceptron
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Utp ia_sl2 patrones de aprendizaje de las rna
 Utp ia_sl2 patrones de aprendizaje de las rna Utp ia_sl2 patrones de aprendizaje de las rna
Utp ia_sl2 patrones de aprendizaje de las rna
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 

Similar to REDES NEUROANLES ELMAN DEMO

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2jcbp_peru
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2jcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Gustavo 07 redes neuronales matlab
Gustavo 07   redes neuronales matlabGustavo 07   redes neuronales matlab
Gustavo 07 redes neuronales matlabWige Marr
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlabInnoVacompu
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 

Similar to REDES NEUROANLES ELMAN DEMO (20)

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Utp sirn_2014-2 lab2
 Utp sirn_2014-2 lab2 Utp sirn_2014-2 lab2
Utp sirn_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp ia_2014-2 lab2
 Utp ia_2014-2 lab2 Utp ia_2014-2 lab2
Utp ia_2014-2 lab2
 
Utp 2015-2_ia lab2
 Utp 2015-2_ia lab2 Utp 2015-2_ia lab2
Utp 2015-2_ia lab2
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Gustavo 07 redes neuronales matlab
Gustavo 07   redes neuronales matlabGustavo 07   redes neuronales matlab
Gustavo 07 redes neuronales matlab
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Satlin y satlins en matlab
Satlin y satlins en matlabSatlin y satlins en matlab
Satlin y satlins en matlab
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 

More from ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 

More from ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 

Recently uploaded

ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoFundación YOD YOD
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxKarlaMassielMartinez
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuaDANNYISAACCARVAJALGA
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptxolgakaterin
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónLourdes Feria
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscaeliseo91
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...JonathanCovena1
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 

Recently uploaded (20)

Fe contra todo pronóstico. La fe es confianza.
Fe contra todo pronóstico. La fe es confianza.Fe contra todo pronóstico. La fe es confianza.
Fe contra todo pronóstico. La fe es confianza.
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Heinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativoHeinsohn Privacidad y Ciberseguridad para el sector educativo
Heinsohn Privacidad y Ciberseguridad para el sector educativo
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
 
Power Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptxPower Point: "Defendamos la verdad".pptx
Power Point: "Defendamos la verdad".pptx
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahua
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
Ecosistemas Natural, Rural y urbano 2021.pptx
Ecosistemas Natural, Rural y urbano  2021.pptxEcosistemas Natural, Rural y urbano  2021.pptx
Ecosistemas Natural, Rural y urbano 2021.pptx
 
Estrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcciónEstrategia de prompts, primeras ideas para su construcción
Estrategia de prompts, primeras ideas para su construcción
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fisca
 
Sesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronósticoSesión de clase: Fe contra todo pronóstico
Sesión de clase: Fe contra todo pronóstico
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 

REDES NEUROANLES ELMAN DEMO

  • 1. REDES ELMAN La red Elman tiene neuronas "tansig" en su capa recurrente y neuronas "purelin" en su capa de salida. Esta combinación de funciones de transferencia le permite a este tipo de redes aproximar cualquier función con una precisión arbitraria. El único requerimiento es que en la capa oculta deben existir bastantes neuronas. Debido a que una red Elman puede almacenar información que se puede referenciar en un futuro, ésta puede aprender tanto patrones temporales como patrones espaciales. Creando una red Elman Una red Elman con 2 o más capas, puede ser creada con la función newelm. Con esta función se crea e inicializa una red ELMAN. Sintaxis: net = newelm(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) donde: • PR : indica el rango de los vectores de entrada y es de la forma: [min max] min es el limite inferior y max el superior. • Si, i=1,...,N1 : es el número de neuronas en la i-ésima capa. • TFi, i=1,...,N1 : es el tipo de función de transferencia en la i-ésima capa. Su valor por default es ‘tansig’. • BTF : indica cual es la función de entrenamiento que se utilizará para entrenar la red. La función por default es ‘traingdx’. Los valores posibles son los siguientes : traingd - Gradient descent backpropagation. traingdm - Gradient descent w/momentum backpropagation. traingda - Gradient descent w/adaptive lr backpropagation. traingdx - Gradient descent w/momentum & adaptive lr backpropagation. • BLF : indica que tipo de aprendizaje(función) será usado. Su valor por default es ‘learngdm’. Sus valores posibles son: learnbp - Backpropagation learning rule. learnbpm - Backpropagation learning rule with momentum. • PF : indica que función va a interpretar el error cuadrático medio. Su valor por default es ‘mse’. Algunos de sus valores posibles son: mse - Mean squared error performance function. msereg - Mean squared error w/reg performance function. dmse - Mean squared error performance derivatives function. dmsereg - Mean squared error w/reg performance derivative function. Entrenando una red Elman: La función para entrenar una red neuronal en general es train. TRAIN entrena una red NET de acuerdo a NET.trainFcn y NET.trainParam. Algunos de estos parámetros se asignan en newelm y en caso de que no se den se toman los que tienen por default. NET.trainFcn es el que indica que tipo de red se va a entrenar, debido a que train puede entrenar cualquier tipo de red. Para las redes Elman el valor de este parámetro es inicializado en Newelm. Como ejemplo observe como se inicializan algunos valores: net = newelm([-2 2],[10 1],{'tansig','purelin'},'traingdx'); net.trainParam.epochs = 500; net.trainParam.show = 5; net.trainParam.goal = 0.01; net.performFcn = 'sse';
  • 2. La sintaxis de train es: [net,tr] = train(NET,P,T,Pi,Ai) donde: NET : es la neurona a ser entrenada. P: Son los vectores de entrada. T : Son los vectores objetivo. Pi y Ai son condiciones de retardo. La función regresa la nueva red entrenada y opcionalmente información del entrenamiento tal como el número de epochs el error alcanzado. Tanto los vectores de entrada como los objetivo, tienen que estar en cierta forma que se llama arreglo de celdas, por lo que se utiliza la función con2seq para convertirlos a esta forma y así poder pasarlos como parámetros a train. Ejemplo: [net,tr] = train(net,Pentrada,Tobjetivo); Simulación de una red Elman: Finalmente para simular una red neuronal se utiliza sim. Su sintaxis es: [Y,Pf,Af] = sim(net,P,Pi,Ai) net : es la red que se utilizará para la simulación. P : Las entradas. Vectores de entrada. Pi y Ai: son condiciones de retardo iniciales. Regresa: Y : Salidas. Una aproximación a los vectores objetivo. Pf y Af son condiciones de retardo finales. Pi, Ai, Pf, y Af son opcionales y solo son usados para redes que tienen retardo en la entrada o en las capas. Ejemplo: Salidas = sim(net,Pentradas); DETECCION DE AMPLITUD (APPELM1) Usando las funciones NEWELM, TRAIN y SIM, una red ELMAN es entrenada para obtener la amplitud de una onda senoidal que esta siendo presentada en el tiempo. Las entradas de la red son ondas senoidales con diferente amplitud. Se puede observar que sen(x), 2*sen(x),..., n*sen(x) son funciones diferentes y que la red Elman lo que realmente esta haciendo es identificar funciones, ya que cuando se presente una función de entrada, la red debe presentar una única salida para dicha entrada. Continuando con el ejemplo, una vez inicializada y entrenada la red se puede observar que no se alcanzó el mínimo error deseado, por lo que se recomiendan tres cosas por hacer: 1.- Más entremamiento aumentando el n£mero de epochs. 2.- Tratar con pesos y bias iniciales diferentes. 3.- Utilizar más neuronas en la capa oculta o recurrente. La respuesta que tiene la red con las funciones con las que fue entrenada es muy buena, pero cuando se le presentan funciones con las que no fue entrenada no es muy buena. No generaliza muy bien.
  • 3. Conclusiones y recomendaciones: • La red Elman puede aprender a reconocer patrones variantes en el tiempo. • En este ejemplos la red hizo un trabajo bastante bueno con solo 10 neuronas en la capa recurrente y 500 epochs. • Más neuronas recurrentes y tiempos mayores de entrenamientos pueden ser utilizados para incrementar la precisión de la red. • Entrenando la red con m s funciones causar una red que generaliza mucho mejor.