Este documento describe las redes neuronales artificiales, incluyendo su estructura, entrenamiento y aplicaciones. Explica que una neurona artificial es una unidad de procesamiento de información con entradas, pesos y una función de activación. Las redes neuronales se pueden usar para la identificación de sistemas, el control y la clasificación de patrones. El algoritmo de retropropagación del error se utiliza comúnmente para entrenar redes multicapa no lineales.
El documento resume las redes neuronales artificiales. Describe las neuronas artificiales y cómo se agrupan en capas para formar redes. Explica los diferentes tipos de entrenamiento y aplicaciones de las redes neuronales, incluyendo la identificación de sistemas. También cubre algoritmos clave como backpropagation y redes no supervisadas.
Este documento describe las redes neuronales artificiales, incluyendo su estructura, tipos de entrenamiento, y aplicaciones. Discute las neuronas artificiales, redes de una capa y multicapa, y algoritmos de entrenamiento como backpropagation. También cubre redes no supervisadas y su uso en identificación de sistemas.
El documento describe el modelo de perceptrón simple desarrollado por Frank Rosenblatt en 1958. El perceptrón puede clasificar patrones de entrada de manera binaria (0/1) dependiendo de los pesos sinápticos. El algoritmo de aprendizaje actualiza los pesos para minimizar el error entre la salida del perceptrón y la salida deseada, convergiendo en un tiempo finito si los patrones son linealmente separables.
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
Regla de aprendizaje del Perceptrón Simple. Redes Neuronales Artificiales de aprendizaje supervisado (offline). Regla del Perceptrón.
Autor: Andrea Lezcano
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
El documento describe la historia y características de las redes neuronales perceptrón. Introduce el modelo perceptrón de McCulloch y Pitts de 1943 y la regla de aprendizaje de Rosenblatt de 1950. Explica las características del perceptrón multicapa de 1980 y diferentes reglas de aprendizaje como el aprendizaje supervisado y no supervisado. Finalmente, presenta ejemplos para ilustrar conceptos como la frontera de decisión y el entrenamiento de redes perceptrón usando la regla de aprendizaje.
Este documento describe el Modelo de Resonancia Adaptativa (ART) de Stephen Grossberg para el aprendizaje no supervisado en redes neurales. El ART busca resolver los dilemas de la plasticidad y estabilidad del aprendizaje mediante una arquitectura competitiva que permite crear nuevas categorías cuando los patrones de entrada no coinciden con las existentes. El funcionamiento implica la presentación de vectores de entrada, la competición entre neuronas de salida para seleccionar la categoría ganadora, y el ajuste de pesos para refinar la representación de categorías.
Este documento describe las redes neuronales artificiales, incluyendo su estructura, entrenamiento y aplicaciones. Explica que una neurona artificial es una unidad de procesamiento de información con entradas, pesos y una función de activación. Las redes neuronales se pueden usar para la identificación de sistemas, el control y la clasificación de patrones. El algoritmo de retropropagación del error se utiliza comúnmente para entrenar redes multicapa no lineales.
El documento resume las redes neuronales artificiales. Describe las neuronas artificiales y cómo se agrupan en capas para formar redes. Explica los diferentes tipos de entrenamiento y aplicaciones de las redes neuronales, incluyendo la identificación de sistemas. También cubre algoritmos clave como backpropagation y redes no supervisadas.
Este documento describe las redes neuronales artificiales, incluyendo su estructura, tipos de entrenamiento, y aplicaciones. Discute las neuronas artificiales, redes de una capa y multicapa, y algoritmos de entrenamiento como backpropagation. También cubre redes no supervisadas y su uso en identificación de sistemas.
El documento describe el modelo de perceptrón simple desarrollado por Frank Rosenblatt en 1958. El perceptrón puede clasificar patrones de entrada de manera binaria (0/1) dependiendo de los pesos sinápticos. El algoritmo de aprendizaje actualiza los pesos para minimizar el error entre la salida del perceptrón y la salida deseada, convergiendo en un tiempo finito si los patrones son linealmente separables.
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
Regla de aprendizaje del Perceptrón Simple. Redes Neuronales Artificiales de aprendizaje supervisado (offline). Regla del Perceptrón.
Autor: Andrea Lezcano
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
El documento describe la historia y características de las redes neuronales perceptrón. Introduce el modelo perceptrón de McCulloch y Pitts de 1943 y la regla de aprendizaje de Rosenblatt de 1950. Explica las características del perceptrón multicapa de 1980 y diferentes reglas de aprendizaje como el aprendizaje supervisado y no supervisado. Finalmente, presenta ejemplos para ilustrar conceptos como la frontera de decisión y el entrenamiento de redes perceptrón usando la regla de aprendizaje.
Este documento describe el Modelo de Resonancia Adaptativa (ART) de Stephen Grossberg para el aprendizaje no supervisado en redes neurales. El ART busca resolver los dilemas de la plasticidad y estabilidad del aprendizaje mediante una arquitectura competitiva que permite crear nuevas categorías cuando los patrones de entrada no coinciden con las existentes. El funcionamiento implica la presentación de vectores de entrada, la competición entre neuronas de salida para seleccionar la categoría ganadora, y el ajuste de pesos para refinar la representación de categorías.
Este documento describe el perceptrón simple y multicapa. El perceptrón simple es un modelo unidireccional con una capa de entrada y una de salida binaria. Aprende de forma supervisada pero tiene limitaciones como no poder aprender la función XOR. El perceptrón multicapa tiene múltiples capas ocultas y puede aproximar cualquier función. Aprende mediante retropropagación del error para ajustar los pesos entre las 300 neuronas y 20.000 conexiones.
La teoría de resonancia adaptativa (ART) propone un modelo de aprendizaje no supervisado que permite a las redes neuronales resolver el dilema entre estabilidad y plasticidad. La teoría se basa en hacer resonar la información de entrada con los prototipos almacenados para categorizar los patrones. Si no hay resonancia, crea una nueva categoría. Las redes ART, como ART1, ART2 y ART3, aprenden de forma competitiva y en línea mientras mantienen la información previa.
Las redes monocapa se utilizan típicamente para regenerar información incompleta o distorsionada mediante conexiones laterales como la red de Hopfield, BRAIN STATE IN A BOX y máquinas estocásticas de Boltzmann. Las redes multicapa constan de múltiples capas de neuronas con conexiones hacia adelante y hacia atrás y se usan para clasificación e identificación de patrones, incluyendo perceptrones, Adalines, Madalines y backpropagation.
La teoría de resonancia adaptativa propone que las redes neuronales pueden aprender nueva información sin olvidar lo aprendido anteriormente mediante la adición de un mecanismo de realimentación entre la capa de entrada y la capa competitiva. La red ART logra esto al alcanzar un estado resonante entre las capas que permite el aprendizaje solo cuando se reconoce rápidamente la entrada, o cuando la entrada es desconocida para crear una nueva representación.
La teoría de resonancia adaptativa (ART) propone una solución al dilema de estabilidad y plasticidad en redes neuronales. La red ART consta de una capa de entrada que normaliza los datos de entrada y una capa competitiva de unidades llamadas "instares" que aprenden patrones. La interacción entre estas capas a través de realimentación permite que la red aprenda nueva información sin olvidar lo aprendido previamente.
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
Presentación para cátedra de Inteligencia Artificial.
Tema de la clase: Redes Neuronales de Aprendizaje Supervisado, más específicamente. Perceptron Simple.
Author: Andrea Lezcano
Tutor de Cátedra: Ing. Sergio Pohlmann
El documento describe las redes neuronales artificiales Perceptron y ADALINE. Explica que el Perceptron puede resolver problemas linealmente separables mientras que ADALINE minimiza un error cuadrático medio. También describe el perceptrón multicapa, el cual puede resolver problemas no lineales usando múltiples capas ocultas, y el algoritmo de retropropagación para el aprendizaje. Finalmente, presenta un ejemplo para entrenar un perceptrón simple como una puerta lógica OR.
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
Este documento describe los conceptos básicos de diseño y entrenamiento de redes neuronales multicapa. Explica que las RNA son útiles para problemas que involucran reconocimiento de patrones, procesamiento de señales y control de sistemas complejos cuando los métodos convencionales no funcionan bien. También cubre temas como la selección del tipo de red, las entradas, salidas, funciones de transferencia, número de capas ocultas y neuronas, y el proceso de entrenamiento.
Este documento describe la teoría de resonancia adaptativa y las redes ART. Explica que las redes ART resuelven el dilema de la estabilidad y plasticidad del aprendizaje mediante un mecanismo de realimentación entre las capas de entrada y salida. Describe la arquitectura básica de una red ART, la cual incluye un subsistema de atención para clasificación y uno de orientación para crear nuevas categorías. También resume diversas adaptaciones de las redes ART desarrolladas para diferentes aplicaciones como el reconocimiento de patrones.
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
Este documento proporciona una introducción a las redes neuronales artificiales, incluyendo la notación y modelos de neuronas individuales, funciones de transferencia, arquitecturas como redes de capa única y multicapa, y mecanismos de aprendizaje supervisado y no supervisado. Explica conceptos clave como aprendizaje por corrección de error, aprendizaje competitivo, y diferentes tipos de redes como feedforward, recurrentes y competitivas.
Este documento trata sobre redes neuronales artificiales (ANN) e inteligencia artificial. Explica que las ANN se inspiran en las redes neuronales biológicas del cerebro humano y están constituidas por elementos similares a las neuronas. También describe conceptos como el aprendizaje, generalización y abstracción en ANN, y modelos como el perceptrón simple y el Adaline.
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
Redes Neuronales: Funciones de Activación
Hardlim para simular un circuito con sensor de
movimiento y Hardlims para determinar si una
persona es diabética en Matlab
El documento describe el perceptrón, la primera red neuronal artificial desarrollada por Rosenblatt en 1958. Consiste en una capa de entrada y una capa de salida unidireccional conectadas. El perceptrón calcula la salida de cada unidad de procesamiento como una función del peso sináptico y la entrada, más un umbral. Se entrena mediante una regla de aprendizaje que ajusta los pesos para minimizar el error entre la salida deseada y la obtenida.
Este documento describe el perceptrón simple y multicapa. El perceptrón simple es un modelo unidireccional con una capa de entrada y una de salida binaria. Aprende de forma supervisada pero tiene limitaciones como no poder aprender la función XOR. El perceptrón multicapa tiene múltiples capas ocultas y puede aproximar cualquier función. Aprende mediante retropropagación del error para ajustar los pesos entre las 300 neuronas y 20.000 conexiones.
La teoría de resonancia adaptativa (ART) propone un modelo de aprendizaje no supervisado que permite a las redes neuronales resolver el dilema entre estabilidad y plasticidad. La teoría se basa en hacer resonar la información de entrada con los prototipos almacenados para categorizar los patrones. Si no hay resonancia, crea una nueva categoría. Las redes ART, como ART1, ART2 y ART3, aprenden de forma competitiva y en línea mientras mantienen la información previa.
Las redes monocapa se utilizan típicamente para regenerar información incompleta o distorsionada mediante conexiones laterales como la red de Hopfield, BRAIN STATE IN A BOX y máquinas estocásticas de Boltzmann. Las redes multicapa constan de múltiples capas de neuronas con conexiones hacia adelante y hacia atrás y se usan para clasificación e identificación de patrones, incluyendo perceptrones, Adalines, Madalines y backpropagation.
La teoría de resonancia adaptativa propone que las redes neuronales pueden aprender nueva información sin olvidar lo aprendido anteriormente mediante la adición de un mecanismo de realimentación entre la capa de entrada y la capa competitiva. La red ART logra esto al alcanzar un estado resonante entre las capas que permite el aprendizaje solo cuando se reconoce rápidamente la entrada, o cuando la entrada es desconocida para crear una nueva representación.
La teoría de resonancia adaptativa (ART) propone una solución al dilema de estabilidad y plasticidad en redes neuronales. La red ART consta de una capa de entrada que normaliza los datos de entrada y una capa competitiva de unidades llamadas "instares" que aprenden patrones. La interacción entre estas capas a través de realimentación permite que la red aprenda nueva información sin olvidar lo aprendido previamente.
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
Presentación para cátedra de Inteligencia Artificial.
Tema de la clase: Redes Neuronales de Aprendizaje Supervisado, más específicamente. Perceptron Simple.
Author: Andrea Lezcano
Tutor de Cátedra: Ing. Sergio Pohlmann
El documento describe las redes neuronales artificiales Perceptron y ADALINE. Explica que el Perceptron puede resolver problemas linealmente separables mientras que ADALINE minimiza un error cuadrático medio. También describe el perceptrón multicapa, el cual puede resolver problemas no lineales usando múltiples capas ocultas, y el algoritmo de retropropagación para el aprendizaje. Finalmente, presenta un ejemplo para entrenar un perceptrón simple como una puerta lógica OR.
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
Este documento describe los conceptos básicos de diseño y entrenamiento de redes neuronales multicapa. Explica que las RNA son útiles para problemas que involucran reconocimiento de patrones, procesamiento de señales y control de sistemas complejos cuando los métodos convencionales no funcionan bien. También cubre temas como la selección del tipo de red, las entradas, salidas, funciones de transferencia, número de capas ocultas y neuronas, y el proceso de entrenamiento.
Este documento describe la teoría de resonancia adaptativa y las redes ART. Explica que las redes ART resuelven el dilema de la estabilidad y plasticidad del aprendizaje mediante un mecanismo de realimentación entre las capas de entrada y salida. Describe la arquitectura básica de una red ART, la cual incluye un subsistema de atención para clasificación y uno de orientación para crear nuevas categorías. También resume diversas adaptaciones de las redes ART desarrolladas para diferentes aplicaciones como el reconocimiento de patrones.
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
Este documento proporciona una introducción a las redes neuronales artificiales, incluyendo la notación y modelos de neuronas individuales, funciones de transferencia, arquitecturas como redes de capa única y multicapa, y mecanismos de aprendizaje supervisado y no supervisado. Explica conceptos clave como aprendizaje por corrección de error, aprendizaje competitivo, y diferentes tipos de redes como feedforward, recurrentes y competitivas.
Este documento trata sobre redes neuronales artificiales (ANN) e inteligencia artificial. Explica que las ANN se inspiran en las redes neuronales biológicas del cerebro humano y están constituidas por elementos similares a las neuronas. También describe conceptos como el aprendizaje, generalización y abstracción en ANN, y modelos como el perceptrón simple y el Adaline.
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
Redes Neuronales: Funciones de Activación
Hardlim para simular un circuito con sensor de
movimiento y Hardlims para determinar si una
persona es diabética en Matlab
El documento describe el perceptrón, la primera red neuronal artificial desarrollada por Rosenblatt en 1958. Consiste en una capa de entrada y una capa de salida unidireccional conectadas. El perceptrón calcula la salida de cada unidad de procesamiento como una función del peso sináptico y la entrada, más un umbral. Se entrena mediante una regla de aprendizaje que ajusta los pesos para minimizar el error entre la salida deseada y la obtenida.
2. ÍNDICE
Introducción
Clasificación de redes neuronales:
Estructura
Entrenamiento
Aplicación de las redes neuronales a la identificación de sistemas
Las redes neuronales en el control
3. REDES NEURONALES
Neurona: base del funcionamiento del cerebro.
Sistema de procesamiento cerebral de la información:
Complejo, No lineal y Paralelo.
Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo
4. NEURONA ARTIFICIAL
Neurona artificial: unidad de procesamiento de la información, es
un dispositivo simple de cálculo que ante un vector de entradas
proporciona una única salida.
Elementos:
Conjunto de entradas, xj
Pesos sinápticos, wi
Función de activación:
w1·x1+ w2·x2 + ... + wn·xn = a
Función de transferencia:
y = F (w1·x1+ w2·x2 + ... + wn·xn )
Bias o polarización: entrada constate de magnitud 1, y peso b
que se introduce en el sumador
a
y
5. NEURONA ARTIFICIAL
Principales funciones de transferencia:
Lineal: y=ka
Escalón: y = 0 si a<0; y=1 si a>=0
Sigmoide
Gaussiana.
6. RNA de una capa
Una neurona aislada dispone de poca potencia de cálculo.
Los nodos se conectan mediante la sinapsis
Las neuronas se agrupan formando una estructura llamada capa.
Los pesos pasan a ser matrices W (n x m)
La salida de la red es un vector: Y=(y1, y2, ... , yn)T
Y=F(W·X+b)
a1
a2
an
y1
y2
yn
7. RNA Multicapa
Redes multicapa: capas en cascada.
Tipos de capas:
Entrada
Salida
Oculta
No hay realimentación => red
feedforward
Salida depende de entradas y pesos.
Si hay realimentación => red recurrente
Efecto memoria
Salida depende también de la historia
pasada.
Una RNA es un aproximador general de
funciones no lineales.
8. Entrenamiento I
Entrenamiento: proceso de aprendizaje de la red.
Objetivo: tener un comportamiento deseado.
Método:
Uso de un algoritmo para el ajuste de los parámetros libres de
la red: los pesos y las bias.
Convergencia: salidas de la red = salidas deseadas.
Tipos de entrenamiento:
Supervisado.
Pares de entrenamiento: entrada - salida deseada.
Error por cada par que se utiliza para ajustar parámetros
No-supervisado.
Solamente conjunto de entradas.
Salidas: la agrupación o clasificación por clases
Reforzado.
9. Perceptrones
McCulloch y Pitts, en 1943, publicaron el primer estudio sobre RNA.
El elemento central: perceptrón.
Solo permite discriminar entre dos clases
linealmente separables: XOR.
0.5= a = w1·x1 + w2·x2
No hay combinación de x1 y x2 que resuelva
este problema.
Solución: más capas o funciones de transferencia no lineales.
a
y
10. Aprendizaje del Perceptrón.
Algoritmo supervisado:
Aplicar patrón de entrada y calcular salida de la red
Si salida correcta, volver a 1
Si salida incorrecta
0 sumar a cada peso su entrada
1 restar a cada peso su entrada
Volver a 1
Proceso iterativo, si el problema es linealmente separable este
algoritmo converge en un tiempo finito.
Nos da los pesos y las bias de la red que resuelve el problema.
11. Regla delta
Generalización del algoritmo del perceptrón para sistemas con
entradas y salidas continuas.
Se define: d=T-A= (salidas deseadas - salidas de la red).
Minimiza una función de coste basada en ese vector de error:
Di =d lr xi
Wi (n+1) = Wi (n) + D i
Razón de aprendizaje lr
Si las neuronas son
lineales=> un único
mínimo
12. Redes Neuronales Lineales.
Función de transferencia lineal.
Algoritmo de entrenamiento de Widrow-Hoff o Delta, tiene en
cuenta la magnitud del error.
Entrenamiento:
Suma de los cuadrados de los errores sea mínima.
Superficie de error con mínimo único.
Algoritmo tipo gradiente.
Aproximan funciones lineales.
13. Backpropagation
Clave en el resurgimiento de las redes neuronales.
Primera descripción del algoritmo fue dada por Werbos en 1974
Generalización del algoritmo de Widrow-Hoff para redes multicapa
con funciones de transferencia no-lineales y diferenciables.
1989 Hornik, Stinchcombe y White
Una red neuronal con una capa de sigmoides es capaz de
aproximar cualquier función con un número finito de
discontinuidades
Propiedad de la generalización.
La función de transferencia es no-lineal, la superficie de error tiene
varios mínimos locales.
14. Red Perceptron Multicapa (MLP)
Función acotada, monótona creciente y diferenciable.
Red de tipo feedforward.
Suficiente con dos capas.
a
y
15. Algoritmo backpropagation I
Descripción:
Tras inicializar los pesos de forma aleatoria y con valores
pequeños, seleccionamos el primer par de entrenamiento.
Calculamos la salida de la red
Calculamos la diferencia entre la salida real de la red y la salida
deseada, con lo que obtenemos el vector de error
Ajustamos los pesos de la red de forma que se minimice el error
Repetimos los tres pasos anteriores para cada par de
entrenamiento hasta que el error para todos los conjuntos de
entrenamiento sea aceptable.
Descenso por la superficie del error
Cálculo de derivadas del error respecto de los pesos y de las bias.
Adelante
Atrás
16. Algoritmo backpropagation II
Detalles:
SSE: E=SEp=S (ypk-opk)2
Dwij=-h E/ wij
Pasos:
Inicialización:
Construcción de la red.
Inicialización aleatoria de pesos y umbrales (-0.5, 0.5)
Criterio de terminación (número máximo de iteraciones,…).
Contador de iteraciones n=0.
Fase hacia delante:
Calcular la salida de la red para cada patrón de entrada.
Calcular el error total cometido (SSE)
Si la condición de terminación se satisface, parar
Fase hacia atrás:
17. Algoritmo backpropagation III
Fase hacia atrás:
Incrementar el contador n=n+1.
Paca cada neurona de salida calcualr: dk=(ok-yk)f’(netk)
donde netj=Siwijxi+bj
Para cada unidad oculta, calcular dj=f’(netj)Skdkwjk
Actualizar pesos: Dwij(n+1)=hdjoi+aDwij(n)
Volver a la fase hacia delante.
Inconvenientes del algoritmo backpropagation:
Tiempo de entrenamiento no acotado.
Dependiente de las condiciones iniciales:
Parálisis de la red.
Mínimos locales.
18. Algoritmo Backpropagation IV
Underfitting.
Memorización o Sobreaprendizaje.
Caracterización de la red. ¿Cuantas capas, cuantas neuronas en
cada capa,…?
19. Redes Neuronales no supervisadas I
Autoorganizativas: durante el proceso de aprendizaje la red debe
descubrir por si misma regularidades o categorías => la red debe
autoorganizarse en función de las señales procedentes del entorno.
Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80)
Características:
Red competitiva
Arquitectura unidireccional de dos capas:
Capa de entrada: m neuronas una por cada vector de
entrada.
Capa segunda se realiza el procesamiento, formando el
mapa de rasgos. Tiene nx X ny neuronas operando en
paralelo.
Todas las neuronas de entrada están conectadas a las
neuronas de la segunda capa, a través de los pesos wij
20. Redes Neuronales No-Supervisadas II
Cada neurona (i,j) calcula la similitud entre el vector de entradas y
su vector de pesos
Vence la neurona cuyo vector de pesos es más similar al vector de
entrada.
Cada neurona sirva para detectar alguna característica del vector de
entrada.
Función de vecindad:
relación entre neuronas
próximas en el mapa.
21. RNA no supervisadas III
Aprendizaje:
Inicialización de los pesos wij
Presentación de las entradas x(t)
Cada neurona calcula, la similitud entre su vector de pesos wij y
el vector de entrada x, usando la distancia Euclídea
Determinación de la neurona ganadora:
Actualización de los pesos de la neurona ganadora y sus vecinas
Las demás neuronas no actualizan su peso
Si se ha alcanzado el número de iteraciones parar, si no volver al
paso 2.
22. VENTAJAS
Ventajas de las RNA:
Aprendizaje adaptativo: lo necesario es aplicar un buen
algoritmo y disponer de patrones (pares) de entrenamiento.
Auto-organización => conduce a la generalización
Tolerancia a fallos: las redes pueden aprender patrones que
contienen ruido, distorsión o que están incompletos.
Operación en tiempo real: procesan gran cantidad de datos en
poco tiempo.
Facilidad de inserción en tecnología ya existente.
23. APLICACIONES
Detección de patrones.
Filtrado de señales
Segmentación de datos
Control
Identificación.
25. Identificación de sistemas
La identificación consiste en calcular un modelo del sistema en base
a datos experimentales.
Pasos:
Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...)
Obtener un conjunto de datos experimentales
Seleccionar un modelo de la clase elegida
Estimar los parámetros (método de Identificación: LS,RLS,IV,...)
Validación (exactitud, adecuación de uso)
Sistema
Entrada: u(t) Salida: y(t)
26. RNA que representan el tiempo
Representación del tiempo.
Tratamiento de señales.
Identificación de modelos dinámicos
Control de sistemas.
Redes dinámicas:
Respuesta a:
Las entradas actuales
La historia pasada del sistema.
Dotar de memoria a la red:
Introduciendo directamente en la red tanto la señal actual
como los valores pasados.
Mediante conexiones recurrentes.
27. Red PML con ventana temporal
Ventanas de datos pasadas de las entradas y de las salidas.
Ventajas:
Algoritmo simple es suficiente
No problemas de realimentación
Desventajas
Información útil debe “caber” en la ventana temporal
Muchas entradas Sobreparametrización
u(t)
u(t-1)
u(t-2)
…
u(t-m)
y(t-1)
y(t-2)
…
ym (t)
28. Redes neuronales recurrentes
Redes neuronales parcialmente
recurrentes:
Conexiones recurrentes con
valores fijos
Algoritmo de aprendizaje “ve”
una red perceptrón multicapa
Ejemplos:
Jordan
Elman
Redes neuronales recurrentes:
Todas las neuronas
interconectadas
Computacionalmente costoso
29. Estructuras neuronales para la
identificación
Determinación o elección de la estructura del modelo.
¿Es necesario un modelo neuronal?
Nos basamos en modelos establecidos en el caso lineal
Diseño:
Variables que forman parte del regresor (t)
Función no-lineal g(·,·) desde el espacio de regresiones al
espacio de salida NO en modelos lineales
y(t)=g(q,(t))+e(t)
Estructura de caja negra: modelo de entrada- salida.
Elementos del regresor:
Entradas pasadas u(t-k)
Salidas pasadas medidas: y(t-k)
Salidas pasadas calculadas por el modelo: ÿu(t-k|q)
Residuos pasados calculados: eu(t-k)=y(t-k)-ÿu(t-k|q)
30. Modelo NARX
Ventajas:
Puede aproximar cualquier sistema no-lineal arbitrariamente
bien
No recurrente.
Desventajas:
Vector de regresión puede ser grande
No se modela el ruido
ut
g
yt
)
(
ˆ t
y
yt
(t)=[y(t-1) ... y(t-n) u(t-k) ... u(t-m-k+1)]T
)),
(
,
(
)
(
ˆ t
g
t
y
q
31. Modelo NOE
ut
g
t
ŷ
yt
)
(
ˆ t
y
yt
T
k
m
t
u
k
t
u
n
t
y
t
y
t )]
1
(
...
)
(
)
|
(
ˆ
...
)
|
1
(
ˆ
[
)
(
q
q
)
),
(
(
)
|
(
ˆ q
q t
g
t
y
Corresponde a una red recurrente, ya que parte de las entradas
constituye la salida de la propia red.
Comprobación difícil para modelo de predicción estable
Entrenamiento laborioso por cálculo correcto de gradientes
32. Validación
Validación: es el proceso de comprobación de la utilidad de modelo
obtenido:
Si el modelo concuerda con los datos observados
Si servirá al propósito para el que fue creado
Si describe el sistema real
Enfoque neuronal:
Conjunto de datos de entrenamiento
Conjunto de datos de test.
Conjunto de datos de validación.
Enfoque basado en correlaciones:
Test de blancura de los residuos
…
33. Ejemplo I
Transforma un producto A en otro B
Reacción química exotérmica
Se controla la temperatura mediante
una camisa por la que circula un
refrigerante
Salidas:
Ca Cb Tl Tr
Entradas:
Manipulables: Fl Fr
Perturbaciones medibles:
Ca0 Tl0 Tr0
Camisa
Reactor
Fl, Ca0, Tl0
Fr, Tr0
Ca, Cb, Tl Tr
A B
34. Ejemplo II
El periodo de muestreo es T = 0.2 horas
Las entradas han de ser tales que provoquen todas las salidas de
interés
35. Ejemplo III
Se normalizan los datos de entrada y salida
Se entrenan cuatro redes, cada una modela una salida
Se usa el algoritmo backpropagation
R.N.A. Elman
R.N.A. Elman
R.N.A. Elman
R.N.A. Elman
Ca
Cb
Tl
Tr
Fl
Fr
Ca0
Tl0
Tr0