Red Neuronal Difusa

6,175 views
5,939 views

Published on

Red Neuronal Difusa

Published in: Education
1 Comment
1 Like
Statistics
Notes
No Downloads
Views
Total views
6,175
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
176
Comments
1
Likes
1
Embeds 0
No embeds

No notes for slide

Red Neuronal Difusa

  1. 1. Aprendizaje y adaptación de una red neuronal difusa El procesos de entrenamiento en una red neuronal difusa consiste en modificar los parámetros o pesos de la red para obtener una valor óptimo. Esto requiere de una colección de pares de entrada-salida y esto requiere de un índice que exprese el mapa de las entradas y los objetivos correspondientes. Para una neurona difusa, la conexión sináptica es representada como una relación difusa de dos dimensiones, donde hay una entrada sináptica y una salida. El entrenamiento en neuronas difusas, en el casos más general, envuelve cambios en una relación bidimensional para cada sinapsis. Considerando una conexión sináptica para la jth neurona, la cual tiene una entrada externa para una tiempo k, Xi(k), el peso difuso Wij(k), un mínimo error e(k) que se obtiene de la diferencia entre la respuesta de salida de la neurona y el objetivo determinado. Para determinar o modificar el peso Wij(k) se utiliza la siguiente regla: Donde ∆Wij (k ) es el cambio de la relación difusa que existe del error e(k): ∆Wij ( k ) =F [t j ( k ) −y j ( k )] En redes neuronales multicapa, involucra varios objetivos (t), con la salida obtenida en la red neuronal y. Para esto, existe una función distancia por ejemplo: distancia euclidiana y un error Q (error global minimizado) definido como:
  2. 2. FUZZY ARTMAP La red ART tiene la habilidad de crear nuevas categorias con una aproximacion arbitraria para clasificar entradas que no son clasificadas en las categorias existentes. Con la introduccion de conceptos difusos , la Fuzzy ARTMAP fue desarrollada por Carpenter y Grossberg en 1994. MAP se refiere al proceso de mapear las entradas a la salida. Esta red es una sintesis de la ART-1 y la logica difusa y es capaz de aceptar entradas continuas o binarias. La fuzzy ARTMAP es una arquitectura autoorganizativa que es capaz de aprender a reconocer rapidamente, y predecir las consecuencias de virtualmente cualquier entrada. La ARTMAP involucra una combinacion de operaciones neuronales y difusas, que juntas producen estas capacidades de la red. Como otras versiones de la ART, su uso es casi exclusivamente para clasificacion, y solo tiene un parametro de interfaz, el parametro de vigilancia, el cual determina la fineza o generalidad de las categorias en las cuales las entradas son clasificadas. La red puede aprender virtualmente cualquier patron de entrenamiento en pocas iteraciones de entrenamiento en un modo no supervisado. La Fuzzy ARTMAP opera determinando automaticamente que tanta generalizacion o precision es necesaria a la hora de clasificar una entrada. Las categorias mas generales aceptan entradas con valores caracteristicos mas difusos. El rango de aceptabilidad (o nivel difuso) de una categoria en particular es aprendido a través de una serie de iteraciones que involucran el uso de operadores de la logica difusa. Los operadores AND (min) y OR (max) son usados para definir el rango de valores que son tolerados por una categoria por cada variable linguistica o caracteristica. Una funcion de membresia en el rango de 0 a 1 se usa para determinar la aceptabilidad de un patron de entrada en una categoria particular. El operador min ayuda a definir caracteristicas que son criticamente presentes, mientras que el operador max ayuda a definir caracteristicas criticamente ausentes. El operador min puede ser usado por nodos que son activados por una entrada externa, mientras que el operador max puede ser usado por nodos que son desactivados por una entrada externa. De tal manera que los operadores min y max pueden ser introducidos en posiciones apropiadas de una red neuronal mediante switches on-off. La categoria que mas se acerca a un patron de entrada por medio de una operacion difusa. La logica difusa provee un metodo por medio del cual una fuzzy ARTMAP categoriza adaptativamente patrones de entrada analogicos y binarios. Por lo tanto, la fuzzy ARTMAP puede aprender autonomamente a reconocer.
  3. 3. Kasuba desarrollo una fuzzy ARTMAP simplificada en 1993. Esta red reduce la sobrecarga computacional y la redundancia de la arquitectura de una red ARTMAP sin perder la capacidad de reconocimiento de patrones. Normalmente, cuando una red neuronal backpropagation es usada para la clasificacion de patrones, un nodo de salida es asignado a cada categoria de objetos que la red espera reconocer. La fuzzy ARTMAP simplificada tambien se encarga de crear estas categorias como la ARTMAP original. La siguiente figura muestra la estructura de una fuzzy ARTMAP simplificada, la cual consta de una capa de entrada y una de salida con conexiones de pesos, una capa de categoria que interpreta los resultados de la capa de salida, y un codificador de complemento para procesar el vector de entrada. Este codificador de complemento normaliza la entrada y la agranda dos veces su tamaño original para ayudar a la red a formar sus regiones de decisión. El parametro de vigilancia (0 a 1) determina la fineza de las categorias y por lo tanto tambien determina el numero de categorias a ser creadas. La entrada expandida I que sale del codificador de complemento entra a la capa de entrada. Los pesos de cada nodo de categoria de salida representan a las M categorias que la red tiene que aprender. Dado que un
  4. 4. nodo de salida solo puede codificar a una categoria, este nodo solo puede apuntar a una posicion en la capa de categoria. La entrada de categoria solo se proporciona a la capa de categoria durante el entrenamiento supervisado. La parte de match tracker de la red sirve para que la red ajuste por si misma el parametro de vigilacia durante el aprendizaje, lo que permite la creacion de nuevas categorias. La codificacion de complemento es un proceso de normalizacion de la entrada que representa la presencia o ausencia de un vector caracteristico particular a con d componentes en la entrada. Su complemento â = 1 – a es valido dado que a es un valor entre 0 y 1. Por lo tanto, el complemento del vector de entrada I esta dado por el vector bidimensional: I = [a,â]=[a1,a2,...,ad,â1,â2,...,âd] Por ejemplo, el vector tridimensional (0.2,0.8,0.4) es transformado en un vector de seis dimensiones (0.2,0.8,0.4,0.8,0.2,0.6) cuando pasa a través del codificador de complemento. Este proceso automaticamente normaliza los vectores de entrada indicando que la norma de cualquier vector es la suma de todos los elementos del vector. Es decir, la suma de los elementos de un vector complemento es igual a la dimension del vector original. Cuando se le presenta un patron de entrada a esta red, todos los nodos de salida se activan a un determinado nivel. Esta activacion de salida es denotada por Tj para el nodo de salida j-esimo y sus pesos wj. La funcion para producir esta activacion esta dada por: I ∧ wj Tj ( I ) = a + wj Donde a es un valor pequeño cercano a cero, usualmente alrededor de . 0000001. El nodo de salida ganador es el nodo con el valor de activación mas alto; esto es, el ganador es max Tj. Por lo tanto, la categoria asociada con el nodo de salida ganador es la clasificacion de la red del actual patron de entrada. Una funcion match se utiliza para comparar las caracteristicas de la entrada complementada y los pesos de un particular nodo de salida para determinar si el aprendizaje ha ocurrido. Esta funcion match calcula el grado en el que I es un subconjunto de wj – esto es, el valor de la funcion match indica si la entrada es bien clasificada en el nodo j o si se tiene que crear otra categoria de salida. Si esta funcion match es mayor que el parametro de vigilancia, se dice que la red esta en un estado de resonancia. Si la funcion match es menor que el parametro de vigilancia, entonces un nuevo nodo es creado. Una vez que un nodo de salida ganador j ha sido seleccionado para aprender un particular patron de entrada I, el vector
  5. 5. arroba-abajo wj que sale del nodo de salida j es actualizado. La red neuronal fuzzy ARTMAP simplificada es un clasificador de proposito general con pesos arriba-abajo que sirven para el proceso de decisión, lo cual son tan ilustrativos que sus reglas de clasificación pueden ser literalmente leidas de la red. Esta red puede ser comparada con un sistema experto autodidacta en que esta aprende de ejemplos. Representación de Datos en Sistemas Híbridos (Neuro Difusos)  Durante los últimos años se ha tenido un incremento importante en investigaciones para sintetizar la Lógica Difusa (LD) con las Redes Neuronales Artificiales (RNA’s).  Las RNA’s ofrece ventajas en áreas de aprendizaje, clasificación y optimización, mientras que la LD en áreas de razonamiento de alto nivel. Representación Difusa de variables que son entradas y salidas de RNA’s  Algunas veces la distribución de las posibles salidas de una RNA requiere un gran número de neuronas, lo cual implica un aumento en la complejidad y el entrenamiento.  Si se considera una representación difusa o lingüística de las variables, se pueden reducir de “n” salidas a solo algunas representadas por conjuntos que agrupan los posibles valores. Eventos que envuelve el usar datos difusos en RNA’s 1. Datos exactos o difusos se agrupan en funciones de membresía. 2. Estos valores son sujetos a operaciones lógicas difusas. 3. Los resultados son defusificados en valores exactos que se presentan a la RNA. 4. Las RNA’s pueden tener entradas exactas directas y no necesitar de la fusificación.
  6. 6. 5. La salida de la RNA se convierte a una variable difusa. 6. Esta salida difusa es utilizada con LD. 7. Al final las salidas difusas se defusifican a fin de tener una salida exacta del sistema. Codificación Difusa “uno-de-n” de entradas a una RNA  Típicamente una entrada se representa por un nodo de entrada en las RNA’s.  Cuando una variable tiene una relación con otras variables sobre una pequeña porción del rango, el entrenamiento es difícil.  Esto se puede solucionar teniendo redes con neuronas enfocadas a esa región específica. El dominio es dividido en “n” (3,5 ó 7) regiones asignando una función difusa triángular.  El valor de membresía determina el nivel de activación asociado a la neurona de entrada.  Esta codificación (uno de n) expande el rango de la variable en n entradas, cubriendo cada una una fracción del dominio.  Esta técnica es ventajosa solo cuando la importancia de la variable cambia significativamente en el dominio. Aprendizaje de Retropropagación de un Control Difuso  Muchos métodos para acelerar el aprendizaje en redes de retropropagación han sido probados con variados grados de éxito.  Uno de los más comunes es ajustar la tasa de aprendizaje durante el entrenamiento usando un método adaptativo satizfaga algunos índices de desempeño (Delta-bar-delta).  Los sistemas difusos pueden ser vistos como una red feedforward multicapa y han desarrollado algoritmos de retropropgación para su entrenamiento, emparejando los pares de patrones o variables de entrada y salida deseadas.
  7. 7. Algunas aplicaciones de Ingeniería  Las redes neuronales difusas ambicionan integrar el aprendizaje neuronal con la capacidad de representación de conocimiento de los sistemas difusos.  Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico de un problema dado.  Las capas y nodos de una red neurodifusa pueden ser interpretadas como una realización de reglas difusas if/then.  Pedrycz y Rocha (1993) modelos neurodifusos usando operadores lógicos (AND,OR,NOT), así como normas T y S.  Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación de conocimiento), compuesto de neuronas básicas AND y OR usadas en clasificación de patrones.  Los términos difuso neuronal o neurodifusos se refieren en la literatura a combinaciones híbridas de herramientas lógico difusas y neuronales.  Zhang y Chen (1994) utilizan un híbrido que consistía de una red de parámetros estimables, una capa convertidora, y una basada en backpropagation para la clasificiación de problemas con características complejas. Ha sido aplicada a la clasificación de imágenes de satélites y determinación litográfica.  Sharpe (1994) presentó un método híbrido usando técnicas de LD para adaptar el criterio de configuración de una red convencional.  Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de aprendizaje de una RNA durante el entrenamiento ajustando la tasa de acuerdo al error de salida de una neurona y a reglas heurísticas establecidas.  Kwan y Cai (1994) estructura de cuatro capas feedforward de una red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4 capas permiten resolver muchos problemas de reconocimiento de patrones.  En una aplicación biotecnológica, una red neuronal difusa de 5 capas fue desarrollada para el control de cultivo de Escherichia.
  8. 8.  Karayiannis y Pai (1994) desarrollaron una familia de algoritmos difusos para la cuantización e introducción del vector de aprendizaje en redes feedforward inherentemente capaz de clasificación difusa o traslape de clases de patrones.

×