Redes Neuronales Basadas En Sistemas Difusos

3,428 views

Published on

Redes Neuronales Basadas En Sistemas Difusos

Published in: Education
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
3,428
On SlideShare
0
From Embeds
0
Number of Embeds
15
Actions
Shares
0
Downloads
259
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Redes Neuronales Basadas En Sistemas Difusos

  1. 1. UNIDAD 4 Redes Neuronales Basadas En Sistemas Difusos.
  2. 2. Neuronas D ifusa G eneralizadas y Redes <ul><li>Se considerara una red neuronal constituida por m neuronas difusas las cuales aceptan n entradas . </li></ul><ul><li>L a fusificación dentro de una neurona puede ser en las entradas sinápticas (pesos), la operación de agregación y la función de transferencia . </li></ul>
  3. 3. <ul><li>Los conjuntos difusos pueden ser utilizados para describir varios aspectos de procesamiento neuronal . </li></ul><ul><li>A lgunas convenciones frecuentes de las redes neuronales difusas son: </li></ul>
  4. 4. Entradas S inápticas <ul><li>El vector de entrada x = [ x 1 , x 2 , x 3 ,. . ., x n ] T  R para una neurona difusa se pueden ver como grados de membresía a un conjunto difuso. </li></ul><ul><li>Las entradas individuales x i  R se tomaran para representar las señales difusas acotadas por un grado de membresía sobre el intervalo unidad. </li></ul>
  5. 5. Entradas Dendríticas <ul><li>Para cada j-esima neurona en una R ed las entradas dendríticas también estan limitadas por un grado de membresía sobre el intervalo unidad . </li></ul><ul><li>Las cantidades difusas de las entradas dendríticas son conjuntos difusos. </li></ul>
  6. 6. Valores Agregados <ul><li>La salida del operador de agregación en cada una de las m neuronas difusas de la R ed se puede entend er como un grado de membresía sobre el intervalo unidad, de modo que se t i ene: </li></ul>
  7. 7. Salida De La Neurona <ul><li>Finalmente la salida y j de las m neuronas difusas también se pueden visualizar como grados de membresía para un conjunto difuso: </li></ul>
  8. 8. <ul><li>La función peso w ij que transforma una entrada externa x i en una señal dendrítica d ij para la j-esima neurona difusa no tienen que ser solo una ganancia simple. En general, ésta puede ser una relación difusa en todo el plano cartesiano w ij = x i  d ij . </li></ul>
  9. 9. <ul><li>Tal que una unión sináptica de la relación entre la s entrada s externa s x i y la s entrada s dendrítica s d ij asume muchas formas , la mas simple y actualmente la mas común es: d ij = x i w ij . </li></ul><ul><li>Más general: </li></ul>
  10. 10. Negación Difusa <ul><li>El concepto de negación difusa es utilizado para implementar las entradas de excitación e inhibición a una neurona difusa . </li></ul><ul><li>Se define una nueva variable: </li></ul>Donde:
  11. 11. Funciones De Agregación Y Activación En Neuronas Difusas <ul><li>En una neurona difusa el operador de agregación puede ser una norma – T: </li></ul>
  12. 12. <ul><li>Alguna veces la neuronas difusas no utilizan un Umbral; en esas ocaciones el umbral estará contenido dentro del tipo de función de activación. </li></ul>
  13. 13. <ul><li>La función de activación es un operador de relación que transforma la membresía del conjunto difuso agregación en el conjunto difuso de respuesta neuronal. </li></ul>
  14. 14. <ul><li>El operador de relación corresponde a un modificador lingüístico, como MUY y mas o menos. </li></ul>
  15. 15. <ul><li>El papel de este modificador es aumentar o disminuir el grado para el cual las entradas externas dan alcance a el valor difuso representado por la neurona difusa jth, antes de que se convierta en una entrada externa para neuronas vecinas. </li></ul>
  16. 16. Neurona Difusa <ul><li>Respuesta </li></ul>
  17. 17. Función De Activación Lineal <ul><li>Caso especial de una neurona difusa simplificada: </li></ul><ul><li>La relación de las normas T y normas S se da a través de las leyes de De Morgan difusas. </li></ul>
  18. 18. Neuronas Difusas Con AND Y OR <ul><li>Estas neuronas emplean normas T y S para formar las entradas dendriticas al soma y para realizar la agregación. </li></ul><ul><li>AND: </li></ul><ul><li> </li></ul><ul><ul><li>OR: </li></ul></ul>
  19. 19. <ul><li>La neurona AND primero realiza una norma S o una operación OR entre la entrada externa y el peso correspondiente: </li></ul>AND x 1 x 2 x n y j w 1 w 2 w n
  20. 20. <ul><li>T despues utiliza una norma T o una operación AND para obtener la agregación de todas las dendrítas de entrada: </li></ul>OR x 1 x 2 x n y j w 1 w 2 w n
  21. 21. Neuronas AND y OR Con Umbral <ul><li>AND: </li></ul><ul><li>OR: </li></ul>
  22. 22. Redes Neuronales Difusas Multicapa <ul><li>Las neuronas difusas se pueden conecta r para formar redes multicapa. </li></ul><ul><li>Las redes multicapa tienen tres capas , cada una implementa una función diferente. </li></ul>
  23. 23. <ul><li>Red Multicapa de neuronas difusas. </li></ul>
  24. 24. <ul><li>En la figura anterior la capa oculta usa neuronas AND que utilizan una norma tipo T para la agregación. </li></ul><ul><li>La salida de la capa oculta es denotada por Z h donde h es el índice del nodo oculto. </li></ul>
  25. 25. <ul><li>Esta es implementada en MATLAB con el producto de normas T y la suma probabilística de las normas S. </li></ul><ul><li>La evaluación de todas la neuronas difusas en la red multicapa puede ser combinada dentro de una sola función. El siguiente código simula la red neuronal difusa. </li></ul>
  26. 26. <ul><li>Donde: </li></ul><ul><li>x es el vector de entrada. </li></ul><ul><li>size(x) = (patterns, inputs). </li></ul><ul><li>w es el vector de pesos oculto. </li></ul><ul><li>size(w) = (inputs, hidden neurons). </li></ul><ul><li>v es la salida del vector de pesos. </li></ul><ul><li>size(v) = (hidden neurons, output neurons). </li></ul><ul><li>y es la salida del vector. </li></ul><ul><li>size(y) = (patterns, output neurons). </li></ul>
  27. 27. <ul><li>Como un simple ejemplo, suponemos que tenemos una red con 2 entradas, un nodo oculto y una salida. Dos patrones dados: </li></ul><ul><li>  . </li></ul><ul><li>x=[.1 .3 .9 .7;.7 .4 .3 .6 ]; </li></ul><ul><li>% Two patterns of 2 inputs and their complements. </li></ul><ul><li>w=[.2 .5;-.2 .8;.9 -.3;.6 .2;]; </li></ul><ul><li>% Two hidden nodes. </li></ul><ul><li>v=[0.3 0.7]; </li></ul><ul><li>% One output node. </li></ul><ul><li>y=fuzzy_nn(x,w,v). </li></ul><ul><li>% Simulate the network. </li></ul><ul><li>y = </li></ul><ul><li>0.2281. </li></ul><ul><li>0.0803. </li></ul>
  28. 28. Red Homogénea T AND T AND T AND T AND x 1 x 2 x n T AND S (OR) y y 1 y 2 y m
  29. 29. Aprendizaje y adaptación de una red neuronal difusa Proceso de Aprendizaje
  30. 30. Proceso de Aprendizaje <ul><li>El procesos de entrenamiento en una red neuronal difusa consiste en modificar los parámetros o pesos de la red para obtener una valor óptimo. </li></ul><ul><li>Esto requiere de una colección de pares de entrada-salida y é sto requiere de un índice que exprese el mapa de las entradas y los objetivos correspondientes. </li></ul>
  31. 31. <ul><li>En una neurona difusa, la conexión sináptica es representada como una relación difusa de dos dimensiones, donde hay una entrada sináptica y una salida . </li></ul><ul><li>El entrenamiento en neuronas difusas, en el casos más general, envuelve cambios en una relación bidimensional para cada sinapsis. </li></ul>
  32. 32. <ul><li>En una conexión sináptica para una jth neurona, </li></ul>
  33. 33. <ul><li>Donde: </li></ul><ul><li>Se tiene una entrada externa en el tiempo k , X i (k) , y se quiere determinar la correspondiente relación difusa W ij (k) , tal que se tenga un mínimo error e(k) entre la respuesta de la neurona difusa y el objetivo deseado t j (k); </li></ul>
  34. 34. <ul><li>Se puede determinar o modificar el peso W ij (k) al utiliza r la siguiente regla de adaptación : </li></ul>Donde es el cambio de la superficie de la relación difusa dada como una función F[ . ] del error e(k): w ij (k+1) = w ij (k) + w ij (k)
  35. 35. <ul><li>En redes neuronales multicapa, el aprendizaje involucra la relación de o bjetivos t K , con la salida obtenida de la red neuronal , y . </li></ul>Q =  [y(x k ) – t k ] 2 N K=1
  36. 36. Representación de Datos en Sistemas Híbridos (NeuroDifusos) Representación de variables
  37. 37. Representación Difusa de variables que son entradas y salidas de RNA. <ul><li>Algunas veces la distribución de las posibles salidas de una RNA requiere de un gran número de neuronas, lo cual implica un aumento en la complejidad y el tiempo entrenamiento. </li></ul>
  38. 38. <ul><li>Si se considera una representación difusa o ling üística de las variables, se pueden reducir de “n” salidas a solo algunas representadas por conjuntos que agrupan los posibles valores. </li></ul>
  39. 39. Secuencia de Eventos <ul><li>Eventos involucrados a l utilizar datos difusos en RNA’s son: </li></ul><ul><li>1.- Conversión de Datos exactos o difusos en funciones de membresía o conjuntos. </li></ul>
  40. 40. <ul><li>2.- Dichas valores de funciones o conjuntos son sujetos a operaciones lógicas difusas. </li></ul><ul><li>3.- Los resultados son defusificados en valores exactos que se presentan a la RNA. </li></ul>
  41. 41. <ul><li>4.- Las rna’s pueden tener entradas exactas directas y no necesitar del proceso de fusificación. </li></ul><ul><li>5.- La salida de la RNA es un conjunto esacto que utiliza una función de membresía para convertirla en una variable difusa. </li></ul>
  42. 42. <ul><li>6.- Entonces dicha salida difusa es calculada en LD. </li></ul><ul><li>7.- Al final las salidas difusas se defusifican a fin de tener una salida exacta del sistema. </li></ul>
  43. 43. Codificación Difusa “uno-de-n” de entradas a una RNA <ul><li>Típicamente una variable de entrada se representa por un nodo de entrada en las RNA’s. </li></ul><ul><li>Cuando una variable tiene una relación especifica con otras variables sobre una pequeña porción de su rango, el entrenamiento se dificulta. </li></ul>
  44. 44. <ul><li>Esto se puede solucionar teniendo neuronas que se enfoquen a una región específica. El dominio es dividido en “n” (3, 5 ó 7) regiones y a cada una se le asigna un conjunto difuso de tipo triángular. </li></ul><ul><li>El valor de membresía en cada conjunto difuso determina el nivel de activación de su neurona de entradas asociada. </li></ul>
  45. 45. <ul><li>Esta codificación (uno de n) expande el rango de la variable a n entradas de red, donde cada una cubre una fracción del dominio. </li></ul><ul><li>Esta técnica es ventajosa solo cuando la importancia de la variable cambia significativamente en el dominio. </li></ul>
  46. 46. Control Difuso en el algoritmo de aprendizaje de Retropropagación <ul><li>Muchos métodos para acelerar el aprendizaje en redes de retropropagación han sido probados con variados grados de éxito . </li></ul>
  47. 47. <ul><li>Uno de los más comunes es ajustar la tasa de aprendizaje durante el entrenamiento usando un método adaptativo que satisfaga algunos índices de desempeño. </li></ul>
  48. 48. <ul><li>Los sistemas difusos pueden ser vistos como una red feedforward y se han desarrollado algoritmos de retropropagación para su entrenamiento, relacionando patrones o variables de entrada y salida deseadas. </li></ul>
  49. 49. <ul><li>Existen métodos en los cuales un controlador difuso on-line se utiliza para adaptar el aprendizaje de parámetros de un perceptron multicapa que utiliza aprendizaje backpropagation. </li></ul>
  50. 50. Algunas aplicaciones en la Ingeniería <ul><li>Redes difusas neuronales para integrar el aprendizaje neuronal con la capacidad de representación de conocimiento de los sistemas difusos . </li></ul>
  51. 51. <ul><li>Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico de un problema dado . </li></ul><ul><li>Las capas y nodos de una red neurodifusa pueden ser interpretadas como una realización de reglas difusas if/then . </li></ul>
  52. 52. <ul><li>Pedrycz y Rocha (1993) modelos neurodifusos usando operadores lógicos (AND,OR,NOT), así como normas T y S. </li></ul><ul><li>Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación de conocimiento), compuesto de neuronas básicas AND y OR usadas en clasificación de patrones. </li></ul>
  53. 53. <ul><li>Zhang y Chen (1994) utilizan un híbrido que consistía de una red de parámetros estimables, una capa convertidora, y una basada en backpropagation para la clasificación de problemas con características complejas. Ha sido aplicada a la clasificación de imágenes de satélites y determinación litográfica. </li></ul>
  54. 54. <ul><li>Sharpe (1994) presentó un método híbrido usando técnicas de LD para adaptar el criterio de configuración de una red convencional. </li></ul><ul><li>Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de aprendizaje de una RNA durante el entrenamiento ajustando la tasa de acuerdo al error de salida de una neurona y a reglas heurísticas establecidas. </li></ul>
  55. 55. <ul><li>Kwan y Cai (1994) estructura de cuatro capas feedforward de una red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4 capas permiten resolver muchos problemas de reconocimiento de patrones. </li></ul><ul><li>En una aplicación biotecnológica, una red neuronal difusa de 5 capas fue desarrollada para el control de cultivo de Escherichia. </li></ul>

×