Tema 6 DiseñO Ad Hoc

4,899 views
4,596 views

Published on

1. Introducción.
2. Métodos Ad Hoc.
2.1. Caracterización.
2.2. Taxonomía.
3. Algunos Ejemplos.
3.1. Método de Wang y Mendel.
3.2. Método de Cordón y Herrera.
3.3. Relación entre los dos enfoques.

Published in: Technology, Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
4,899
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
64
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Tema 6 DiseñO Ad Hoc

  1. 1. Sistemas Difusos Tema 6 Tema 6.- Diseño Ad hoc. 1. Introducción. 2. Métodos Ad Hoc. 2.1. Caracterización. 2.2. Taxonomía. 3. Algunos Ejemplos. 3.1. Método de Wang y Mendel. 3.2. Método de Cordón y Herrera. 3.3. Relación entre los dos enfoques. Objetivos: - Conocer cómo se caracterizan los métodos de diseño automático ad hoc. - Comprender cómo funcionan algunos métodos de diseño automático basados en cobertura de ejemplos. –1–
  2. 2. Sistemas Difusos Tema 6 1.- Introducción. Conjunto de Aprendizaje Controlador Planta ejemplos automático Difuso Generalmente con mecanismos complejos como las Redes Neuronales o los Algoritmos Genéticos • Métodos Específicos de Envoltura de Ejemplos: o Sin técnicas de búsqueda u optimización. o Basados en criterios de envoltura de los datos del conjunto de ejemplos. • Ventajas: Fáciles de entender e implementar. Proceso de aprendizaje muy rápido. Ideales para integrarlos en procesos de aprendizaje más complejos (aproximación preliminar, soluciones iniciales para refinarlas, meta-aprendizaje, etc.). • Inconvenientes: Falta de precisión en algunos casos. Grado de automatización más bajo (es necesario fijar a priori más parámetros del controlador). –2–
  3. 3. Sistemas Difusos Tema 6 2.- Métodos Ad Hoc. 2.1.- Caracterización de los Métodos Ad Hoc. • Aprendizaje basado en un conjunto de ejemplos que representa el comportamiento del problema. • Definición previa de la base de datos compuesta por las particiones difusas de las variables de entrada y salida. MP P N G MG 0,5 d i • Aprendizaje de las reglas lingüísticas haciendo uso de criterios de envoltura de los datos del conjunto de ejemplos. • Proceso de aprendizaje mediante algoritmos específicos desarrollados para tal fin sin atender a ningún paradigma de búsqueda u optimización. –3–
  4. 4. Sistemas Difusos Tema 6 2.2.- Taxonomía de los Métodos Ad Hoc. • Guiados por ejemplos: Conjunto de Ejemplos: e1 = ( x1 , x1 , y1 ) 1 2 e2 = ( x 2 , x 2 , y2 ) 1 2 eN = ( x1N , x2 , y N ) N Conjunto de Reglas: RC1 : SI X1 es A1 y X 2 es A2 ENTONCES Y es B1 1 1 RC 2 : SI X1 es A1 y X 2 es A2 ENTONCESY es B2 2 2 RC N : SI X1 es A1N y X 2 es A2 ENTONCES Y es BN N Selección: Base de Reglas: R1 , R2 , R3 ,… • Guiados por rejilla difusa: A1 s s s s R = SI X 1 es A 1 y X 2 es A 2 ENTONCES Y es B s A2 Ss Base de Reglas –4–
  5. 5. Sistemas Difusos Tema 6 3.- Algunos Ejemplos. 3.1. Método de Wang y Mendel. 1. Considerar una partición difusa del espacio de las variables. 2. Generar un conjunto de reglas lingüísticas candidatas. Se busca la regla que mejor envuelve cada ejemplo del l conjunto de datos. Así, la estructura de la regla RC se obtiene asignando a cada variable la etiqueta lingüística asociada al conjunto difuso que mejor se empareja con la componente correspondiente del ejemplo el, es decir, donde 3. Asignar un grado de importancia a cada regla. Se obtiene calculando el valor de envoltura de la regla sobre el ejemplo correspondiente de la siguiente forma: 4. Obtener una Base de Reglas final a partir del conjunto de reglas lingüísticas candidatas. Para ello, se agrupan las reglas lingüísticas según sus antecedentes y se selecciona en cada grupo la regla con el mayor valor de envoltura. –5–
  6. 6. Sistemas Difusos Tema 6 3.1. Método de Wang y Mendel. Ejemplo. µ P (0.2) > { µM (0.2), µG (0.2)} Conjunto de Ejemplos 1 VE Π ( RC 1, e1 ) = 0.373 e 1 = (0.2 , 1.0 , 0.3) RC : Si X1 es P y X2 es M ENTONCES Y es P 2 P e 2 = (0.4 , 0.8 , 1.0) RC : Si X1 es P y X2 es M ENTONCES Y es M VE Π ( RC 2 , e2 ) = 0.267 3 e3 = (1.0 , 1.2 , 1.6) RC : Si X1 es M y X2 es M ENTONCES Y es G VE Π ( RC 3 , e3 ) = 0.267 4 G e4 = (1.2 , 0.6 , 1.4) RC : Si X1 es M y X2 es M ENTONCES Y es M VE Π ( RC 4 , e4 ) = 0.102 e5 = (1.8 , 1.8 , 2.0) 5 RC : Si X1 es G y X2 es G ENTONCES Y es G VE Π ( RC 5 , e5 ) = 0.479 Base de Datos P M G X1 X1 X2 P M G P= B1 0 2 (-0.65 , 0 , 0.65) N o hay N o hay N o hay P M G P ejemplo ejemplo ejemplo X2 M= B2 ( 0.35 , 1 , 1.65) R1 R2 N o hay 0 2 B1 B2 B3 G= B3 M P G ejemplo Y ( 1.35 , 2 , 2.65) N o hay N o hay R3 0 2 G ejemplo ejemplo G –6–
  7. 7. Sistemas Difusos Tema 6 3.- Algunos Ejemplos. 3.2. Método de Cordón y Herrera. 1) Considerar una partición difusa del espacio de las variables. 2) Para cada subespacio de entrada difuso n- dimensional hacer: a) Construir el conjunto de ejemplos positivos contenidos en el subespacio, es decir, aquellos ejemplos con un grado de pertenencia mayor que cero al conjunto de antecedentes que define el subespacio. b) Si existe al menos un ejemplo positivo hacer: i) Considerar aquellos consecuentes (términos lingüísticos de la variable de salida) que envuelven en un grado mayor que 0 a algún ejemplo positivo. ii) Calcular el valor de envoltura (VE) de las reglas construidas con estos consecuentes. iii) Añadir a la Base de Reglas aquella regla que presente el valor más alto de la función de valoración de la regla (FVR). En otro caso, no generar ninguna regla en este subespacio. –7–
  8. 8. Sistemas Difusos Tema 6 3.2. Método de Cordón y Herrera. Consideraciones: VE( Rsk s , els ) = Min  µA s ( x 1 ), …, µ As ( x ln ), µBs ( y l )  ls s s  1   n ks  • Opciones de FVR: • Grado de envoltura del ejemplo mejor envuelto: FVR 1 ( R s s ) = max VE( R sk s , els ) k ′ e s ∈E s l • Grado medio de envoltura sobre el conjunto de ejemplos: ∑ VE( R s s , els ) e s ∈E′ k FVR 2 ( R ) = s l s ks E′ s • Promedio de los dos grados de envoltura anteriores FVR3 ( Rkss ) = FVR1 ( Rkss ) ⋅ FVR2 ( Rkss ) –8–
  9. 9. Sistemas Difusos Tema 6 3.2. Método de Cordón y Herrera. Ejemplo. P M G Conjunto de Ejemplos X 1 X Y e 1= (0.2 , 1.0 , 0.3) 2 e 2= (0.4 , 0.8 , 1.0) 0 e3 = (1.0 , 1.2 , 1.6) P P e4 e4 = (1.2 , 0.6 , 1.4) e2 e1 e5 = (1.8 , 1.8 , 2.0) M M e3 G e5 G Base de Datos 2 P M G X1 X1 0 2 P = B1 X P M G (-0.65 , 0 , 0.65) 2 R1 P M G N o hay X2 N o hay M = B2 P ejemplo M ejemplo 0 2 ( 0.35 , 1 , 1.65) FVR2 (R3 ) = 0, 282 G = B3 R2 R3 N o hay M B1 B2 B3 Y ( 1.35 , 2 , 2.65) M P M ejemplo FVR2 (RG ) = 0,154 3 0 2 N o hay N o hay R4 G ejemplo ejemplo G –9–
  10. 10. Sistemas Difusos Tema 6 3.3. Relación entre los Dos Enfoques. • Guiados por ejemplos: Un ejemplo sólo participa en la generación de una regla lingüística. Guiado por ejemplos (Wang-Mendel) Partición difusa de la v ariable de entrada 1 Partición difusa de la variable de entrada 2 • Guiados por rejilla difusa: Un ejemplo puede participar en varias reglas; se genera igual o mayor número de reglas. Guiado por rejilla difusa (Cordón-Herrera) Partición difusa de la v ariable de entrada 1 Partición difusa de la variable de entrada 2 1 regla 2 reglas 4 reglas – 10 –

×