Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Diseño Ad Hoc de Controladores Lógicos Difusos
1. Controladores Lógicos: Temario
Módulo I. Control de Sistemas.
Módulo II. Fundamentos de Lógica Difusa.
Módulo III. Sistemas Basados en Reglas Difusas.
Módulo IV. Aprendizaje y Adaptación en Sistemas
Basados en Reglas Difusas.
Tema 8. Diseño Automático de Sistemas Basados en
Reglas Difusas para Control.
Tema 9. Diseño Ad Hoc.
Tema 10. Diseño con Algoritmos Genéticos.
Esquema de la asignatura Controladores Lógicos
MÓDULO IV: Aprendizaje y Adaptación en
Sistemas Basados en Reglas Difusas
Tema 9. Diseño Ad-Hoc
2. Tema 9: Diseño Ad Hoc
Objetivos:
Conocer cómo se caracterizan los métodos de diseño
automático ad hoc
Comprender cómo funcionan algunos métodos de
diseño automático basados en cobertura de
ejemplos
Tema 9: Diseño Ad Hoc
1. Introducción
2. Métodos Ad Hoc
2.1. Caracterización
2.2. Taxonomía
3. Algunos Ejemplos
3.1. Método de Wang y Mendel
3.2. Método de Cordón y Herrera
3.3. Relación entre los dos enfoques
3. 1. Introducción
Conjunto
de Aprendizaje Controlador
Planta Difuso
ejemplos automático
Generalmente con
mecanismos complejos como
las Redes Neuronales o los
Algoritmos Genéticos
Métodos Específicos de Envoltura de Ejemplos
Sin técnicas de búsqueda u optimización
Basados en criterios de envoltura de los datos del conjunto
de ejemplos
1. Introducción
Ventajas:
Fáciles de entender e implementar
Proceso de aprendizaje muy rápido
Ideales para integrarlos en procesos de aprendizaje más
complejos (aproximación preliminar, soluciones iniciales para
refinarlas, meta-aprendizaje, etc.)
Inconvenientes:
Falta de precisión en algunos casos
Grado de automatización más bajo (es necesario fijar a priori
más parámetros del controlador)
4. 2.1. Caracterización de los Métodos Ad
Hoc
1. Aprendizaje basado en un conjunto de ejemplos que representa el
comportamiento del problema
2. Definición previa de la base de datos compuesta por las particiones
difusas de las variables de entrada y salida
MP P N G MG
0,5
d i
3. Aprendizaje de las reglas lingüísticas haciendo uso de criterios de
envoltura de los datos del conjunto de ejemplos
4. Proceso de aprendizaje mediante algoritmos específicos
desarrollados para tal fin sin atender a ningún paradigma de
búsqueda u optimización
2.2. Taxonomía de los Métodos Ad Hoc
Guiados por ejemplos
Conjunto de Ejemplos Conjunto de Reglas Candidatas Base de Reglas
}
1 1 1
e = (x , x , y )
1
1
1
2
1 RC = SI X 1 es A1
1
y X 2 es A1
2
ENTONCES Y es B S 1
e R
2 2 2 l
e = (x , x , y )
2
1
2
2
2 RC = SI X 1 es A2
1
y X 2 es A2
2
ENTONCES Y es B e R
2
c 3
c R
...
...
i
...
N N ó
e = (x N , x N , y N )
1 2
RC = SI X 1 es A N y X 2 es A N ENTONCES Y es B N
1 2
n
Guiados por rejilla difusa
As
1
s
R = SI X 1 es A s y X 2 es A s ENTONCES Y es B s
1 2
As
2
Ss
Base de
Reglas
5. 3.1. Método de Wang y Mendel
1. Considerar una partición difusa del espacio de las variables
2. Generar un conjunto de reglas lingüísticas candidatas
Se busca la regla que mejor envuelve cada ejemplo del conjunto de datos. Así, la
estructura de la regla RCl se obtiene asignando a cada variable la etiqueta lingüística
asociada al conjunto difuso que mejor se empareja con la componente
correspondiente del ejemplo el, es decir,
donde
3. Asignar un grado de importancia a cada regla
Se obtiene calculando el valor de envoltura de la regla sobre el ejemplo
correspondiente de la siguiente forma:
4. Obtener una Base de Reglas final a partir del conjunto de reglas
lingüísticas candidatas
Para ello, se agrupan las reglas lingüísticas según sus antecedentes y se
selecciona en cada grupo la regla con el mayor valor de envoltura
3.1. Método de Wang y Mendel
µ P (0.2) > {µ M (0.2), µ G (0.2)}
Conjunto de Ejemplos
e 1 = (0.2 , 1.0 , 0.3) RC1: Si X1 es P y X2 es M ENTONCES Y es P VE Π (RC1 , e1 ) = 0.373
P
e 2 = (0.4 , 0.8 , 1.0) RC2: Si X1 es P y X2 es M ENTONCES Y es M VE Π (RC 2 , e 2 ) = 0.267
e3 = (1.0 , 1.2 , 1.6) RC3: Si X1 es M y X2 es M ENTONCES Y es G VE Π (RC 3 , e 3 ) = 0.267
G
e4 = (1.2 , 0.6 , 1.4) RC4: Si X1 es M y X2 es M ENTONCES Y es M VE Π (RC 4 , e 4 ) = 0.102
e5 = (1.8 , 1.8 , 2.0) RC5: Si X1 es G y X2 es G ENTONCES Y es G VE Π (RC 5 , e 5 ) = 0.479
Base de Datos
P M G
X1 X1
X2 P M G
P = B1
0 2 No hay
(-0.65 , 0 , 0.65) No hay No hay
P M G P ejemplos ejemplos ejemplos
X2 M = B2
( 0.35 , 1 , 1.65) R1 R2 No hay
0 2
G= B3
M P G ejemplos
B1 B2 B3
Y ( 1.35 , 2 , 2.65)
No hay No hay
R3
0 2 G ejemplos ejemplos G
6. 3.2. Método de Cordón y Herrera
1. Considerar una partición difusa del espacio de las variables
2. Para cada subespacio de entrada difuso n-dimensional hacer:
2.a. Construir el conjunto de ejemplos positivos contenidos en el subespacio, es
decir, aquellos ejemplos con un grado de pertenencia mayor que cero al
conjunto de antecedentes que define el subespacio
2.b. Si existe al menos un ejemplo positivo hacer:
2.b.i. Considerar aquellos consecuentes (términos lingüísticos de la variable de
salida) que envuelven en un grado mayor que 0 a algún ejemplo positivo
2.b.ii. Calcular el valor de envoltura (VE) de las reglas construidas con estos
consecuentes
2.b.iii. Añadir a la Base de Reglas aquella regla que presente el valor más alto de
la función de valoración de la regla (FVR)
En otro caso, no generar ninguna regla en este subespacio
3.2. Método de Cordón y Herrera
VE( R s s , els ) = Min ⎛ µ As ( x1 ), K, µ As ( x ln ), µ Bs ( y l ) ⎞
⎜ 1
ls
⎟
s s
k
⎝ n ks ⎠
Opciones de FVR:
Grado de envoltura del ejemplo mejor envuelto
FVR 1 ( R s s ) = max VE( R s s , e ls )
k e s ∈E′
s
k
l
Grado medio de envoltura sobre el conjunto de ejemplos
∑ VE(R
e s ∈E′
s
ks
, els )
FVR 2 ( R s s ) = l s
k
E′
s
Promedio de los dos grados de envoltura anteriores
FVR 3 ( R s s ) = FVR 1 ( R s s ) ⋅ FVR 2 ( R s s )
k k k
7. 3.2. Método de Cordón y Herrera
P M G
Conjunto de Ejemplos X
1
X Y
e 1 = (0.2 , 1.0 , 0.3) 2
e 2 = (0.4 , 0.8 , 1.0)
0
e3 = (1.0 , 1.2 , 1.6) P P
e4
e4 = (1.2 , 0.6 , 1.4) e2
e1
e5 = (1.8 , 1.8 , 2.0) M M
e3
G e5 G
Base de Datos 2
P M G
X1
P = B1
X1
0 2
(-0.65 , 0 , 0.65) X2 P M G
P M G No hay
R1 No hay
X2 M = B2 P ejemplos M ejemplos
( 0.35 , 1 , 1.65)
FVR2 (R3 ) = 0,282
0 2
G= B3
R2 R3 No hay
M
B1 B2 B3
Y ( 1.35 , 2 , 2.65) M P M ejemplos
FVR2 (R 3 ) = 0,154
G
0 2 No hay No hay
R4
G ejemplos ejemplos G
3.3. Relación entre los Dos Enfoques
Guiado por ejemplos Guiado por rejilla difusa
(Wang-Mendel) (Cordón-Herrera)
Partición difusa de la variable de entrada 1 Partición difusa de la variable de entrada 1
Partición difusa de la variable de entrada 2
Partición difusa de la variable de entrada 2
1 regla
2 reglas
4 reglas
Guiados por ejemplos: un ejemplo sólo participa en la generación
de una regla lingüística
Guiados por rejilla difusa: un ejemplo puede participar en varias
reglas; se genera igual o mayor número de reglas
8. Bibliografía Recomendada
Básica:
L.-X. Wang y J.M. Mendel. Generating fuzzy rules by learning
from examples. IEEE Transactions on Systems, Man, and
Cybernetics 22:6 (1992) 1414-1427.
A. Bárdossy y L. Dukstein. Fuzzy rule-based modeling with
application to geophysical, biological and engineering
systems. CRC Press, 1995.