• Save
Raz Aprox0506
Upcoming SlideShare
Loading in...5
×
 

Like this? Share it with your network

Share

Raz Aprox0506

on

  • 941 views

 

Statistics

Views

Total Views
941
Views on SlideShare
941
Embed Views
0

Actions

Likes
0
Downloads
0
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Raz Aprox0506 Presentation Transcript

  • 1. Inteligencia Artificial (IA) Apuntes de Razonamiento Aproximado This work is licensed under the Creative Commons Javier B´jar e C Attribution-NonCommercial-ShareAlike License. BY: $ To view a copy of this license, visit http://creativecommons.org/licenses/by-nc-sa/2.0/ or Departament de Llenguatges i Sistemes Inform`tics a send a letter to: Enginyeria en Inform`tica a 2o Cuatrimestre - curso 05/06 Creative Commons, 559 Nathan Abbott Way, Stanford, C California 94305, $ BY: USA.
  • 2. 1. Razonamiento en sistemas expertos 2. Modelo probabilista Por lo general, el conocimiento que se debe manejar dentro de la mayor´ de los dominios tratados ıa Los modelos probabilistas se fundamentan en la teor´ de la probabilidad. Las probabilidades se ıa por los sistemas basados en el conocimiento (SBC) no es de naturaleza exacta. En la pr´ctica nos a utilizan para modelizar nuestra creencia sobre la veracidad o falsedad de los hechos, de manera que encontramos con problemas como: podamos asignar valores de probabilidad a los diferentes hechos con los que tratamos y utilizar esas probabilidades para razonar sobre su certidumbre. Representar el conocimiento para cubrir todos los hechos que son relevantes para un problema Cada hecho tendr´ una probabilidad asociada de por si, o derivada de la probabilidad de aparici´n a o es dif´ ıcil de otros hechos. Estas probabilidades ser´n las que nos permitir´n tomar decisiones. Esta toma de a a decisiones no es est´tica, la probabilidad de un hecho podr´ ser modificada por la observaci´n y la a a o Existen dominios en los que se desconocen todos los hechos y reglas necesarias para resolver el modificaci´n de la creencia en otros hechos que est´n relacionados. o e problema Existen problemas en los que a´n teniendo las reglas para resolverlos no disponemos de toda u 2.1. Teor´ de probabilidades ıa la informaci´n necesaria o Antes de comenzar a hablar de como modelizar el razonamiento mediante probabilidades, debemos Esto significa que para poder razonar dentro de estos sistemas tendremos que utilizar herra- repasar algunos conceptos esenciales de la teor´ de probabilidades. ıa mientas m´s potentes que las que nos brinda la l´gica cl´sica, que s´lo nos permitir´ trabajar con a o a o ıa El elemento b´sico de teor´ de probabilidades es la variable aleatoria. Una variable aleatoria a ıa conocimiento del que pudi´ramos establecer de manera efectiva su veracidad o falsedad. e tiene un dominio de valores (valores posibles que puede tomar y sobre los que establecemos una dis- De hecho, este objetivo no es descabellado ya que hemos observado que toda persona esta acos- tribuci´n de probabilidad), podemos tener variables aleatorias booleanas, discretas o continuas. o tumbrada a tomar decisiones ante informaci´n incompleta o imprecisa (Invertimos en bolsa, diagnos- o Para poder trasladar la teor´ de la probabilidad a un sistema basado en el conocimiento, debere- ıa ticamos enfermedades, ...) y esa imprecisi´n o falta de conocimiento no impide la toma de decisiones. o mos crear una relaci´n entre la representaci´n del conocimiento que utilizamos y los elementos sobre o o Esta claro que si deseamos que los SBC emulen la capacidad de los expertos hemos de dotarlos de los que establecemos las distribuciones de probabilidad. mecanismos que sean capaces de abordar este problema. En la pr´ctica, toda representaci´n del conocimiento que utilizamos se fundamenta en la l´gica, a o o La imprecisi´n o la falta de certeza en la informaci´n proviene de muchas fuentes, de entre ellas o o de manera que la utilizaremos como lenguaje representaci´n y utilizaremos las f´rmulas l´gicas como o o o podemos citar: elemento b´sico. De esta forma, definiremos una proposici´n l´gica como cualquier f´rmula en a oo o l´gica de enunciados o predicados, siendo ´stas elementos primitivos de nuestra representaci´n. Una o e o 1. Incompletitud de los datos debida a la no disponibilidad de ´stos. e proposici´n l´gica tendr´ asociada una variable aleatoria que indicar´ nuestro grado de creencia en oo a a ella. 2. Incertidumbre de los datos debida a las limitaciones de los aparatos de medida, o a apreciaciones Una variable aleatoria tendr´ asociada una distribuci´n de probabilidad. La forma de expre- a o subjetivas del observador. sar esta distribuci´n de probabilidad depender´ del tipo de variable aleatoria (Discretas: Binomial, o a Multinomial, ...; Continuas: Normal, χ2 , ...). El elegir un tipo de variable aleatoria u otro depende de 3. Incertidumbre en las asociaciones realizadas entre datos y conclusiones. como creamos que la informaci´n correspondiente a la proposici´n l´gica debe modelarse. Para sim- o oo 4. Imprecisi´n en el lenguaje de descripci´n debida al uso del lenguaje natural, ya que se presta o o plificar, s´lo trabajaremos con variables aleatorias discretas, de manera que toda proposici´n l´gica o oo a ambig¨edades y malas interpretaciones. u tendr´ un conjunto enumerado de posibles respuestas. a En cualquier problema, tendremos varias proposiciones l´gicas que intervendr´n en una decisi´n, o a o El tratar con este problema ha llevado a desarrollar un conjunto de l´gicas y modelos que intentan o por lo tanto, tendremos que describir como influyen todas estas variables aleatorias en conjunto tratar el problema de la incompletitud e imprecisi´n del conocimiento desde diferentes perspectivas o sobre la decisi´n. La uni´n de variables aleatorias se puede describir mediante una distribuci´n de o o o y modelizar de esta manera los procesos de razonamiento que aplican las personas. Muchas son las probabilidad conjunta. propuestas que se han desarrollado a lo largo de la evoluci´n de los SBC, nos centraremos unicamente o ´ Denotaremos como P (a) la probabilidad de que la proposici´n A tenga el valor a. Por ejemplo, la o en dos formalismos que provienen de dos visiones distintas de la incertidumbre: proposici´n F umar puede tener los valores {f umar, ¬f umar}, P (¬f umar) es la probabilidad de la o proposici´n F umar = ¬f umar. Denotaremos como P (A) al vector de probabilidades de todos o Modelo probabilista (Redes Bayesianas) los posibles valores de la proposici´n A o Modelo posibilista (L´gica difusa) o Definiremos como probabilidad a priori (P (a)) asociada a una proposici´n como el grado de o creencia en ella a falta de otra informaci´n. Del conjunto de proposiciones que tengamos, algunas no o tienen por que estar influidas por otras, de estas dispondremos de una distribuci´n de probabilidad o a priori que representar´ la probabilidad de que tomen cualquiera de sus valores. a Definiremos como probabilidad a posteriori o condicional (P (a|b)) como el grado de creencia 1 2
  • 3. ¬enf isema enf isema en una proposici´n tras la observaci´n de proposiciones asociadas a ella. Esta probabilidad estar´ aso- o o a varon mujer varon mujer ciada a las proposiciones que se ven influidas por la observaci´n de otras proposiciones, por lo que o f umador 0.2 0.1 0.05 0.05 nuestra creencia en ellas variar´ seg´n la observaci´n de ´stas. a u o e ¬f umador 0.02 0.02 0.23 0.33 La probabilidad a posteriori se puede definir a partir de probabilidades a priori como: A partir de ella podemos hacer ciertas inferencias probabil´ ısticas respecto a la combinaci´n de las o P (a ∧ b) P (a|b) = diferentes proposiciones y su influencia entre ellas P (b) Esta f´rmula se puede transformar en lo que denominaremos la regla del producto: o P (enf isema ∧ varon) = 0,2 + 0,02 P (f umador ∨ mujer) = 0,2 + 0,1 + 0,05 + 0,05 + 0,02 + 0,33 P (a ∧ b) = P (a|b)P (b) = P (b|a)P (a) P (F umador|enf isema) = P (f umador, enf isema, varon) +P (f umador, enf isema, mujer), 2.2. Inferencia probabil´ ıstica P (¬f umador, enf isema, varon) El usar como base de un mecanismo de inferencia la teor´ de la probabilidad, restringe las cosas ıa +P (¬f umador, enf isema, mujer) que podemos creer y deducir al marco de los axiomas en los que se fundamenta la probabilidad. Estos = α 0,3, 0,04 axiomas son: = 0,88, 0,12 Toda probabilidad est´ en el intervalo [0, 1] a Para poder realizar todos estos procesos de inferencia se requiere almacenar y recorrer la distribu- ci´n de probabilidad conjunta de todas las proposiciones. Esto supone un gasto en tiempo y espacio o 0 ≤ P (a) ≤ 1 impracticable. Suponiendo proposiciones binarias el coste en espacio y tiempo es O(2n ) siendo n el n´mero de proposiciones. u La proposici´n cierto tiene probabilidad 1 y la proposici´n f also tiene probabilidad 0 o o Cualquier problema real tiene un n´mero de proposiciones suficiente para hacer que estos mecanis- u P (cierto) = 1 P (f also) = 0 mos de inferencia no sean utiles por su coste computacional. Se hace pues necesario crear mecanismos ´ que nos simplifiquen el coste del razonamiento La probabilidad de la disyunci´n se obtiene mediante la f´rmula o o P (a ∨ b) = P (a) + P (b) − P (a ∧ b) 2.3. Independencia probabil´ ıstica y la regla de Bayes Dadas estas reglas b´sicas, podemos establecer una serie de mecanismos de inferencia, como por a Por lo general, no todas las proposiciones que aparecen en un problema est´n relacionadas entre si. a ejemplo: De hecho para cada proposici´n dependiente podemos identificar s´lo un subconjunto de proposicio- o o nes que las influyen, siendo el resto irrelevantes para la inferencia de sus probabilidades. Llamaremos Marginalizaci´n: Probabilidad de una proposici´n at´mica con independencia de los valores o o o a esta propiedad independencia probabil´ ıstica del resto de proposiciones Suponiendo que dos proposiciones X e Y no se influyen entre si, podemos reescribir sus probabi- P (Y ) = P (Y, z) lidades como: z Probabilidades condicionadas: Probabilidad de una proposici´n dados unos valores pa- o P (X|Y ) = P (X); P (Y |X) = P (Y ); P (X, Y ) = P (X)P (Y ) ra algunas proposiciones e independiente del resto de proposiciones (a partir de la regla del producto) Dadas estas propiedades podremos reescribir las probabilidades conjuntas de manera m´s com- a P (X|e) = α P (X, e, y) pacta reduciendo la complejidad y Anteriormente hemos enunciado la regla del producto como: El valor α es un factor de normalizaci´n que corresponde a factores comunes que hacen que las o probabilidades sumen 1. P (X, Y ) = P (X|Y )P (Y ) = P (Y |X)P (X) Ejemplo 1 Consideremos un problema en el que intervengan las proposiciones F umador = {f umador, Esta regla nos lleva a lo que denominaremos la regla de Bayes ¬f umador}, Sexo = {varon, mujer}, Enf isema = {enf isema, ¬enf isema} P (X|Y )P (Y ) P (Y |X) = La siguiente tabla nos describe las distribuciones de probabilidad conjunta de estas proposiciones P (X) 3 4
  • 4. Deporte P(D) Alimentacion P(A) Esta regla y la propiedad de independencia ser´n el fundamento del razonamiento probabil´ a ıstico Deporte Alimentacion equilibrada 0.4 Si 0.1 y nos permitir´ relacionar las probabilidades de unas evidencias con otras. a no equlibrada 0.6 No 0.9 Suponiendo que podemos estimar exhaustivamente todas las probabilidades que involucran la variable Y podemos prescindir de las probabilidades a priori de la variable X y reescribir la formula de Bayes como: Alim Dep P(P=alta) P(P=normal) Fumador P(F) eq si 0.01 0.99 P (Y |X) = αP (X|Y )P (Y ) Si no eq Presion Sanguinea si 0.2 0.8 0.4 Fumador No 0.6 eq no 0.25 0.75 Esto es as´ porque las probabilidades P (Y = y1 |X) . . . P (Y = yn |X) han de sumar uno, α ser´ un ı a no eq no 0.7 0.3 factor de normalizaci´n. o Suponiendo independencia condicional entre dos variables X e Y podremos escribir la probabili- Pr Sang Fum P(I=si) P(I=no) dad condicional de otra variable Z respecto a estas como: alta si 0.8 0.2 normal si 0.6 0.4 Infarto alta no 0.7 0.3 P (X, Y |Z) = P (X|Z)P (Y |Z) normal no 0.3 0.7 De manera que si substituimos en la regla de Bayes: En cada uno de los nodos de la red aparece la distribuci´n de probabilidad del nodo respecto o a sus padres, es decir, como estos influyen la probabilidad del hijo. Esta forma de representar las P (Z|X, Y ) = αP (X|Z)P (Y |Z)P (Z) influencias entre variables permite factorizar la distribuci´n de probabilidad conjunta, convirti´ndose o e en el producto de probabilidades condicionales independientes 2.4. Redes Bayesianas n P (xi |padres(xi )) P (x1 , x2 , . . . , xn ) = Si determinamos la independencia entre variables podemos simplificar el c´lculo de la combinaci´n a o i=1 de sus probabilidades y su representaci´n, de manera que podremos razonar sobre la influencia de o Ejemplo 3 A partir de la red podemos calcular la probabilidad de una proposici´n l´gica utilizando oo las probabilidades de unas proposiciones l´gicas sobre otras de una manera m´s eficiente o a las relaciones de dependencia entre las variables Las redes bayesianas son un formalismo que permite la representaci´n de las relaciones de o independencia entre un conjunto de variables aleatorias. Una red bayesiana es un grafo dirigido P (Inf arto = si ∧ P resion = alta ∧ F umador = si ac´ıclico que contiene informaci´n probabil´ o ıstica en sus nodos, indicando cual es la influencia que ∧ Deporte = si ∧ Alimentacion = equil) tienen sobre un nodo Xi sus padres en el grafo (P (Xi |padres(Xi ))). = El significado intuitivo de un enlace entre dos nodos X e Y es que la variable X tiene influencia P (Inf arto = si|P resion = alta, F umador = si) directa sobre Y . El conjunto de probabilidades representadas en la red describe la distribuci´n de o P (P resion = alta|Deporte = si, Alimentacion = equil) probabilidad conjunta de todas las variables, por lo tanto no es necesaria una tabla completa que P (F umador = si)P (Deporte = si)P (Alimentacion = equil) describa la influencia entre todas ellas. = 0,8 × 0,01 × 0,4 × 0,1 × 0,4 = 0,000128 Ejemplo 2 La siguiente red bayesiana muestra las relaciones de dependencia entre un conjunto de proposiciones l´gicas y la distribuci´n de probabilidad que sigue cada una de esas influencias o o Las propiedades de las redes bayesianas nos dan ciertas ideas sobre como debemos construirlas a partir de un conjunto de proposiciones. Si consideramos que (regla del producto): P (x1 , x2 , . . . , xn ) = P (xn |xn−1 , . . . , x1 )P (xn−1 , . . . , x1 ) Iterando el proceso tenemos que: P (x1 , . . . , xn ) = P (xn |xn−1 , . . . , x1 )P (xn−1 |xn−2 , . . . , x1 ) · · · P (x2 |x1 )P (x1 ) n P (xi |xi−1 , . . . , x1 ) = i=1 5 6
  • 5. Esta es la llamada regla de la cadena La red bayesiana nos permite factorizar la distribuci´n de probabilidad conjunta y obtener una o expresi´n mas f´cil de evaluar. o a Dadas estas propiedades, podemos afirmar que si padres(Xi ) ⊆ {Xi−1 , . . . , X1 }, entonces: Ejemplo 4 Usando la red bayesiana ejemplo podemos calcular la probabilidad de ser P (Xi |Xi−1 , . . . , X1 ) = P (Xi |padres(Xi )) fumador si se ha tenido un infarto y no se hace deporte Esto quiere decir que una red bayesiana es una representaci´n correcta de un dominio s´lo si cada o o P (F umador|Inf arto = si, Deporte = no) nodo es condicionalmente independiente de sus predecesores en orden, dados sus padres. La distribuci´n de probabilidad conjunta de la red ser´ o ıa: Para lograr esto, se han de escoger como padres de una variable Xi aquellas de entre las variables X1 , . . . Xi−1 que influyan directamente en Xi . P (D, A, S, F, I) = P (I|S, F )P (F )P (S|D, A)P (D)P (A) Es decir, para describir la influencia que recibe una proposici´n del resto de proposiciones de las o Debemos calcular P (F |I = si, D = no), por lo tanto tenemos que disponemos, s´lo es necesario utilizar las que influyen m´s directamente. La influencia del resto o a de proposiciones (si es que existe) estar´ descrita por las relaciones que puedan tener estas con los a P (F |I = s, D = n) = αP (F, I = s, D = n) padres inmediatos de la proposici´n. o =α P (D = n, A, S, F, I = s) El utilizar una red bayesiana como representaci´n de la distribuci´n de probabilidad conjunta de o o A∈{e,¬e} S∈{a,n} un grupo de proposiciones supone una gran reduccion en coste espacial. Como comentamos, el coste = αP (D = n)P (F ) P (A) P (S|D = n, A)P (I = s|S, F ) de representar la distribuci´n de probabilidad conjunta de n variables binarias es O(2n ). La represen- o A∈{e,¬e} S∈{a,n} taci´n de redes bayesianas nos permite una representaci´n mas compacta gracias a la factorizaci´n de o o o Si enumeramos todas las posibilidades y las sumamos de acuerdo con la distribuci´n de probabi- o la distribuci´n conjunta. Suponiendo que cada nodo de la red tenga como m´ximo k padres (k o a n), un nodo necesitar´ 2k para representar la influencia de sus padres, por lo tanto el espacio necesario lidad conjunta tenemos que: a ser´ O(n2k ). Por ejemplo, con 10 variables y suponiendo 3 padres como m´ximo tenemos 80 frente a a a 1024, con 100 variables y suponiendo 5 padres tenemos 3200 frente a aproximadamente 1030 P (F umador|Inf arto = si, Deporte = no) = α 0,9 · 0,4 · (0,4 · (0,25 · 0,8 + 0,75 · 0, 6) + 0,6 · (0,7 · 0,8 + 0,3 · 0,6)), 2.5. Inferencia probabil´ ıstica mediante redes bayesianas 0,9 · 0,6 · (0,4 · (0,25 · 0,7 + 0, 75 · 0,3) + 0,6 · (0,7 · 0,7 + 0,3 · 0,3) = α 0,253, 0, 274 El objetivo de la inferencia probabil´ ıstica es calcular la distribuci´n de probabilidad a posteriori de o un conjunto de variables dada la observaci´n de un evento (valores observados para un subconjunto o = 0, 48, 0,52 de variables). Podemos ver las operaciones que se realizan dibujando el ´rbol de probabilidades que se calcula. a Denotaremos como X la variable sobre la que queremos conocer la distribuci´n, E ser´ el conjunto o a Deporte de variables de las que conocemos su valor {E1 , . . . , En }, e Y ser´ el conjunto de variables que no a hemos observado {Y1 , . . . , Yn } (variables ocultas). De esta manera X = {X} ∪ E ∪ Y ser´ el conjunto a P(D=no)=0.9 completo de variables. Nos plantearemos el c´lculo de P (X|e), es decir la distribuci´n de probabilidad a o de los valores de X a partir de la influencia de los valores observados de las variables de E. Fumador Nosotros nos plantearemos lo que denominaremos la inferencia exacta, que es la que se realiza P(F=si)=0.6 P(F=no)=0.4 utilizando directamente la distribuci´n de probabilidad que describe la red bayesiana. Como vere- o Alimentacion Alimentacion mos mas adelante ´sta s´lo es tratable computacionalmente si la topolog´ de la red tiene ciertas e o ıa P(A=e)=0.4 P(A=no e)=0.6 P(A=no e)=0.6 propiedades. P(A=e)=0.4 Presion Presion Presion Presion 2.5.1. Inferencia por enumeraci´n o P(S=a)=0.25 P(S=a)=0.7 P(S=a)=0.25 P(S=a)=0.7 El primer algoritmo de inferencia exacta que veremos es el denominado de Inferencia por P(S=n)=0.75 P(S=n)=0.3 P(S=n)=0.75 P(S=n)=0.3 o´ enumeraci´n. Este se basa en que cualquier probabilidad condicionada se puede calcular como la Infarto Infarto Infarto Infarto Infarto Infarto Infarto Infarto suma de todos los posibles casos a partir de la distribuci´n de probabilidad conjunta. o P(I=s)=0.8 P(I=s)=0.8 P(I=s)=0.7 P(I=s)=0.7 P(I=s)=0.6 P(I=s)=0.6 P(I=s)=0.3 P(I=s)=0.3 P (X|e) = αP (X, e) = α P (X, e, y) y Cada una de las ramas del ´rbol corresponde a cada uno de los eventos posibles. a 7 8
  • 6. 2.5.2. Algoritmo de eliminaci´n de variables o Es igual que una operaci´n de agregaci´n sobre una columna en bases de datos o o El producto de factores permite juntar varios factores entre ellos utilizando las variables ocultas La inferencia por enumeraci´n puede ser bastante ineficiente dependiendo de la estructura de o comunes, por ejemplo: la red y dar lugar a muchos c´lculos repetidos, por lo que se han intentado hacer algoritmos m´s a a eficientes. El algoritmo de eliminaci´n de variables intenta evitar esta repetici´n de c´lculos. El o o a fX1 X2 (Y, W, Z) = fX1 (Y, Z) × fX2 (Z, W )= algoritmo utiliza t´cnicas de programaci´n din´mica (memorizaci´n) de manera que se guardan c´lcu- e o a o a Y Z Z W Y Z W los intermedios para cada variable para reutilizarlos. A estos c´lculos intermedios los denominaremos a 0,2 × 0,3 C C 0.2 C C 0.3 C C C factores 0,2 × 0,7 C F 0.8 C F 0.7 C C F El c´lculo de la probabilidad se realiza evaluando la expresi´n de la distribuci´n de probabilidad a o o 0,8 × 0,1 F C 0.4 F C 0.1 C F C conjunta de izquierda a derecha, aprovechando ese orden para obtener los factores. Esta estrategia 0,8 × 0,9 F F 0.6 F F 0.9 C F F hace que los c´lculos que impliquen una variable se realicen una sola vez. Los factores correspondientes a 0,4 × 0,3 F C C a cada variable se van acumulando y utiliz´ndose seg´n se necesitan. a u 0,4 × 0,7 F C F Una ventaja adicional de este algoritmo es que las variables no relevantes desaparecen al ser 0,6 × 0,1 F F C factores constantes en las operaciones y por lo tanto permite eliminarlas del c´lculo (de ah´ el nombre a ı 0,6 × 0,9 F F F de algorimo de eliminaci´n de variables). o Es igual que una operaci´n de join en una base de datos multiplicando los valores de las columnas o El algoritmo es el siguiente: de datos. funcion ELIMINACION Q(X, e , rb ) retorna d i s t r i b u c i o n de X Ejemplo 5 Volveremos a calcular P (F umador|Inf arto = si, Deporte = no) a partir de la distribu- f a c t o r e s = [ ] ; v a r s=REVERSE(VARS( rb ) ) ci´n de probabilidad conjunta: o para cada var en v a r s hacer f a c t o r e s=c o n c a t e n a ( f a c t o r e s ,CALCULA FACTOR( var , e ) ) P (D, A, S, F, I) = P (I|S, F )P (F )P (S|D, A)P (D)P (A) s i var es v a r i a b l e o c u l t a entonces f a c t o r e s=PRODUCTO Y SUMA( var , f a c t o r e s ) Debemos calcular P (F |I = si, D = no), por lo tanto tenemos fsi fpara retorna NORMALIZA(PRODUCTO( f a c t o r e s ) ) P (F |I = s, D = n) = αP (I = s, F, D = n) ffuncion =α P (D = n, A, S, F, I = s) A∈{e,¬e} S∈{a,n} CALCULA FACTOR genera el factor correspondiente a la variable en la funci´n de distribuci´n o o de probabilidad conjunta, PRODUCTO Y SUMA multiplica los factores y suma respecto a la variable En esta ocasi´n no sacamos factores comunes para seguir el algoritmo o oculta, PRODUCTO multiplica un conjunto de factores. αP (D = n) P (A) P (S|D = n, A)P (F )P (I = s|S, F ) Un factor corresponde a la probabilidad de un conjunto de variables dadas las variables ocultas. A∈{e,¬e} S∈{a,n} Se representa por una tabla que para cada combinaci´n de variables ocultas da la probabilidad de o las variables del factor, por ejemplo: El algoritmo empieza calculando el factor para la variable Infarto (P (I = s|S, F )), esta tiene fijo su valor a si, depende de las variables Presi´n Sanguinea y Fumador o Y Z C C 0.2 SF fX (Y, Z)= C F 0.4 as 0.8 F C 0.8 fI (S, F )= a n 0.7 F F 0.6 ns 0.6 nn 0.3 Los factores tienen dos operaciones, la suma y producto de factores. La suma se aplica a un factor y sobre una variable oculta del factor. Como resultado obtenemos La variable fumador (P (F )) no depende de ninguna otra variable, al ser la variable que pregun- una matriz reducida en la que las filas del mismo valor se han acumulado, por ejemplo tamos el factor incluye todos los valores Y F fXZ (Y ) = fX (Y, Z)= C fF (F )= s 0.6 0.4 Z F 1.4 n 0.6 9 10
  • 7. FA La variable Presi´n Sanguinea (P (S|D = n, A)), depende de las variable Deporte que tiene fijo o se 0.26×0.4 = 0.104 su valor a no y Alimentaci´n. Esta es una variable oculta, por lo que se debe calcular para todos sus o fAF IS (A) = fA (A) × fF IS (F, A)= s ¬e 0.296×0.6 = 0.177 valores ne 0.24×0.4 = 0.096 n ¬e 0.348×0.6 = 0.208 SA ae 0.25 Y ahora sumamos sobre todos los valores de la variable A para obtener el factor correspondiente fS (S, A)= a ¬e 0.7 a la variable Alimentaci´n o ne 0.75 n ¬e 0.3 F fAF IS (F ) = fAF IS (A) = S 0.104 + 0.177 = 0.281 A∈{e,¬e} Al ser la variable Presi´n Sanguinea una variable oculta debemos acumular todos los factores que o n 0.096 + 0.208 = 0.304 hemos calculado fS (S, A) × fF (F ) × fI (S, F ) Y por ultimo la variable Deporte (P (D = n)) tiene el valor fijado a no y dado que no depende de la ´ variable fumador se puede obviar, ya que es un factor constante. SF Ahora, si normalizamos a 1 as 0.8×0.4 fF I (S, F ) = fF (F ) × fI (S, F )= a n 0.7×0.6 F ns 0.6×0.4 P (F |I = s, D = n) = S 0.48 nn 0.3×0.6 n 0.52 S F A a s e 0.8×0.4×0.25 La complejidad del algoritmo de eliminaci´n de variables depende del tama˜o del mayor factor, o n ¬e a s 0.8×0.4×0.7 que depende del orden en el que se eval´an las variables y la topolog´ de la red. El orden de evaluaci´n u ıa o a n e 0.7×0.6×0.25 que escogeremos ser´ el topol´gico seg´n el grafo, pero podr´ a o u ıamos utilizar cualquier orden. De hecho fF IS (S, F, A) = fF I (S, F ) × fS (S, A)= a ¬e n 0.7×0.6×0.7 se podr´ escoger el orden que m´s variables eliminara para hacer que el c´lculo sea m´s eficiente, el ıa a a a n s e 0.6×0.4×0.75 problema es que encontrar el orden ´ptimo es NP. o ¬e n s 0.6×0.4×0.3 La complejidad de la inferencia exacta es NP-hard en el caso general. En el caso particular en que n n e 0.3×0.6×0.75 la red bayesiana cumple que para cada par de nodos hay un unico camino no dirigido (poli´rbol), ´ a ¬e n n 0.3×0.6×0.3 entonces se puede calcular en tiempo lineal. Por eso es interesante que cuando se construya una red bayesiana para un problema se construyan poli´rboles. Si podemos construir una red que cumpla a Y ahora sumamos sobre todos los valores de la variable S para obtener el factor correspondiente esta propiedad podemos utilizar este algoritmo sin ning´n problema. u a la variable Presi´n Sanguinea o Para obtener resultados en el caso general se recurre a algoritmos aproximados basados en t´cnicas e de muestreo. Evidentemente el valor obtenido con estos algoritmos es una aproximaci´n del valor o fF IS (F, A) = fF IS (S, F, A) = S∈{a,n} real, pero el coste temporal es razonable. F A s e 0.8×0.4×0.25 + 0.6×0.4×0.75 = 0.26 ¬e s 0.8×0.4×0.7 + 0.6×0.4×0.3 = 0.296 3. Modelo Posibilista n e 0.7×0.6×0.25 + 0.3×0.6×0.75 = 0.24 ¬e n 0.7×0.6×0.7 + 0.3×0.6×0.3 = 0.348 Un m´todo alternativo para representar la imprecisi´n es el que presenta el modelo posibilista. e o Este modelo surge de la llamada l´gica probabil´ o ıstica, esta es una l´gica no cl´sica especialmente o a El factor de la variable Alimentaci´n (P (A)) no depende de ninguna variable, al ser una variable o dise˜ada para el razonamiento con evidencias incompletas y conocimiento parcialmente inconsistente. n oculta generamos todas las posibilidades La l´gica posibilista se basa en la teor´ de los conjuntos difusos y, por extensi´n, en la l´gica o ıa o o difusa. Los conjuntos difusos se han tomado como punto de partida para la representaci´n de la o F vaguedad del lenguaje, de esta manera, proposiciones como por ejemplo “la temperatura de hoy es fA (A)= e 0.4 agradable” que supondr´ un conjunto de temperaturas asignadas al t´rmino ling¨´ ıa e uıstico agradable ¬e 0.6 corresponder´ a un conjunto difuso, y el razonamiento se har´ en t´rminos de este. Esto permitir´ ıa ıa e ıa representar los razonamientos cualitativos que suelen utilizar las personas. Ahora debemos acumular todos los factores calculados 11 12
  • 8. En l´gica cl´sica disponemos de tres conectivas para la combinaci´n de enunciados: ∧, ∨ y ¬. Los conjuntos difusos son una generalizaci´n de los conjuntos cl´sicos en los que la pertenencia o a o a o no est´ restringida a s´ o no, sino que puede haber una gradaci´n de pertenencia en el intervalo [0, 1], a ı o Sobre estas, la teor´ de modelos establece tres tablas de verdad que indican como se combinan ıa determinada por una funci´n de distribuci´n asignada al conjunto. o o los dos valores de verdad permitidos. La l´gica difusa establece tres tipos de funciones que dan la o extensi´n continua de estas combinaciones. o Los hechos representables mediante conjuntos difusos siguen el esquema [X es A] donde X es una variable definida sobre un universo U de valores posibles y A es un t´rmino ling¨´ e uıstico aplicable a X La funci´n que permite combinar en conjunci´n dos funciones de posibilidad es denominada o o T-norma y se define como T : [0, 1] × [0, 1] → [0, 1] y ha de satisfacer las propiedades2 : que restringe los valores que puede tomar. Estos valores corresponder´n al conjunto difuso represen- a tado por A sobre el universo U . En el ejemplo anterior, X ser´ la temperatura, el universo U ser´ ıa ıan todos los posibles valores que puede tomar la temperatura y A ser´ agradable, este t´rmino indicar´ ıa e ıa 1. Conmutativa, T(a,b)=T(b,a) los valores posibles para X. En la siguiente figura se pueden ver diferentes etiquetas aplicables al 2. Asociativa, T(a,T(b,c))=T(T(a,b),c) concepto temperatura y sus conjuntos difusos correspondientes. 3. T(0,a)=0 4. T(1,a)=a FRIA CALUROSA AGRADABLE 1 5. Es una funci´n creciente, T(a,b)≤T(c,d) si a≤c y b≤d o Ejemplos de funciones que cumplen estas propiedades son: 1. T(x,y)=m´ ın(x, y) 0 2. T(x,y)=x · y 10 15 20 25 30 3. T(x,y)=m´x(0, x + y − 1) a Todo conjunto difuso est´ representado por una funci´n caracter´ a o ıstica µA que define la pertenencia de un elemento al conjunto. A trav´s de ´sta se puede definir la funci´n de posibilidad de los valores e e o Se puede ver la forma de estas funciones en la siguiente figura. de X al conjunto A. De este modo, la posibilidad de que X tenga un valor u ∈ U sabiendo que [X es A] viene definida por la funci´n: o πA : U → [0, 1] tal que πA (u) = µA (u) Es decir, la posibilidad para un valor se corresponde con su grado de pertenencia al conjunto difuso representado por la etiqueta ling¨´ uıstica. Un valor de posibilidad se puede interpretar como el grado con el que una proposicion no es incompatible con el conocimiento que se posee. 1 1 1 0.9 0.9 0.9 1 1 1 0.8 0.8 0.8 max(0, x + y − 1) 0.9 0.9 0.9 0.7 0.7 0.7 0.6 0.6 0.6 min(x,y) 0.8 0.8 0.8 x·y 0.5 0.5 0.5 0.7 0.7 0.7 3.1. Conectivas l´gicas en l´gica difusa o o 0.4 0.4 0.4 0.3 0.3 0.3 0.6 0.6 0.6 0.2 0.2 0.2 0.5 0.5 0.5 0.1 0.1 0.1 Y Y Y 0.4 0.4 0.4 0 0 0 Al igual que se puede interpretar la representaci´n de las proposiciones con una visi´n conjuntista, o o 0 0 0 0.3 0.3 0.3 0.1 0.1 0.1 0.2 0.2 0.2 se puede tambi´n transformar en una visi´n l´gica1 , que es en definitiva lo que se va a utilizar en 0.3 0.3 0.3 e oo 0.2 0.2 0.2 0.4 0.4 0.4 0.5 0.5 0.5 0.6 0.6 0.6 0.1 0.1 0.1 0.7 0.7 0.7 X X X la deducci´n con las reglas de los expertos. Se pueden ver la pertenencia total o la no pertenencia o 0.8 0.8 0.8 0.9 0.9 0.9 0 0 0 1 1 1 de un elemento a un conjunto difuso como los valores de verdad cierto y falso (esta ser´ la noci´n ıa o cl´sica de valores de verdad), a˜adiendo la posibilidad de una gradaci´n de valor de verdad entre a n o estos valores extremos, determinada por la funci´n de posibilidad del conjunto difuso. o La funci´n que permite combinar en disyunci´n dos funciones de posibilidad es denominada T- o o Siguiendo esta visi´n l´gica, podemos establecer las combinaciones que permiten las conectivas oo conorma y se define como S : [0, 1] × [0, 1] → [0, 1] y ha de satisfacer las propiedades: de la l´gica cl´sica sobre estos dos valores de verdad y sobre la gradaci´n de valores de verdad que o a o da la funci´n de posibilidad de un conjunto difuso. o 1. Conmutativa, S(a,b)=S(b,a) 1 Los conjuntos difusos y la l´gica difusa se pueden ver como una extensi´n continua de la teor´ de conjuntos y o o ıa 2 la l´gica cl´sica. Por lo tanto si la teor´ de conjuntos se puede ver como una variante notacional de la l´gica de o a ıa o Se puede observar que son las mismas propiedades que cumple la conectiva ∧ en l´gica cl´sica, lo mismo pasar´ con o a a predicados, su extensi´n continua tambi´n. o e el resto de conectivas 13 14
  • 9. 2. Asociativa, S(a,S(b,c))=S(S(a,b),c) Se puede ver la forma de estas funciones en la siguiente figura: 3. S(0,a)=a √ 1−x 1 − x2 1−x 1−t·x 4. S(1,a)=1 1.0 1.0 1.0 0.9 0.9 0.9 5. Es una funci´n creciente, S(a,b)≤S(c,d) si a≤c y b≤d o 0.8 0.8 0.8 0.7 0.7 0.7 0.6 0.6 0.6 Ejemplos de funciones que cumplen estas propiedades son: 0.5 0.5 0.5 Y Y Y 0.4 0.4 0.4 1. S(x,y)=m´x(x, y) a 0.3 0.3 0.3 0.2 0.2 0.2 2. S(x,y)=x + y − x · y 0.1 0.1 0.1 3. S(x,y)=m´ ın(x + y, 1) 0.0 0.0 0.0 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 X X X Se puede ver la forma de estas funciones en la siguiente figura: Se puede observar que todas las funciones en sus extremos corresponden a los valores de la tabla de verdad de la conectiva correspondiente. Mediante estas funciones de posibilidad podemos construir combinaciones de proposiciones de manera que si tenemos las proposiciones F =[X es A] y G=[X esB] y πA y πB est´n definidas sobre a el mismo universo U , entonces: 1 1 1 0.9 0.9 0.9 1 1 1 0.8 0.8 0.8 0.9 0.9 0.9 0.7 0.7 0.7 F ∧ G = [X es A y B] con πF ∧G (u) = T (πA (u), πB (u)) min(x + y, 1) x+y−x·y max(x, y) 0.6 0.6 0.6 0.8 0.8 0.8 0.5 0.5 0.5 0.7 0.7 0.7 0.4 0.4 0.4 F ∨ G = [X es A o B] con πF ∨G (u) = S(πA (u), πB (u)) 0.3 0.3 0.3 0.6 0.6 0.6 0.2 0.2 0.2 0.5 0.5 0.5 0.1 0.1 0.1 Y Y Y 0.4 0.4 0.4 0 0 0 0 0 0 Donde la T-norma y T-conorma se definen sobre una sola dimensi´n. o 0.3 0.3 0.3 0.1 0.1 0.1 0.2 0.2 0.2 0.3 0.3 0.3 0.2 0.2 0.2 0.4 0.4 0.4 0.5 0.5 0.5 0.6 0.6 0.6 En cambio, si tenemos F =[X es A] y G=[Y es B] con πA definida sobre U y πB definida sobre 0.1 0.1 0.1 0.7 0.7 0.7 X X X 0.8 0.8 0.8 0.9 0.9 0.9 0 0 0 1 1 1 V , con U = V , tenemos: F ∧ G = [X es A] y [Y es B] con πF ∧G (u, v) = T (πA (u), πB (v)) Estas tres funciones de T-conorma, junto a las tres anteriores T-normas, corresponden a tres F ∨ G = [X es A] o [Y es B] con πF ∨G (u, v) = S(πA (u), πB (v)) pares de funciones duales respecto a las leyes de DeMorgan y son las m´s utilizadas. a La funci´n que permite negar una funci´n de posibilidad es denominada negaci´n fuerte y se o o o Donde la T-norma y T-conorma se definen sobre dos dimensiones. define como N : [0, 1] → [0, 1] y ha de satisfacer las propiedades: Podemos ver que las funciones de combinaci´n de funciones de posibilidad generan una nueva o funci´n de posibilidad. En definitiva, estamos efiniendo un algebra sobre funciones en las que las o 1. N((N(a))=a conectivas difusas nos sirven de operaciones de combinaci´n. o 2. Es una funci´n decreciente, N(a)≥N(b) si a≤b o Veamos dos ejemplos de combinaci´n de proposiciones en ambos casos. o Ejemplos de funciones que cumplen estas propiedades son: Ejemplo 6 Supongamos que tenemos las proposiciones [{La temperatura de hoy} es {agradable}] y [{La temperatura de hoy} es {calurosa}], proposiciones definidas sobre el mismo universo U (el de 1. N(x)=1 − x las temperaturas posibles) donde las funciones de posibilidad de las etiquetas agradable y calurosa se √ pueden ver en la siguiente figura: 2. N(x)= 1 − x2 1−x 3. Nt (x)= 1+t·x t > 1 15 16
  • 10. ALTO Y JOVEN 2.5 1 AGRADABLE CALUROSA Alto 1 1 2.0 min(Alto,Joven) 1.5 Joven ALTO 0 1.0 0 0 0.5 10 15 20 25 30 10 15 20 25 30 Podemos utilizar como funci´n de T-norma T(x,y)= m´ o ın(x, y) y de T-conorma S(x,y)= m´x(x, y) a 10 20 30 40 50 1 0 0 y construir la funci´n de posibilidad que define la conjunci´n y la disyunci´n de ambas proposiciones o o o AGRADABLE Y CALUROSA AGRADABLE O CALUROSA 1 JOVEN 1 1 ALTO O JOVEN 2.5 1 Alto 2.0 0 0 max(Alto,Joven) 10 15 20 25 30 10 15 20 25 30 1.5 Joven ALTO 0 1.0 Tambi´n podemos definir la negaci´n de agradable mediante la funci´n de negaci´n fuerte N(x)=1− e o o o x 0.5 NO AGRADABLE 10 20 30 40 50 1 0 0 1 1 JOVEN Una representaci´n tridimensional puede dar una idea mas clara: o 0 10 15 20 25 30 conj(alto(x),joven(y)) 0.833 0.667 0.5 0.333 0.167 1 Ejemplo 7 Supongamos que tenemos las proposiciones [{Juan} es {alto}] y [{Juan} es {joven}], proposiciones definidas sobre dos universos diferentes, el de las alturas, y el de las edades. Las fun- 0.5 ciones de posibilidad de las etiquetas ling¨´ uısticas est´n representadas en la siguiente figura: a 0 ALTO JOVEN 50 45 40 1 1 35 30 0 25 0.5 20 15 1 10 1.5 5 2 0 2.5 0 0 0.5 1.0 1.5 2.0 2.5 10 20 30 40 50 Podemos utilizar como funci´n de T-norma T(x,y)= m´ o ın(x, y) y de T-conorma S(x,y)= m´x(x, y) a y construir la funci´n de posibilidad que define la conjunci´n y la disyunci´n de ambas proposiciones, o o o en este caso, definidas sobre dos dimensiones, ya que las proposiciones corresponden a universos diferentes. 17 18
  • 11. 2. Evaluaci´n de los consecuentes de las reglas: Cada una de los consecuentes se ponde- o disy(alto(x),joven(y)) rar´ seg´n el valor de posibilidad indicado por su antecedente. El resultado de esta ponderaci´n a u o 0.833 0.667 ser´ la etiqueta de la conclusi´n recortada al valor de posibilidad del antecedente. a o 0.5 0.333 0.167 3. Combinaci´n de las conclusiones: Todas las conclusiones de las reglas se combinar´n en o a 1 una etiqueta que representa la conclusi´n conjunta de las reglas o 0.5 4. Obtenci´n del valor preciso (Nitidificaci´n4 ): Se calcula el valor preciso correspondiente o o a la etiqueta obtenida. Este c´lculo se puede hacer de diferentes maneras, una posibilidad es a 0 obtener el centro de gravedad de la etiqueta. 50 45 40 35 El centro de gravedad se calcula como una integral definida sobre la funci´n que describe la o 30 0 25 0.5 20 etiqueta resultante: 15 1 10 1.5 5 2 0 2.5 b f (x)dx · x a CDG(f (x)) = b f (x)dx 3.2. Inferencia difusa con datos precisos a donde a y b son los extremos de la etiqueta. Esno no es mas que una versi´n continua de una o A partir del formalismo de la l´gica difusa podemos establecer un modelo de razonamiento in- o media ponderada. cluyendo el resto de operadores de la l´gica cl´sica. El operador que nos permitir´ un razonamiento o a a equivalente al que obtenemos con los sistemas de reglas cl´sicos ser´ el operador de implicaci´n. a a o Ejemplo 8 Supongamos que tenemos dos variables de entrada E1 y E2 y una variable de salida S Con todos estos operadores podemos escribir reglas utilizando como elementos at´micos expre- o que pueden tomar valores en los conjuntos siguientes de etiquetas ling¨´sticas: uı siones difusas, por ejemplo: [altura(X)=alto] ∧ [edad(X)=joven] → [peso(X)=medio] E1={bajo,medio,alto} E2={nada,algo,normal,mucho} En este escenario nos podemos plantear dos tipos de inferencias. Una primera posibilidad ser´ que ıa nuestros hechos est´n expresados tambi´n como hechos difusos, de manera que podr´ e e ıamos utilizar S={cerrar,abrir} las reglas como el mecanismo de razonamiento habitual. El resultado del razonamiento ser´ un ıa conjunto difuso que combinara adecuadamente los conjuntos difusos que provienen de los hechos, los Estas etiquetas est´n descritas mediante los siguientes conjuntos difusos a antecedentes de las reglas y sus consecuentes. Para ello, se definen las funciones de combinaci´n que o Nada Algo Bajo Medio Alto Normal Mucho corresponden a la implicaci´n y a la regla de deducci´n del modus ponens3 . o o Otra posibilidad es que dispongamos de valores precisos para las variables de nuestro dominio, nuestro objetivo ser´ obtener el valor preciso que se obtiene a partir de las relaciones que nos indican a E1 E2 las reglas difusas que tenemos. Este segundo caso es mas sencillo, supone que tenemos una variable respuesta y un conjunto de 5 10 15 20 25 30 35 40 12345678 variables que influyen directamente sobre esta variable respuesta. El conjunto de reglas difusas nos indica cual es la relaci´n entre los valores de unas variables con otras. Esta variable respuesta puede o a su vez influir en otras variables. Dado que los antecedentes de las reglas corresponden a conjuntos difusos, un valor concreto puede Cerrar Abrir disparar varias reglas a la vez, por lo que deberemos evaluarlas todas. Cada una de ellas nos dar´ un a valor de posibilidad que ser´ la fuerza con la que cada regla implica el consecuente. a S El proceso de inferencia con datos precisos tendr´ los siguentes pasos: a 1. Evaluaci´n de los antecedentes de las reglas: Esta evaluaci´n pasar´ por obtener el valor o o a 25 50 75 100 125 150 175 de posibilidad que nos indican los valores precisos para cada elemento del antecedente y su combinaci´n mediante los operadores difusos correspondientes o Supongamos que tenemos el siguiente conjunto de reglas: 3 La conocereis de la asignatura de l´gica como la eliminaci´n de la implicaci´n A, A → B o o o B 4 Esta es una adaptaci´n del t´rmino ingles defuzzification o e 19 20
  • 12. R1. si ([E1=medio] o [E1=alto]) y [E2=mucho] entonces [S=cerrar]  x ∈ [0 − 75]  0,5  R2. si [E1=alto] y [E2=normal] entonces [S=cerrar] f (x) =  (100 − x)/50 x ∈ (75 − 96,875] x ∈ (96,875 − 100] 0,125  R3. si [E1=bajo] y no([E2=mucho]) entonces [S=abrir] Por lo que podemos calcular el CDG como: R4. si ([E1=bajo] o [E1=medio]) y [E2=algo] entonces [S=abrir] 96,875 75 175 las funciones de combinaci´n son el m´ o ınimo para la conjunci´n, m´ximo para la disyunci´n y o a o 0,5 · x · dx + (100 − x)/50 · x · dx + 0,5 · x · dx 1 − x para la negaci´n y los valores concretos que tenemos para las variables E1 y E2 son 1.5 y 6.5 0 75 96,875 o = 96,875 75 175 respectivamente. 0,5 · dx + (100 − x)/50 · dx + 0,125 · dx 0 75 96,875 Si trasladamos esos valores a los conjuntos difusos de las variables E1 y E2 obtenemos los si- guientes valores de posibilidad E1 E2 96,875 0,25 · x2 |75 + (x2 − x3 /150)|75 + 0,0625 · x2 |175 Bajo Medio Alto Nada Algo Normal Mucho 0 96,875 = 0,5 · x|75 + (2 · x − x2 /100)|96,875 + 0,125 · x|175 0.75 0 75 96,875 0.5 0.125 (0,25 · 752 − 0) + ((96,8752 − 96,8753 /150) − (752 − 753 /150)) + (0,0625 · 1752 − 0,0625 · 96,8752 ) = (0,5 · 75 − 0) + ((2 · 96,875 − 96,8752 /100) − (2 · 75 − 752 /100)) + (0,125 · 175 − 0,125 · 96, 875) 5 10 15 20 25 30 35 40 12345678 Si evaluamos la regla R1 tendr´amos: ı 3245,02 = 67, 03 [E1=medio] = 0.75, [E1=alto] = 0, [E2=mucho] = 0.5 ⇒ min(max(0.75,0),0.5) = 0.5 48,41 Por lo que tenemos 0.5 · [S=cerrar] Si evaluamos la regla R2 tendr´amos: ı [E1=alto] = 0, [E2=normal] = 0.5 ⇒ min(0,0.5) = 0 Por lo que tenemos 0 · [S=cerrar] Si evaluamos la regla R3 tendr´amos: ı [E1=bajo] = 0.125, [E1=mucho] = 0.5, ⇒ min(0.125,1-0.5) = 0.125 Por lo que tenemos 0.125 · [S=abrir] Si evaluamos la regla R4 tendr´amos: ı [E1=bajo] = 0.125, [E1=medio] = 0.75, [E2=algo] = 0 ⇒ min(max(0.125,0.75),0) = 0 Por lo que tenemos 0 · [S=abrir] La etiqueta resultante de la combinaci´n de las conclusiones ser´ o ıa: Cerrar Abrir S 25 50 75 100 125 150 175 Ahora debemos hallar el centro de gravedad de la etiqueta, esta se puede describir mediante la funci´n: o 21 22