• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Logica Difusa e Inteligencia Artificial
 

Logica Difusa e Inteligencia Artificial

on

  • 18,363 views

 

Statistics

Views

Total Views
18,363
Views on SlideShare
18,220
Embed Views
143

Actions

Likes
2
Downloads
549
Comments
2

2 Embeds 143

http://www.slideshare.net 140
http://33gusmp.pbworks.com 3

Accessibility

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel

12 of 2 previous next

  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Logica Difusa e Inteligencia Artificial Logica Difusa e Inteligencia Artificial Presentation Transcript

    • REDES NEURONALES Y LOGICA DIFUSA APLICADAS A LOS SISTEMAS DE CONTROL VISION-2009 Universidad San Martín de Porres Capitán de Fragata Enrique Arnáez Braschi
    • Introducción La Automatización es parte de la continua revolución industrial. Sus conceptos datan desde el siglo XVIII. Emplean la tecnología vigente para evolucionar al mismo ritmo que el mundo.
    • Introducción El concepto de realimentación o feedback nos es común, inclusive en campos sociales o económicos. Bajo este hecho, podemos indicar que la Ingeniería de Control ha ayudado a otras áreas.
    • Introducción Sin embargo, la realidad es que la Ingeniería de Control se ha nutrido de todas ellas : Matemáticas, física, electricidad, electrónica, mecánica, hidráulica y química entre otras, y últimamente de la informática e inteligencia artificial.
    • Introducción En esta exposición, vamos a apreciar la interacción entre las Redes Neuronales y la Lógica Difusa con la Ingeniería de Control, aplicadas al caso del Péndulo invertido, para lo cual haremos un breve repaso de los conceptos más importantes de cada uno de estos temas.
    • Sumario Control Moderno Lógica Difusa Redes Neuronales Control Difuso Sistema Modelo de Control de Espacio de Estados Estados Neuro-Control Neuro-Sistema Péndulo Invertido
    • Péndulo invertido Uno de los problemas clásicos del control moderno. Robert Hutchings Goddard (1882-1945) fue uno de los pioneros en el campo de los cohetes.
    • Péndulo invertido Conceptos para la correcta actitud de vuelo vertical de un cohete. Von Braun Bombas V-1
    • Péndulo invertido
    • Sistemas de Control  Estabilidad y controlabilidad.  El resultado de un sistema con controlador hace que las variables de estado lleven sus valores a cero .  Ese caso no es el real para los sistemas industriales.  Las salidas deben tender a valores diferentes que cero o que sigan un patrón determinado de referencia.
    • Fuzzy Logic Lotfi A . Zadeh . Matemático, profesor de la Universidad de Berkeley, famoso por introducir en1965 la teoría de conjuntos difusos o lógica difusa (f uzzy logic) .
    • Fuzzy Logic En 1965 escribe Fuzzy Sets, un artículo que presenta las nociones de la lógica difusa, (esperaba que las aplicaciones serían en lingüística, psicología, sociología, filosofía y campos afines). 1970, empezó a pensar que podía haber algunas aplicaciones en control. En 1972escribe un artículo "A rationale for Fuzzy Control".
    • Concepto de Origen El origen está dado en esta apreciación: “ Por qué siempre tratamos de plantear soluciones matemáticas para los modelos, si más fácil es tratar de explicarlo con palabras, las cuales han sido perfeccionadas en un proceso de millones de años?”
    • Comparación Partiendo de la apreciación anterior, y tratando de realizar operaciones con palabras, recurrimos a la Lógica Tradicional o ‘Crisp’. Esta herramienta plantea la segunda apreciación: Lógica Tradicional o Crisp
    • Fuzzy Logic 1. El cuadro de la Izquierda es Azul. 2. El Cuadro de la Derecha no es exactamente del mismo color que el de la Izquierda. Inferencia: Si el cuadro de la derecha no es del mismo color que el de la izquierda, entonces el cuadro de la derecha no es azul. ≠
    • Algoritmo del Sistema Difuso Normalización Funciones de Fuzzificación Membresía Procesamiento o F. A. M. Razonamiento Defuzzificación Denormalización
    • o Modela Sistemas muy complejos. o Utiliza la experiencia humana.
    • Entrada de Datos Reales Fuzzificación Operaciones Difusas y Condicionales (IF - THEN) Defuzzificación Salida con Datos Reales
    • Componentes de una Función de Membresía Variable Lingüística Términos Lingüísticos
    • Fuzzificación Valores Difusos x o = 32 Valor Crisp
    • Reglas Difusas La condición de inferencia donde radica el conocimiento ‘ IF-THEN’ IF [( x is large ) AND ( y is cold )] THEN ( z is good ) Es importante saber que existen varias reglas para cada sistema. Las reglas son construidas basándose en la experiencia obtenida con autoridad, por ejemplo: Si estoy rápido y la esquina es próxima entonces la presión sobre el pedal del freno es fuerte.
    • F.A.M. (Fuzzy Associative Memory) FAM = Reglas en forma de Matriz En caso que hayan más de 2 variables a relacionar con las reglas difusas, se deberán armar varias FAM de 2 dimensiones. Nunca matrices de más de2 dimensiones.
    • F.A.M. (Fuzzy Associative Memory) Entrada 1: Temperatura Caliente - Media - Fría Entrada 2: Velocidad Rápida - Lenta - Parada Salida: Voltaje Positivo – Zero - Negativo Temp Vel R L P C Neg Zero Pos M Zero Zero Pos F Pos Pos Pos
    • Defuzzificación Luego de las Operaciones Difusas y de haber usado las regles difusas, tenemos un valor difuso de salida que lo debemos convertir en un valor Crisp. Ese procedimiento se conoce con el nombre de Defuzzificación. Fuzzificación Defuzzificación
    • Defuzzificación Método Centroide m * z  m dz z ∫ El método centroide también es llamado centro de área, centro de gravedad o método de Sugeno, es el método más usado y más potente.
    • Trabajo de un Sistema Difuso Análisis del Sistema. Determinar las variables de entrada/salida y sus escalas. Determinar el universo de discursión de cada variable. Estructurar las funciones de membresía. Elaborar la Memoria Asociativa Difusa. Armar la base de Reglas Difusas. Operaciones Difusas. Defuzzificación y desescalamiento.
    • Fuzzy Logic
    • Fuzzy Logic
    • Fuzzificación de 2 valores de entrada Cond. Iniciales: 1º = 0.0175 rad. y -4º/s = -0.0698 rad/seg. x1 = Posicion Angular x2 = Velocidad Angular 1 1 0.9 0.9 0.8 0.8 0.7 0.7 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 m   0 00 N , 0 94 Z , 0 06 P    0 47 N , 0 53 Z , 0 00 P  q m & q
    • Reglas y Operaciones Difusas x 1 x 2 P Z N P GP P Z Z P Z N N Z N GN m   0 00 N , 0 94 Z , 0 06 P    0 47 N ,0 53 Z , 0 00 P  q m & q Se aplica la función mínimo para la intersección de las entradas.  0 00 GP 0 05 P 0 06 Z    FAM  0 00 P 0 53 Z 0 47 N    0 00 Z 0 00 N 0 00 GN 
    • Reglas y Operaciones Difusas x 1 x 2 P Z N P GP P Z Z P Z N N Z N GN m   0 00 N , 0 94 Z , 0 06 P    0 47 N ,0 53 Z , 0 00 P  q m & q Se aplica la función mínimo para la intersección de las entradas.  0 00 GP 0 05 P 0 06 Z    FAM  0 00 P 0 53 Z 0 47 N    0 00 Z 0 00 N 0 00 GN 
    • Reglas y Operaciones Difusas x 1 x 2 P Z N P GP P Z Z P Z N N Z N GN m   0 00 N , 0 94 Z , 0 06 P    0 47 N ,0 53 Z , 0 00 P  q m & q Se aplica la función mínimo para la intersección de las entradas.  0 00 GP 0 05 P 0 06 Z    FAM  0 00 P 0 53 Z 0 47 N    0 00 Z 0 00 N 0 00 GN 
    • Defuzzificación u = Voltaje de entrada 1 0.9 0.8 0.7 0.6 m zdz z * ∫ z  0.5 m dz 0.4 z ∫ 0.3 0.2 0.1 0 -20 -15 -10 -5 0 5 10 15 20
    • Definición de Redes Neuronales Las Redes Neuronales (NN) son parte de la Inteligencia Artificial (AI) caracterizadas por su capacidad de aprendizaje, su velocidad mediante el procesamiento masivo en paralelo de datos y por la facilidad del modelado de sistemas o controladores altamente no-lineales.
    • Comparación de Neuronas Neurona Humana Red Neuronal
    • Neurona Artificial n   y f x k w  b ∑ k k  k  1  x 1 w 1 x 2 Inputs x 3 Sum f() Output w n x n bias Artificial Neuron
    • n   y f x k w  b ∑  k k   k  1  Función de Activación Linear Activation Function Hyperbolic Tangent Activation Function 5 1 4 0.8 3 0.6 2 0.4 1 0.2 0 0 -1 -0.2 -2 -0.4 -3 -0.6 -4 -0.8 -5 -1 -5 0 5 -3 -2 -1 0 1 2 3 x x x - x - e f (x )  x f (x )  tanh( x) e x - x e  e
    • n   y f x k w  b ∑  k k   k  1  Función de Activación Logistic Activation Function Thresh Activation Function 1 1 0.9 0.9 0.8 0.8 0.7 0.7 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 -5 0 5 -5 0 5 x x 1  1 x ‡ 0 f ( x )  F ( x )  1  exp( - b x ) 0 x  0 
    • Perceptrón El Perceptrón busca la clasificación lineal de los patrones a ser entrenados, es decir procura separarlos por una línea en el plano, un ejemplo claro se tiene en la operación lógica AND: x 1 x 2 y A 0 0 0 B 0 1 0 C 1 0 0 D 1 1 1  1 v ‡ 1 y ( t )  F ( v )   0 v  1 
    • Perceptrón: Ejemplo Tenemos los siguientes Inicializamos el perceptrón patrones y sus respectivos con los siguientes valores: objetivos: x 1 -0.1  x 1 x 2 y d y  0.0 -0.4 0 0.8 x 2 -0.5  -0.3 -0.2 0  0.5 1.3 1  1.0 -1.3 1… y lo entrenamos.
    • Perceptrón: Ejemplo  x 1 x 2 y d  0.0 -0.4 0 (*)  -0.3 -0.2 0 (*)  0.5 1.3 1 (+)  1.0 -1.3 1 (+)
    • Perceptrón: Ejemplo  x 1 x 2 y d  0.0 -0.4 0 (*)  -0.3 -0.2 0 (*)  0.5 1.3 1 (+)  1.0 -1.3 1 (+)
    • Perceptrón: Ejemplo Luego del Entrenamiento x 1 -0.1 y 0.8 x 2 -0.5
    • Perceptrón Todo funcionó bien hasta que alguien probó la simple operación X-OR: x 1 x 2 y A 0 0 0 B 0 1 1 C 1 0 1  1 v ‡ 1 y ( t )  F ( v )  D 1 1 0  0 v  1 
    • Redes Neuronales Descartadas
    • Separabilidad Lineal Funciones Porcentaje de # de bits Cantidad de Linealmente Trabajo del Funciones Separables Perceptrón (%) 2 16 14 87 3 256 104 40 4 65536 1882 3 5 10E+09 94572 0.00002 Un perceptrón es capaz de aprender todo lo que pueda representar.
    • Aplicación de las Redes Muchos años después se inventó el MLP, y solucionó el problema, VIENE EL AUGE DE LAS NN: x 1 x 2 y A 0 0 0 B 0 1 1  1 v ‡ 1 C 1 0 1 y ( t )  F ( v )   D 1 1 0 0 v  1 
    • T T f  W s ( V x ) ( x ) Perceptrón de Múltiple Capa (MLP) Pesos • Trabaja en paralelo. • Usan al Algoritmos como el de Back- propagation para darle el Entradas Salidas  en base al Reales Reales error retro-propagado. • Utiliza patrones de Entrenamiento. Neuronas Neuronas • Modela Sistemas No- No-LinealesLineales Lineales.
    • Perceptrón de Múltiple Capa (MLP) - - h h  x · V  - h  s h      y  h · W -  y  s h · W h     y  s  x · V  · W
    • Algoritmo de Backpropagation Se escoge una función J  e 2 de costo a optimizar, y 2 la elección es el error 2 e   y d - y  cuadrático (MMC) ¶ J Algoritmo de Backpropagation w ( N  1 )  w ( N )  h ¶ w
    • Algoritmo de Backpropagation ¶ J w ( N  1 )  w ( N )  h ¶ w 2 ¶ J ¶ J ¶ e ¶ F ¶ y Aplicando la Regla de la Cadena:     2 ¶ w ¶ e ¶ F ¶ y ¶ w  ¶ J ¶ y ¶ ( h · w )   1 2   h ¶ e ¶ w ¶ w 2 ¶ e ¶ F 2 ( y d - y ) Derivada de la Función de Salida ¶ F  ¶ y ¶ J   ( 1 ) 2 ( y - y ) ( Derivada ) h d ¶ w
    • Algoritmo de Backpropagation • La Ecuación anterior se itera hasta obtener un error aceptable (de 3 a 5%). • Un error menor no permite una buena ‘ generalización’. • Cuando se obtiene el error deseado se guardan los pesos para aplicarlos en el trabajo deseado. y  s  x · V  · W
    • Características Principales 1. Son dispositivos no-lineales. 2. Pueden aprender un mapeo. 3. Son adaptables. 4. Las respuestas están basadas en evidencia. 5. Usan contexto, es decir, a más información, la respuesta es más veloz y mejor.
    • Características Principales 6. Son tolerantes a fallas, o sea, que la falla es degradada. 7. Su diseño y análisis es uniforme. 8. Tienen analogía neuro-biológica. 9. Su procesamiento es masivamente paralelo, distribuido y realizado con operaciones individuales simples. 10. Aprenden por sí mismas. 11. Tienen capacidad de generalizar
    • Aplicaciones más Comunes • Representación de comportamientos de funciones lineales y no-lineales. • Identificación de Patrones o Sistemas. • Sistemas de Control. • Reconocimiento de Imágenes. • Reconocimiento de Caracteres. • Reconstrucción de datos.
    • Aplicaciones más Comunes • Predicción y Recomendación para la Toma de Decisiones. • Simulación de Modelos Económicos y Financieros. • Clasificación de Objetos. • Administración de Anestesia según el Comportamiento de la Presión Arterial. • Predicciones Climatológicas.
    • Aplicaciones más Comunes
    • Aplicaciones más Comunes
    • Aplicaciones más Comunes
    • Aplicaciones más Comunes
    • Neuro Sistema
    • Diseño de la Red Neuronal
    • Estructura de Red Neuronal
    • Entrenamiento
    • Diseño de la Red Neuronal del Neuro Controlador
    • Estructura de Red Neuronal del Controlador
    • Entrenamiento
    • Prueba del Sistema Completo Control de Péndulo Estados Invertido Neuro-Control Neuro-Sistema
    • Comentarios Finales  El ingenio permite emplear herramientas actuales en teorías antiguas.  El Control Moderno se debe complementar con los avances tecnológicos para optimizar su comportamiento.  La Lógica Difusa facilita el diseño de controladores no-lineales evitando el modelamiento matemático.  Las Redes Neuronales otorgan la capacidad de adaptación mediante su propio aprendizaje.
    • Comentarios Finales  Es factible emplear una Red Neuronal para que aprenda el comportamiento del Controlador Difuso y potencie el sistema con el razonamiento y la adaptatibilidad.  Los retos de ingeniería deben ser considerados como un estímulo para el ingeniero peruano en vez de verlos como un obstáculo.