• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Memoriasciima2013
 

Memoriasciima2013

on

  • 1,797 views

resumen del congreso internacional de ingeniería mecatronica

resumen del congreso internacional de ingeniería mecatronica

Statistics

Views

Total Views
1,797
Views on SlideShare
1,797
Embed Views
0

Actions

Likes
0
Downloads
27
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Memoriasciima2013 Memoriasciima2013 Document Transcript

    • 2013 II International Congress of Engineering Mechatronics and Automation (CIIMA) 23 al 25 de octubre del 2013 Universidad de La Salle- Bogotá Colombia
    • Copyright 2013 II International Congress of Engineering Mechatronics and Automation (CIIMA) Copyright ©, 2013, by the Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Copyright and Reprint Permission Abstracting is permitted with credit to the source. Libraries are permitted to photocopy beyond the limit of U.S. copyright law, for private use of patrons, those articles in this volume that carry a code at the bottom of the first provided that the per-copy fee indicated in the code is paid through the Copyright Clearance Center, 222 Rosewood Drive, Danvers, MA 01923. Other copying, reprint or reproduction request should be addresses to IEEE Copyrights Manager, IEEE Service Center, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ 08855-1331. IEEE Catalog Number CFP1385W-CDR ISBN 978-1-4799-2470-7 Additional copies of this publication are available from Curran Associates, Inc. 57Morehouse Lane Red Hook, NY 12751 USA + 1 845 758 0400 +1 845 758 2633 (FAX) Email: curran@proceedings.com
    • CONFERENCIAS 1. Diagnosis from Chronicles: an overview of related challenges Audine Subias CNRS; LAAS; 7 avenue du colonel Roche F-31400 Toulouse, France Univ of Toulouse, INSA, LAAS, F-31400 Toulouse, France subias@laas.fr 2. Integration of Different Facets of Diagnosis from Control and AI L. Travé-Massuyés CNRS, LAAS, 7, avenue du Colonel Roche, F-31400 Toulouse, France Univ of Toulouse, LAAS, F-31400 Toulouse, France Email: louise@laas.fr PONENCIAS 1. Deducción y Validación de un Modelo Dinámico de la Transferencia Térmica en un Invernadero a Escala Oscar Alexánder Bellón Hernández Facultad de Ciencias e Ingeniería Universidad de Boyacá Tunja, Colombia 2. Control Estadístico Aplicado a la Detección de Síntomas de Sucesos Operacionales en Producción de Crudo con Sistemas de Levantamiento Artificial BES . Cesar Pereira, Jorge Prada. Ecopetrol S.A. Piedecuesta, Colombia 3. A comparative study of geometric path planning methods for a mobile robot: Potential field and Voronoi diagrams Edwar Jacinto Gómez, Fernando Martínez Santa, Fredy Hernán Martínez Sarmiento. Distrital University Francisco José de Caldas 4. A comparative analysis of adaptive visual servo control for Robots Manipulators in 2D Maximiliano Bueno López, Daniel Mariño Lizarazo. Ingeniería Eléctrica- Ingeniería en automatización- Universidad de La Salle. 5. Integración de redes de sensores inalámbricos (WSN) IEEE 802.15.4 – 802.11 para automatización industrial Álvaro Romero, Alejandro Marín, Julián Orozco, y Jovani Jiménez. Universidad Nacional de Colombia
    • 6. Filtro digital ajustable usando micro softcore en FPGA para frecuencias entre 200 hz y 20 khz Jorge E. Reita, Juan C. Uribe, Edwar Jacinto, Fernando Martínez Universidad Distrital Francisco José de Caldas, 7. Sistema Telemétrico De Registro De Señales De Emg Superficiales Basado En Tecnología Bluetooth Robín Alfonzo Blanco, Brian Chacón Hernández, Leonardo Andrés Góngora Velandia. 8. Diseño De Un Equipo De Soldadura Basado En Gas HHO Extraído Del Agua Gustavo Adolfo Ramírez Piedrahita. Facultad de minas. Universidad Nacional de Colombia 9. Control GPI Multivariable de un Exoesqueleto para Asistencia de Marcha en Personas con Discapacidad Motora J. Arcos, A. Tovar, J. Cortés, H. Díaz, L. Sarmiento. Universidad de San Buenaventura, Bogotá; Indiana University Purdue University Indianapolis; Universidad Nacional de Colombia, Bogotá. 10. Detección y Seguimiento Facial en Niños Autistas con Bajo Nivel de Funcionamiento Y. Castro, J.C. Bejarano, J. D. Posada, J.A.Villanueva. Department of Engineering, Universidad Autónoma Del Caribe –Barranquilla, Colombia. 11. Modelo Para La Apliacion De La Norma Iec61131-3 En Un Sistema De Manufactura Flexible Oscar Mauricio Arévalo Rodríguez, Álvaro Antonio Patiño Forero Universidad de La Salle 12. Diseño Scada de una autoclave, aplicando la norma IEC 61131-3. Germán Alejandro Piñeros Bernal, Álvaro Patiño Universidad de La Salle 13. Diseño y manufactura de un robot pendular suspendido de 4 gdl, para utilizarlo dentro de un aplicativo de realidad virtual aumentada con colecciones de museografia y telecontrol por internet Méndez M. Luis Miguel, Uribe M. Bernardo y Pantoja R. Cesar Augusto. Department of Mechanical and MechatronicsEngineering Universidad Nacional de Colombia 14. Evaluación del Desempeño de un Controlador MPC para Una Planta Multivariable de Tanques Interactuantes Mario A. Zuñiga M., Pedro L. Rivera W., Francisco Franco Departamento de Electrónica y Telecomunicaciones, Ingeniería en Automática Industrial, Universidad del Cauca
    • Popayán, Colombia 15. Diseño E Implementación De Una Máquina Para La Producción De Papas Chips Leonardo Alberto Ciendua, Jonathan Jair Díaz, Luis Fernando Morales, Chiara Seidel Schlenker, Álvaro A. Patiño-Forero, Jairo O. Montoya Programa de Ingeniería en Automatización, Universidad de la Salle Bogotá, Colombia 16. Tecnificación de equipos de control y monitorización de material particulado para mejorar la calidad del aire en zonas de explotación y coquización de carbón en Boyacá Oscar AlexánderBellón Hernández, Dora Marcela Benítez Ramírez Facultad de Ciencias e Ingeniería Universidad de Boyacá 17. Modeling and tracking control of a pneumatic servo positioning system Iván Ramírez 18. Afinador de Guitarra Acústica Semiautomático Juan Bejarano, Leandro Torres, Cesar Zúñiga, Facultad de Ingeniería, Universidad Autónoma del Caribe 19. Analysis of alarm management in startups and shutdowns for oil refining processes Vásquez John, Prada Jorge, Agudelo Carlos, Jiménez José.Escuela Colombiana de Carreras Industriales ECCI Engineering department, Andes University Automation Group Instituto Colombiano del Petróleo ICP 20. Optimización Multi-objetivo de un Controlador PID Aplicando Algoritmos Bioinspirados Juan Camilo Castro Pinto, María Alejandra Guzmán Pardo 21. B-WalkMóvil -Sistema de Información Móvil para la Ubicación de Personas Invidentes Diana Lancheros Cuesta, Laura Cardozo, Laura Corredor, Ingeniería en Automatización, Universidad de La Salle 22. Diseño y Construcción de un Prototipo de Máquina de Rehabilitación de Mano y Muñeca Camilo Andrés Cáceres Flórez, Jefry Anderson Mora Montañez, Robinson Jiménez Moreno GAV- Universidad Militar Nueva Granada 23. Comparación de enfoques de sistemas de control tradicionales y el paradigma de los Sistemas Holónicos de Manufactura
    • Luis A Cruz Salazar, Oscar A Rojas Alvarado. Universidad Antonio Nariño, Universidad del Cauca 24. Diseño Y Construcción De Un Rov Sumergible Nelson O. Rodríguez Quiroz, Jairo O. Montoya G. Universidad De La Salle - Programa de Ingeniería en Automatización 25. Implementación de redes neuronales y lógica difusa para la clasificación de patrones obtenidos por un Sónar Muñoz Aldana, David, Cruz Salazar, Luis A., Contreras Montes, Juan Fundación Universitaria Tecnológico Comfenalco Escuela Naval Almirante Padilla “ENAP” 26. Control de Temperatura en un Bioproceso Utilizando Lógica Difusa Andrea Santos Morales, Cristian Camilo Beltrán Hernández, Claudia L. Garzón-Castro Grupo de Investigación CAPSAB- Facultad de Ingeniería - Universidad de La Sabana - Chía, Colombia 27. Comparative analysis of non-linear filters for attitude estimation in a low-cost inertial station Sebastián López R., Julian,Munoz. Ruiz Fredy,Cheguini Mazeyar 28. Diseño de un Prototipo de Planta Para el Control de Nivel Marco Tulio Calderón Acuña, Luis Hildebrando Alzate, José Ariel Gil García Departamento de Física, Universidad de Caldas, Manizales, Colombia 29. Aproximacion Al Diseño De Los Eslabones De Un Robot Delta Lucas Urrea Mantilla, Sergio Alejandro Medina, Ricardo Andrés Castillo, Oscar Fernando Avilés Programa de ingeniería en Mecatrónica, Universidad Militar Nueva Granada, Bogotá, Colombia. 30. Diseño e implementación de un Prototipo de Torno Fresador de Control Numérico Computarizado Fausto Acuña Departamento de Energía y Mecánica- ESPE, Latacunga, Ecuador Andrés Gordón, Walter Núñez - Carrera de Ingeniería Mecatrónica- ESPE Latacunga, Ecuador 31. Análisis Comparativo De Técnicas De Control Convencional E Inteligente Con Los Sistemas De Articulación Flexible Y Bola Biga Germán E. Polanco Aristizábal, Oscar E. Soto Castañeda, Jesús A. López Departamento de Automática y electrónica, Universidad Autónoma de occidente.
    • 33. Diseño de Control Neuronal por PLC para una Planta de Laboratorio Mario A. Fernández F., Universidad de Talca, Curicó, Chile William Gutiérrez M., SENA-Regional Valle, Cali, Colombia Jesús A. López S., Universidad Autónoma de Occidente, Cali, Colombia 32. Inteligencia De Enjambres Aplicada Al Control Adaptativo Navas, Andrés Felipe., López, Jesús A. Universidad Autónoma de Occidente – Cali 33. Implementación de una Red Neuronal Artificial tipo SOM en una FPGA para la resolución de trayectorias tipo laberinto Callejas Iván, Piñeros Juan, Rocha Juan, Hernández Ferney, Delgado Fabio Ingeniería Electrónica, Universidad INCCA de Colombia Bogotá, Colombia 34. Reconocimiento de Embarcaciones Marinas Usando Redes Neuronales Esmeide Leal, Nallig Leal, Ronald Messino, Richard Aroca. 35. Cálculo de camino óptimo para manipulador articulado SCARA sujeto a obstáculos. Carlos G. Pillajo Departamento de Control y Automatización Universidad Politécnica Salesiana Quito, Ecuador 36. Estimación de orientación de herramienta y tuerca utilizando la visión del robot NAO Carlos Peña, José Hoyos, Flavio Prieto Jorge Ayala, Claudia Garzón-Castro Facultad de ingeniería Universidad Nacional de Colombia, Universidad de La Sabana 37. Diseño de un Sistema de Maniobra y Pateo la Bola, para un Robot Categoría SSL para la RobocuP Rangel Díaz, Jorge Eliécer, Sanabria Torres, Jairo Andrés Universidad de La Salle; Trane de Colombia SA 38. Técnicas De Control Adaptativo Aplicadas A Un Mezclador Por Baches Con Agitación Continua Juan Esteban Betancur, David Velásquez Rendón, José Fernando Osorio Brand, Rigoberto Maldonado. Escuela de Ingeniería de Antioquia. Envigado 39. Design and implementation of a prototype orthoses for prevention and treatment of Carpal Tunnel Syndrome (CTS)
    • Karen Edilma Garzón Cruz, José Luis Rubiano Fernández Universidad de la Salle, Bogotá 40. Design of an under actuated Altering tetrapod Robot bio Inspired on Scorpions Jorge I. Montalvo N. Universidad Autónoma de Occidente POSTER 1. Sistema automatizado para la caracterización de la calidad espacial de un haz láser Norma Alicia Barboza Tello, Eduardo Antonio Murillo Bracamontes, José Luis Rodríguez Verduzco 2. Control Basado en PLC de un Brazo Robótico para el Transporte y Almacenamiento de Productos en una Celda de manufactura Jurado Muñoz Sandra M., Cubillos Rojas Jean A., Muñoz Magín Elviz Jhony, Muñoz Tafur Johan Fabián. Institución Universitaria Tecnológica de Comfacauca Unicomfacauca Facultad de Ingeniería – Tecnología en Electrónica- Popayán, Colombia 3. Desarrollo De Una Herramienta Extrusora De Polímero Utilizada En Una Impresora 3d Fdm Edgar A. Torres, Jersson X. León, Edwin Torres. Escuela de Ingeniería Electromecánica, Grupo de Energías y Nuevas Tecnologías-GENTE Universidad Pedagógica y Tecnológica de Colombia, Duitama, Colombia 4. Sistema Domótico Para Discapacitados Controlado Por Voz Iván Santiago García Peñaloza, Luis Eduardo Sierra Catillo, Adriana Patricia Arias Díaz, Edwin Ferney Bonilla Torres, Salvador Pacheco. División de Ingenierías y Arquitectura, Facultad de Ingeniería Mecatrónica, Universidad Santo Tomás- Bucaramanga, Colombia. 5. Control Adaptativo en una junta P-R (del tipo Prismático Rotacional) Gamba, Nicolás. Sierra, Nelson y Romero, David. Universidad Nacional de Colombia 6. Modelo Para La Implementación De La Norma Iec 61131-3 En Un Sistema Integrado De Manufactura Julio Alberto Ambrosio, Erick Stiven Ariza, Julián David Guaqueta, Álvaro Antonio Patiño. Universidad de la Salle, AVARC/SAVARC Bogotá D.C, Colombia. 7. Plataforma didáctica para el estudio de procesos térmicos en laboratorio de Instrumentación industrial
    • A. Chacón García, H. Montaña Quintero, Departamento de Ingeniería Electrónica Pontificia Universidad Javeriana, Bogotá, Colombia Tecnología en Electrónica Universidad Distrital Francisco José de Caldas 8. Actuador Hidráulico para Prótesis de Rodilla Edilberto Mejía Ruda, Sebastián Jiménez Gómez, Oscar Fernando Avilés Sánchez, Oscar Iván Caldas Flautero, Juan Camilo Hernández. Mejía, Programa de Ingeniería Mecatrónica –Universidad Militar Nueva Granada 9. Analysis of Kinematics and Dynamics for ABB IRB-140 Serial Robots and Evaluation of Energy Consumption in the Tracking of a Path. Mauro Baquero Suarez, Ricardo Ramírez Heredia, Mechatronics Engineering Department, Universidad Nacional 10. Control De Plataforma De Stewart Mediante Procesamiento De Imagen Robinson Jiménez Moreno, Oscar Fernando Avilés S. y Jorge Riveros, GAV - Universidad Militar Nueva Granada 11. Diseño de un Sistema Dosificador y Mezclador de Concentrados H. González, H. González, J. Bohórquez, J. Quintero, J. Gómez Grupo de Investigación de Control & Mecatrónica - UNAB 12. Diseño De Controladores Pid Para Sistemas De Segundo Orden Usando LoopShaping Robusto Mario F. Jiménez, Andrés A. Ramírez. Departamento de Ingeniería Mecatrónica - Fundación Universitaria Agraria de Colombia. 13. Desarrollo de un Sistema SCADA inalámbrico con Zigbee y Arduino Herrera Jean, Barrios Mauricio y Pérez Saúl. Programa de Ingeniería Mecatrónica, Universidad Autónoma del Caribe 14. Control remoto de un robot móvil LEGO Mindstorm mediante Visión por Computador German Andrés Rivas Lema, Andrés Felipe Gálvez Leyes, Jimmy Alexander Cortes Osorio Universidad Tecnológica de Pereira. 15. Investigación De Nuevos Modelos Nanotecnológicos En El Diseño De Piel Artificial Con Nanoinstrumentación Fabricada Por Electrospinning Para El Recubrimiento De Prótesis De Mano Y Pierna En Discapacitados Antonio Faustino Muñoz, Aldo Pardo García. Universidad Autónoma de Bucaramanga – Grupo de Investigación de Control & Mecatrónica, Universidad de Pamplona Instituto de Investigaciones Tecnologías Avanzadas IIDTA, Universidad del Cauca, Grupo en Automática Industrial
    • 16. Dispositivo Traductor Del Lenguaje De Señas De Personas Sordas A Sonidos Auditivos De Las Letras Del Abecedario. Carrasco Harold, Encalada Lennin, Universidad Técnica del Norte, Ibarra Ecuador 17. Sistema de seguridad para la conducción de vehículos mediante el análisis facial de una persona utilizando visión artificial Alvaro Fuentes, Gabriela Estrella, Carlos Acosta, Juan Nazate,. Carrera de Ingeniería Mecatrónica, Universidad Técnica del Norte, Ibarra, Ecuador 18. Reconocedor Facial Usando PCA y Redes Neuronales Manuel Alejandro Díaz granados Santos, Universidad Autónoma de Occidente, Cali, Colombia Jesús A. López, Universidad Autónoma de Occidente, Cali, Colombia 19. Diseño e Implementación de un Sistema Bio-inspirado Para la Simulación del Depredador y la Presa Implementado sobre Plataformas Lego Kristel Solange Novoa Roldán, Héctor Iván Tangarife Escobar, Rhonier Ernesto Machado Mosquera Universidad Distrital Francisco José de Caldas, Facultad Tecnológica. Grupo de Investigación Robótica Móvil Autónoma- ROMA 20. Plataforma De Entrenamiento En Tareas De Telecirugía Samuel Quintero M , Oscar Avilés S, Darío Amaya, Robinson Jiménez. Grupo de investigación GAV - Universidad Militar Nueva Granada 21. Diseño y Construcción de una Máquina Llenadora Semiautomática para Bolsa Plástica González Barreto Sergio Fabián, Rodríguez Ardila Julián Felipe Tecnología Mecatrónica, Escuela Tecnológica Instituto Técnico Central 22. Diseño de dispositivo para el control de Multímetros Fluke Serie 80 William Darío Aguirre Hernández, Diego Alejandro Fajardo Vargas, Fabio Lorenzo Roa Cárdenas Ingeniería Mecatrónica, Fundación Universitaria Agraria de Colombia 23. Segway Plataforma De Un Grado De Libertad Kristel Solange Novoa Roldán, Mauricio Diusaba Rodriguez, Yesid Urueña Cuervo Universidad Distrital Francisco José de Caldas, Facultad Tecnológica. Grupo de Investigación Robótica Móvil Autónoma- ROMA
    • Diagnosis from Chronicles: an overview of related challenges Audine Subias CNRS; LAAS; 7 avenue du colonel Roche F-31400 Toulouse, France Univ of Toulouse, INSA, LAAS, F-31400 Toulouse, France subias@laas.fr - Abstract—Chronicle recognition is an efficient method to address the problem of diagnosis and more generally the problem of situation recognition. Several researches have investigated this direction to develop approaches for dynamic complex systems. But chronicle recognition gathers other interesting research topics related notably to the field of machine learning and to timed transition systems modeling. This article gives a picture of different theoretical and applicative works connected to chronicle recognition which is an active research area. Index Terms—Diagnosis - Chonicle recognition- Diagnosability analysis - Chronicle learning - event(E,t): an event type E is stamped with t the date of its occurrence. noevent(E, [α, β]): this predicate defines a forbidden event. No event E occurs between α and β time units. occurs((m, n), E, [α, β]) : at least m and at most n occurrences of an event E between α and β time units. A notion of domain attribute is also defined by a couple E : e where E is the attribute name and e is a possible value of the attribute. The set of possible values defines the domain of the attribute. A domain attribute as a unique value at each time instant t. In this way, the predicate event(E : (e1, e2), t) models a change in the value of domain attribute E from e1 to e2 at time t and the predicate noevent(E : (e1, e2), [α, β]) forbids the change of value of E between α and β time units. Finally, a set of actions can be launched and some events can be emitted when a chronicle is recognized. Fig 2 gives two simple examples of chronicles according Dousson’s language description. I. C HRONICLES WORLD A. What are chronicles ? Most of the works on chronicles are issued from the French community. [29] has initially developed this model to capture automatically the evolutions or partial evolutions of dynamic systems. The evolutions to monitor are described in terms of temporal patterns called chronicles. A chronicle is not a simple execution trace of the system it is a discriminant observable part allowing to recognize a particular situation. Chronicles are expressed in a specific language and then translated into time constraints satisfaction graphs. The nodes of the graphs are associated to the events, and the edges are labeled by the time constraints (see Fig 1). Chronicle SequenceAB { event(A, t1) event(B, t2) 0 < t2 - t1 < 2 -- sequence within 2s Chronicle Noevent_In_AB { event(A, t1) event(B, t2) noevent(C, (t1 t2) 0 < t2 - t1 < 2 -- sequence within 2s when recognized emit event(C, t2) } [4, 6] [1, 3] B A [2, 5] D when recognized emit event(D, t2) } Fig. 2: Chronicle of sequence AB in [0, 2] (left) and no event C in AB (right). ]0, +∞[ C Chronicle based approaches can be related to other methods to represent situations stressing on the temporal dimension such that situation calculus introduced by [55], the event calculus [51] or the temporal interval of Allen [5],[6]. All these methods are commonly used in the Artificial Intelligence field for representing and reasoning about temporal information. One major advantage of chronicles compared to these approaches is the rich formalism allowing one to describe the observable patterns corresponding to behaviors one wants to detect. In particular, chronicles account for partial orders between events easily and are also able to the lack of events via forbidden events. Another advantage lies on the efficiency of the recognition Fig. 1: A chronicle This kind of approach assumes that a time stamp or occurrence date can be assigned to each event. A chronicle is therefore a temporal pattern described in terms of events and time constraint between event occurrence dates. In [29] the chronicle language is based on the notion of predicate. A predicate defines the events required for the recognition and the events which must be discarded. A chronicle is recognized if all the predicates are satisfied. The major predicates that have been defined are: 1
    • system which makes chronicles suitable for real-time operation (see section I-B). The main drawback of the chronicle based approach is the design of the chronicles. How acquiring and updating the chronicles? We will see in section III that several approaches have been proposed to remedy this design problem. Chronicle recognition consists in identifying in an observable flow of events all the instances of the chronicles i.e. all possible matchings between an input flow of events and a chronicle. The identification is performed on the fly, as soon as the events occur. When a new event occurs it is integrated into the chronicle if it is consistent with the expected event of the pattern and if its time stamp is consistent with the time constraints of the chronicle. Each new instance of chronicle generated is a new hypothesis and added to the set of hypotheses. The chronicle recognition system must then manage on-line all these instances i.e. all the hypotheses elaborated in time. Instances are discarded when time constraints are violated. Finally, a chronicle is recognized when a complete match is observed. For one given flow of events multiple instances of a chronicle can be recognized in a sequential way or simultaneously. For example, let us consider the simple chronicle defined using the description language previously presented: event(A, t1 ) ∧ event(B, t2 ) ∧ event(C, t3 ) ∧ (t2 − t1 ) ∈ [1, 3] ∧ (t3 − t2 ) ∈ [0, +∞[: an event A occurs followed by an event B with an interval of 1 to 3 time units. B is then followed by an event C (see Figure 3). Let us consider the observed event flow: (A, 0), (B, 2), (A, 8), (B, 9), (C, 11). At t = 11, two instances of this chronicle are simultaneously recognized when the event C occurs (see Figure 4). Note that, in this example the two partial instances (A, 0), (B, 2) and (A, 8), (B, 9) will never be discarded as the event C can occur whenever and the time constraint will never be violated. With an other observed event flow given by (A, 0), (B, 2), (C, 8), (A, 9), (B, 10), (C, 30) two instances of the chronicle would be recognized in a sequential way. A [1, 3] B C Fig. 3: A simple chronicle [29] has developed a Chronicle Recognition System (CRS) that performs an exhaustive recognition. Another chronicle based approach has been developed by [16] providing also a chronicle recognition system called CRS/ON ERA designed on the basis of duplicating automata and able to detect on line chronicle instances (see section IV-D). The main difference between the two approaches is the syntax used to describe the chronicles. Another difference concerns the way the events are managed by the chronicle recognition system. In CRS/ON ERA the events are managed according a first in first out mechanism whereas in CRS the events are managed according to their occurrence dates. The two systems are implemented with object languages and can be integrated as libraries with other applications or used via an  Instances   0   {(A,0)}   2   {(A,0)},{(A,0),(B,2)}   8   {(A,0),(B,2)},  {(A,8)}   9   {(A,0),(B,2)},  {(A,8),(B,9)}   11   B. Chronicle recognition  Time   {(A,0),(B,2)},  {(A,0),(B,2),(C,11)},     {(A,8),(B,9)},  {(A,8),(B,9),(C,11)}   13   {(A,0),(B,2)},  {(A,8),(B,9)}   Fig. 4: Instances of chronicles independent executable. More recently a new recognition tool called Chronicle Recognition Library (CRL) based on the semantic of the chronicle language CRS/ON ERA has been proposed [17]. Chronicle recognition can be related to other situation recognition systems like the temporal diagnosis system developed by [36] for tracking hepatitis symptoms, the work of [57] for planning and matching an observation sequence applied to the diagnosis of CN C-machining centers and also the work of [43] to diagnose trends in growth patterns of pediatric patients. The approach proposed in [49] illustrated in the domain of driverless transport systems must also be mentioned. The difference between these systems concerns mainly the temporal framework used and their ability to represent complex temporal behaviors and complex structured situations. Another relevant criterion is obviously the computational efficiency of the situation recognition system. Plan recognition is another research area that can be related to chronicle recognition. In the context of multi agent systems plan recognition consists in deriving the underlying plan executed by an agent based on partial observation of its behavior. The main difference is that plan recognition generally focusses on the composition of the plan in terms of actions rather than on time aspects. Moreover, the context (goals, preferences and capabilities of the agent, effect of the plan execution...) in which the plan is generated is also considered [60]. II. D IAGNOSIS BASED ON CHRONICLE RECOGNITION When one use chronicle for diagnosis purposes there are two main ways to consider problem. Chronicles can model the normal behavior of the system one wants to diagnose. The diagnosis problem is then tackled as a consistency problem between the observations and the model of the system. In this case, the chronicle recognition allows to detect any discrepancy between the normal behavior of the system and the real behavior given through the observations (that are supposed safe). Another possibility is to consider chronicles of faulty behaviors. The efficiency of such an approach relies on the direct link between the symptom of a fault and the fault itself. Nevertheless, it differs from classical abductive diagnosis systems as time aspects are dominant. Generally diagnosis applications based on chronicles need not only the two types of chronicles (normal and faulty) but also a real chronicle base, what is not trivial to design (see section III).
    • AUTONOMOUS COMMUNICATING SYSTEMS A. Use of chronicles for diagnosis The chronicle approach has been developed and used in a wide spectrum of applications [22]: for telecommunication systems to manage alarms [27] or in production domain to monitor gas turbines [2]. In the medical field also, for cardiac arrhythmia detection [20], where electrocardiogram interpretation is made by chronicles: a symbolic description with time constraints is associated to pathological situations. In [52] chronicles are used to alarm processing in power distribution systems. More recently chronicles have been used in intrusion detection system. In [56] a chronicle approach for alarm correlation is proposed. Chronicles are not directly used to describe attacks but to represent known phenomena which involve several alarms. Chronicles are used both to represent normal phenomena allowing to discriminate legitimate actions from attacks and malicious (and deterministic) phenomena involving many events are involved. In video understanding and more precisely in the context of visual monitoring applications for human security purposes, a formalism very closed to chronicles is proposed to describe the concepts involved in activity recognition. The objective is to detect suspect human behavior operators [62]. In the field of unmanned aircraft systems U AS, chronicles have been introduced for handling breakdowns and to check the consistency between the activities in U AS [19] but also for the successful deployment of a fully autonomous unnamed aerial vehicle operating over road and traffic networks by detecting vehicles overtaking and passing other vehicles [44]. In the context of high level architecture simulations [11], chronicle recognition is integrated into the development of a simulation as a component to analyze on line the data. Another important field of application of chronicle recognition is collaborative systems notably web services [23]. In this case the main challenge is the distribution of the chronicles into subchronicles and the communication or synchronization mechanisms between the chronicles [13],[40]. The next section gives an overview of two recent projects benefiting from chronicle recognition. B. Chronicles and collaborative communicating systems More and more systems take benefit of communication supports and achieve their objectives in a networked distributed and cooperative way. For these systems, coping with context changes requires considering self-adaptive communication protocols in the design step so that the communication system configuration then dynamically changes according to the user’s requirements and to the load of the communication resources. Dealing with this problem requires the capacity of detecting the possible degradations of the Quality of Service (QoS) and of dynamically modifying the behavior of the communication protocols for each new context situation. This requires in turn both monitoring the QoS values, detecting the degradations, identifying their origins through appropriate diagnosis and executing reconfiguration actions. The DAISY project (Diagnosis for AdaptIve Strategies in collaborative sYstems) tackles the problem of providing adaptability to the traffic control and management system [65]. DAISY focusses on adapting the which mo and relat observing, on the oth Coping with context changes in networked systems requires to provide adaptability to the traffic control and management system. This can be achieved through selfcommunication protocols at the transport level for coping readaptive communication protocols that dynamically with 3. SITUA the dynamically changing contextsystem according from the configure the communication situations arising to the distributed and collaborative mobile applications. user’s requirements and to the load of the communication resources. A taxonomy of transport services provided by the existing 3.1 Princ transport protocols has beenSystem Interconnection showing In the well-known Open elaborated [26] [30], (OSI) that existing transport protocols present several limitations with In the pr referential model (Zimmerman (1980)), composed of seven layers, the application requirements. It layer operating on regard to QoStransport layer is the lowest is important to notice alerting th an end-to-end basis between two based on implementations that most of the transport services areor more communicating a new situ hosts. This layer is located between the applications error where mechanisms offering different functionalities (i.e.and the new si the network layer. Transport services enable applications the QoS p control or congestion control) are merged within the same Therefore, to abstract the communication services and protocols promonolithic implementation. Such a solution has a limited scope to detect vided by the lower network and MAC (Media Access of Control) layers. Transport protocols specifyhandling mech- discrimina applicability and assumes a predefined QoS the mechaanisms already implementedintegrated during the design-time situations nisms to be known and in order to offer the required of transport services. Because theTherefore [67] [66] propose The entire the communication protocol. communication Quality of Service (QoS) is highly impacted by the with a composition analysis o to perform the orchestration of the traffic specific transport protocol in use, our self-adaptation architecture targets of components that provide different and well-identified QoS communic the transport level and proposes to adapt the transport properties to the traffic [30]. This context evolves. approach time serie protocol as the communication component-based be pointed resulting of the combination of pluggable components offering Dealing with this problem not facilitate the a proper specific functionalities, can widely only requires design and characterization of the alternative protocol properties but development of new composed transport services. assess the also the capability of monitoring the QoS to The DAISY context. These are at the basis of the communicationproject suggests the use of chronicles associated to the different relevant modifying the behavior of theto decision to dynamically traffic situations to be detected communication protocol for each new context situation guide the composition of these pluggable components. In other and the objective appropriate reconfiguration actions. words, executing theof DAISY is to guide the reconfiguration strategies. 1 illustrates the architecture [3] foreseen to provide Figure The proposed architecture [4], that has been proposed in (Aguilar-Martin given Figure . a solution to this problem is et al. (2011)), 5and that is foreseen to provide a solution to this problem. • an off analy ficati syste teriza terns corre syste lows of hig event the t sema tions • an on tified deter acqui the s Reco ure 1 This pape following (1) Gene comm (2) Speci The Reconfiguration/Decision System outputs the protothis i col to be deployed. This decision is taken upon several The Reconfiguration/Decision System outputs the protocol is ass inputs: to be deployed. This decision is taken upon several inputs: A cla • the properties the of the different available protocols Po different available protocols gathered comm • the properties of gathered through an ontology fore t through an ontology • the communication context at time t0 Cx (t0 ) chron • • the properties P context at time 0 the communication required by the application and the a seque • the properties context Ca by the application application Pa required Each • • the current context Cx (t) recognized by the Context the current context recognized by the Context Recognition of sa ˆ tive p Recognition System, i.e. Cx (t). System Fig. 1. Architecture for self-adaptation Fig. 5: Architecture for self-adaptation The Context Recognition System monitors and assesses the communication context and related QoS, receiving information from monitors observing, on one hand, the application context Ca and, on the other hand, the network context Cx . The mission of the Context Recognition System is to perform situation recognition; this means to supply to Reconfiguration/Decision
    • System relevant information every time a new situation arises on the network and also to identify this new situation. A situation is related to an evolution of the QoS parameters of the studied communicating system. Therefore, situation recognition induces the capability to detect different relevant traffic situations taking the discriminating features in terms of QoS indicators of such situations into account. Situation recognition strategy relies then on the analysis of available information issued from the communicating system and is based on two different but non-independent steps: • an off-line step in which historical data are analyzed and processed to characterize the known behavior of the system in terms of chronicles. This step constitutes a learning stage. Learning methods such the one presented in III-B are investigated during this step. The events involved in the chronicles arise from feedback provided by standard parameters stamping the packets. • an on-line step, during which the system characterization and the on line data are used to determine the current expected state of the process. This stage is equivalent to a chronicle recognition step. C. Chronicles and service oriented applications Service Oriented Architecture (SOA) is a software development model in which an application is broken down into small units, logical or functional, called services. SOA allows the deployment of distributed applications very flexible, with loose coupling among software components such as web services, which operate in heterogeneous distributed environments. The services are inherently dynamic and then cannot be assumed to be always stable as the resulting service can be altered by external events such as changes in interfaces, misbehavior during operation etc. In the case of service composition the failure of a single service leads to error propagation in the other services involved, and then to the failure of the whole system. Such failure often cannot be detected and corrected locally (into a single service). It is then necessary to develop suitable architectures for the diagnosis and the correction of failures, both at individual (service) and global (composition) level. To face this problem, an adaptive architecture managing SOA has been proposed in [69]: ARM ISCOM (Autonomic Reflective MIddleware for management Service COMposition) is a Reflective Middleware Architecture. The reflection is the ability of ARM ISCOM to monitor and change its own behavior, as well as aspects of its implementation (syntax, semantic, etc.), allowing the ability to be sensitive to its environment. Based on autonomic computing ARM ISCOM provides an autonomic manager and an ontology framework to manage all the knowledge used by the middleware as depicted in Figure 6. The autonomic manager implements the intelligent control loops according a M AP E (Monitor, Analyse, Plan, Execute, Knowledge) schema [45]. The diagnoser module of this architecture relies on a chronicle recognition system to diagnose failures of the services. The system behaviors associated to these failures are then represented by chronicles designed from the events involved in the choreography of   Fig. 6: MAPE loop in the middleware architecture ARMISCOM the services. The monitor component sends to the diagnoser information related to the event occurrences, which allows the diagnoser to recognize the chronicle instances and to detect and identify failures. To provide a fully diagnosis architecture a diagnoser is associated to each software component of the SOA application. The distribution of chronicles into subchronicles is then one of the problem addressed in this work. Into each diagnoser, a subchronicle is a local chronicle and is defined as a subset of events and/or with a less-constrained time constraints graphs. Elements for synchronization have been introduced into (sub)chronicle definition so that the chronicle recognition process is totally distributed [70]. Each local chronicle involves specific events called linked events that establish the connexions between the subchronicles. Additionally, each event has attributes from which the consistency of the whole operating is checked. ARM ISCOM is deployed in the context of web services in a classical shop application. Two main types of failure are investigated: the violation of an acceptance of service from the warehouse and a delay in the deliverance of a service. The first type of failure is local to a service whereas the second one traduces a failure in the choreography. III. C HRONICLES DESIGN A. Chronicles design methods Diagnosis from chronicles must deal with the problem of the chronicle design as model based diagnosis approaches have to face the model building. Model based chronicle generation approaches have been developed. For instance, in [39] the runs of the monitored system are described in the temporal tiles formalism. The authors propose an algorithm inspired of Petri net unfolding to build all the temporal runs of the system. Then, the projection of these runs on the observable part allows to define the chronicles. Other approaches have been investigated from learning theory. One can consider for instance learning techniques based on Inductive Logic Programming (ILP) [54] [20], case-based chronicle learning of [33],[34] that is a characteristic supervised method by reinforcement learning but also [41],[71],[42] that adapt a
    • clustering method to learn chronicles in an unsupervised way by projecting chronicle instances into a normative space. Finally, chronicles are also acquired from approaches that analyze logs and extract the significant patterns by temporal data mining techniques. In [32],[31], the chronicle learning problem is motivated by discovering the most frequent alarm patterns in telecommunication alarm logs and their correlations. The tool, called FACE (Frequency Analyzer for Chronicle Extraction), extracts the frequent patterns by carrying out a frequencybased analysis on sublogs, defined on windows of time of fixed duration. The frequency criterion is defined as a userdefined minimal frequency threshold. It is important to notice that the considered patterns refer to a single event. For one event, the alarm log is represented as an histogram of the number of occurrences of the considered event in each time window. Then, a normalization transforms this histogram into a cumulative graph that depicts the sum of the occurrences from the beginning, normalized by the sum of occurrences during the sub-log corresponding to the current time window. Finally a Self Organizing Map (SOM) algorithm [50] is applied to the set of graphs to aggregate different temporal patterns and detect correlations. B. Focus on a chronicle learning approach In the context of the DAISY project that we have presented in Section II-B, the design of the chronicles that model the communicating system situations is a real challenge. An approach has been proposed to learn these situations at the transport level relying on data mining techniques [35][4]. The objective of temporal data mining techniques is simply to discover all patterns of interest in the input data, which is an unsupervised and explanatory task. There are several ways to define the interestingness of a pattern. However a frequency criterium is widely used [28][68][24] for unearthing temporal patterns. Among existing approaches, one can distinguish two main temporal pattern discovery frameworks: frequent episodes [53] and sequential patterns [1]. Frequent episode framework uses a single and long sequence and copes with the discovery of temporal patterns called episodes that occur sufficiently in the sequence. An episode is a partially ordered set of events. The notions of frequent episode and subepisode are defined. In [53] episode discovery focusses mainly on two types of episodes: serial episode when the order between the events is total and parallel episode when there is no order along the events. Sequential patterns framework is based on the discovery in a collection of sequences of all possible time ordered itemsets (i.e. sequence of items) with sufficient support w.r.t the user-defined threshold. The support of an itemset is defined as the number of time the item can be observed in the collection. Further, a sequence is said to be maximal in a set of sequences, if it is not contained in any other sequence. Sequential pattern discovery relies then on the systematic research of maximal sequences that have a support at least equal to the minimal support userdefined. Many methods of search for sequential patterns are designed along the same lines as the Apriori algorithm [1]. For the problem of traffic assessment on great dynamic systems addressed in DAISY , a given situation can be induced by several scenari. For instance, for a fixed network topology and fixed transport level protocols several situations of congestion can occur. If from a static point of view the features of these congestions are similar from a dynamic point of view they are different. It is then necessary to take several scenari of a same situation into account for the learning of the temporal patterns. Therefore, the chronicle discovery approach proposed allows to discover frequent chronicles from multiple sequences that is to say the chronicles that are frequent in each sequence and not on only on the collection of sequence as in sequential pattern approaches. Moreover, the proposal is to discover the chronicles not only for a given frequency criterium but for all the possible frequencies. The goal of the proposed algorithm [35] is to build large frequent chronicles in an event log composed by multiple runs. The chronicles are built by incrementation. At each step, candidate chronicles of size i are built from frequent chronicles of size i − 1 and are kept if they are frequent as well [24]. A frequent chronicle is a chronicle for which the frequency of appearance in the sequence is larger than a user defined threshold. When a larger frequent chronicle cannot be found, the search is stopped. In the final set of kept chronicles, there is no chronicle that can be a subchronicle of another one. This means that the algorithm returns the longest frequent chronicles in the event flow. IV. C HRONICLES AND OTHER FORMALISMS Chronicles are temporal pattern and then can be viewed as timed transition systems. From a diagnosis point of view, the interest is as we will see in section V to apply well known approaches of diagnosability analysis developed on such systems. By using timed transition systems such as Time Petri Nets (T P N ) [59], one can take benefit of the different methods of model checking to explore the state space of the system and to check established properties. Thus, several works have been developed to translate or to transform chronicles. A. Chronicle modeling based on Time Petri Nets Time Petri Nets (TPNs) is a prominent tool to model timed discrete event systems as several effective analysis methods have been proposed [59][9]. T P N s extend Petri nets with temporal intervals associated to transitions. Firing delay ranges are associated to transitions. The work developed by [63] focusses on the transformation of chronicle to T P N models. They consider specific chronicles called Causal Temporal Signature (CT S) that are expressed by a conjunction of triples (A, B, T ) where A and B are events and T a time constraint. The authors consider three types of time constraints which are defined by interval structure: date, time and duration. A date structure is used to model the time between the occurrence of two events whereas a delay structure allows to model the time between the occurrences of two events taking into account a degree of uncertainty. Finally, the duration structure is similar to a ”hold” predicate as it is used to express that information is true from a date and remains true throughout the time interval involved. The problem addressed in this work concerns the
    • consistency checking of a chronicle base. Generic models based into a measure of the possibility. Global constraints are then T P N are proposed to model CT S. The modeling is based on checked through a membership test of a measured duration to a strong semantic of Time Petri Nets that means that an enabled a set of value ranges. The modeling of the chronicles relies on transition check the two boundsenabling time. To illustrate thisoccurs before time date ‘δ’. [15]. The joint there of both types of fuzzy p-t the Petri nets Otherwise, if use is no clocks to is fired at its latest modeled respectively by Tmin approach,. one of Į t.u, Tmin is model due chroniclestrong occurrencenets D, according with the global model comparing to the Petri of allows to simplify STS semantic, there is a and Tmax After the proposed fired of to the is given Figure 7. Additionally, some rules are proposed to construct afiringuse Tmax which is also a success in this p-time). In a first step a semantics. of of one type of Petri net (time or case. Petri net model is associated to each constraint of a chronicle. Then a merging procedure is defined to obtain the resulting C. Rules to construct a global model of a set of chronicles Petri net in which there is no structural conflict situation as Let’s considers the chronicle form given by equation (4). NOP in this approach each constraint is verified independently. The This general chronicle illustrates that the same event can [0, +∞] possibility functions are integrated to the subchronicles models A occurs many times. The objective now is to specify rules to associating them to the firing of each transitions. A possibility make clear how these events should be interpreted in order to Max Min_b function is an associative function that establishes a possibility translate the chronicle to TPN. (A,B, [α, β])* (A,C, [γ, Tmin value (fuzzy number) to the marking of the place. An example [Į, Į] AB δ])*(C, not D, [δ, λ]) -> G (4)is given Figure 8. It corresponds to a of chronicle modeling Rule 1: Fusion of two occurrencesevents noted event ej linked Min_a global constraint between two of a referent ei and When a referent event appears in many triplets (case of [0, +∞] by an interval constraint defined by the bounds dj,i and fj,i . ] β- Į, β - Į +1] Tmax B event ‘A’ in the first two triplets of equation (4)), it must be The communication delay between the two sites is bounded in modeled by a single transition in the TPN model. [δm , δM ]. The site receiving an image of ei (noted ek) is in Success (A,B, [Į, β]) 14 Rule 2: Fusion of occurrence of referent event and charge of the constraint verification. The function µA represents Fig. 5. TPN model of a delay secondary event Fig. 7: Directly from [63]: a chronicle of a delay between the membership function of the duration between the occurrence When an event how the as a referent event and as a In the following we showappears fuzzy p-t time Petri nets are used for modelling the different events A and B of ej ‘Min_a’ is then marked and enables the transition 'B'. If B secondary and ek to the fuzzy set of real values which allow to verify event, types of globalconstraintcorresponding triplets must be put in variable the constraints whichwhich is defined by the linguistic and can compose a sub-chronicle. occurs before the firing of Tmax, then the corresponding sequence by the fusion of events in a single transition (case ”verification of the constraint”. transition is from In this chronicles. The resulting marked global model fired. a set ofcase, the place 'Success' isglobal Timeof the event C in the last two triplets). The firing of a transition is C. Globalvalidated by the modelling by of local events and of image of interval constraint reception considering a delay indicating then analyzed with model checker to (2) is Petri Net isthat the relationship agiven by equation check the events external of a site. This representation is inspired from checked. Otherwise the firing of Tmax indicates the failure of The consistency of the chronicles by detecting input flows of events figure 11 gives the corresponding fuzzy p-t time Petri net. NOP Petri nets with internal synchronization representation [61]. the can abnormally lead to the recognition its properties that recognition. In order to be able to check of the chronicle. A Min_b1 Max1 [Į, Į] AB S1 Min_a1 B ] β- Į, β- Į +1] S1 Min_b2 Max2 (A,B, [Į, β]) S2 ] 0, 1] (A,C, [γ, γ]) [γ, γ] Ac Min_a2 G such as liveness illustrated in this PN of a loopback arc The approach is and boundness,the field hasproduction system from Tmax. This allows us constructing the state class diagnose on a conveyor belt. Chronicles are introduced to graph and then to like that this PN switch. The analysis componentsprove sensors and is live and bounded. performed on the models aims to check the consistency of the faulty NOP behaviors that will be recognized through the chronicles. [dj,i C Min_b3 Max3 CD [δ, δ] B. Chronicle modeling +∞] Fuzzy Petri Nets T [0, based on C Min_a3 ] λ- δ, λ- δ +1] In [12] [14] attention is focussed on distributed discrete D D CD Ma Min_b events systems. Therefore, a chronicle model is decomposed x (C,not D, [δ, λ]) into a set of subchronicles distributed on several sites. Moreover, S3 [δ, δ] Fig. 8: Directly from [12]: a chronicle Caseaofdelay between two of failure the authors consider the problem of communication delays Consequencefrom two distinct sites events G of between sites as in real applications messages transmission Modelling principles Fig. 11. constraint type Min_a between sites are not instantaneous. Thus, the time constraints of T2 Fig. the chronicles never refers to a[0, +∞]time reference (local clock) 7. Construction rules Application local T1 The function represents the membership function of the duration λ- δ, λ- δ +1] [0, +∞] C. Chronicle modeling based on Labeled Time Petri Nets with or to an] implementation architecture. A constraint traduces a We also specify rules fordefined by the linguisticfailure or the management of variable ”verification of the to the Priorities fuzzy set causal relationshipSuccess considered application e.g. a transport of the ;C, not D͕ ΀δ͕ λ΁Ϳ success during the recognition of a chronicle. constraint”. In [37] a systematic method to switch from any chronicle duration between two sites. The authors consider precedence Fig. 6. TPN Model of duration Rule 3: Modeling of a recognition failure constraints that specify that an eventfrom the period.after the marking of corresponding Labeled Time Petri in the with Priorities figure 11, Net interval The date case is deduced directly A must occur The The In to the a place isthe token of the state of the recognition [0, 1]. On case of failure, associated to a fuzzy value event Δt is interval to an equal lower and that an eventdelay place (LTassociated to a proposed. the firing of (occurrence modeling the probability P removed using a Labels are used for of date B, reduced constraint meaning upper bounds A mustprocess is N P r) is token from sinck transition (transition) and whose the is occur after the event B in the interval [α, β] and window events in the arc). (p= [Δt, Δt]). without any output chronicle and priorities are introduced to manage can be equal to 1. The fuzzy value , associated to the marking of the place B, will be admissibility when an event A must occur after the occurrence conflicts due to time evolution. Indeed, (C, not D, [δ, λ]) (3) Rule 4: Modeling of a recognition success Time Petri Nets with by using : of the last event precedingcase and in duration constraint. Itcalculated Prioritiesthe following rule extension of T P N in which a priority it, of the the interval [α, β]. The (TPNPr) is Equation (3) gives a use It associates a place anto each successful triplet’s distribution the event D does not occur between the date δ delays of a chronicle and the consideration of t.u relation on transitions defined [7]. part of a CTS means that recognition. When all tripletsisin the premise Considering weak time (3) induces to distinguish two types of constraints: semantic the time elapse can are increase the number and λ t.u after the occurrence of C. The semantic of this are recognized, their consequencesonly deduced by enabling of firable The local constraints link events dated by a same site. represents weighting of transitions i.e.a the firing proportional to the importance of the event a triplet is given by figure 6. In this model, only transitions T1where single transition (see figure 7). a transition cannot be forbidden by occurrence - T2 are commented. The other nodes are similar by thosein the sub-chronicle elapse. Priorities are used toweighting isfiring by an expert who judges The global constraints link events dated to different the time instance to be recognized. This complete fixed conditions. and monitoring sites. In a T are more transition t may fire from a state = (m, I) V. APPLICATION TO CONVEYOR STUDY CASE seen in Figure 5. T1 models the occurrence of the event D inthat certain eventsP N P r a meaningful than others. For example, wescould consider that the The interval of the constraint. introduce anisuncertainty on the communication delays Therefore, it a failure as the (where m is a marking and I a function associating a time the To illustrate event ”wagon on a our method, let us consider the given example section”. constraints verification of the sub-chroniclerecognitiontranslatedof figure 8. plot” isamore meaningful than the eventThis is enabled by theThe formula interval It is part of a belt conveyor. ”wagon in new to each transition enabled by m) if t type of event D is denied in the triple and then the which is fails. is superior if and minor in 3, shows that Otherwise, T2 firing models a success it a situation where D conveyor includes a to which is continuously the other case.aIt allows to increase the belt actuated by P H I i b f ` Whgb a ` YX V X c V b b f ` Wedb a ` YX WU CSQ V X c V V T R r qp a r` r Ss rt p a us rSs bƒ a bR x wr V T a ¥Cw‚¥x V€ SS yQ a)Ss vdus a` †‡©g¥x … „ a r s 'R Q r s ˆ as probability associated to the sub-chronicle instance to be recognized while taking into account 1523 26, 2003 September DRAFT
    • marking m, firable instantly and if no transition with higher priority satisfies these conditions. The authors formally define in the T P N P r formalism several basic patterns from which a chronicle model can be composed. These patterns correspond to common structures in a chronicle such that: - event(a, t) ∧ t ∈ [α, β[:] an event a occurs between α and β time units; event(a, t) ∧ noevent(b, [0, t[):] an event a occurs without any prior event b; event(a, t) ∧ occurs((m, n), b, [0, t[):] an event a occurs after at least m and at most n events b; Fig. 9 gives the LT P N P r of a chronicle based on the two predicates: event and occurs. The chronicle is recognized if the “pok ” places is marked. Initially, the place pinit is marked and m events of type b are expected to fire the transition t2 . Then, if at least n − m + 1 events b occur — i.e. a total of at least n + 1 events b — the chronicle is not recognized. On the other side, if an event a occurs before the n − m + 1 events b, then the chronicle is recognized. Finally, priorities (dashed edges) ensure compliance of the LT P N P r with the chronicle bounds. pinit t1 b p1 [0, 0] m t2 b p3 [0, 0] p4 t4 n−m+1 tok a pok Fig. 9: event(a, t) ∧ occurs((m, n), b, [0, t[) Three types of systematic combination templates of these patterns are also considered: - D. Chronicle Recognition modeling based on Coloured Petri Nets The objective of the work [10][11][18][21] is for a given chronicle to establish in a progressive way the list of all its recognitions. A chronicle is defined as a single event, the conjunction of two chronicles, the disjunction of two chronicles, the sequence of two chronicles or the absence of a chronicle during another chronicle. This is noted by: C ::= event CC|C&C C C (C) − [C]. The approach is based on the CRS/ON ERA [16] chronicle description language that introduces several operators such as: - p2 t3 The translation of any chronicle model will consist in recursively applying the correct pattern to the chronicle model. For instance, the translation of C2 consists in applying sequence to C1 first and then divergence. In this way, the LT P N P r of any chronicle results from the representation of a basic pattern or the result of a previous combination. The approach is applied in the context of diagnosability analysis (see V), therefore the Petri Net represents the chronicle model and the part of the recognition language that is relevant to diagnosability. In this work, chronicle model provides the shortest words of the recognition language that are considered as a faulty (or normal) behavior of the monitored system. The modeling of the chronicle recognition is also a challenge shown in the next section. sequence: n fully ordered patterns, for example a sequence of two events C1: event(a, t1 ) ∧ event(b, t2 ) ∧ t2 − t1 ≥ 4. divergence: an initial shared pattern precedes n parallel patterns, for example C2: event(a, t0 ) ∧ event(b, t3 ) ∧ C1 ∧ t1 − t0 ≥ 4 ∧ t3 − t0 ≥ 5. convergence: n parallel patterns precede a final shared pattern, for example C3: event(a, t0 )∧event(b, t3 )∧ C1 ∧ t3 − t0 ≥ 2 ∧ t2 − t3 ≥ 5. disjunction: C1 C2, C1 or exclusive C2 conjunction C1&C2, C1 and C2 can occur in any order sequence C1&C2, C1 then C2 absence (C1) − [C2], C1 without any occurrence of C2 during the recognition of C1. For instance, the chronicle (EF ) − [G] corresponds to the sequence EF (event E followed by event F ) without event G occurring between E and F . The modeling of the recognition relies on the modeling of the different operators with Coloured Petri Nets (CP N ) that extend classical Petri Nets with colors assigned to the tokens [46]. The places of the net are typed i.e. a color set is assigned to each place and then a place contains multisets of tokens. It is then possible that the enabling of a transition depends on the input marking i.e. on the colors of the token of the input places. Input and output edges of transitions are labelled by expressions in which variables of certain type are involved. The firing of the transition supposes then a binding of the variables to the colors of the tokens such that the transition is enabled. The basic principle of chronicle recognition modeling proposed is that the places are used to store in a single token a list of all chronicles instances. A chronicle instance is represented by a list of events, and a chronicle recognition set by a list of lists of events. The authors mention that these coloured nets are designed in such a way that they can be easily composed with others by using place fusion to consider complex chronicles. Figure 10 presents the CP N for a simple chronicle corresponding to the occurrence of events A and B.
    • occurrence of event b, but this will “complete nothing” and leave unchanged the marking. Now as soon as there is an event a recognition, it will be completed with each event b recognition to produce the recognitions of chronicle A B. B a ⎥ ⎢ ⎢ ⎥ ⎣ instB ⎦ →⎣ ⎦ instB 2 Num cpt⎤ ⎡cpt [[]] cpt+1 )⎥ End⎢ ANR(currB , Ea ⎥ →⎢ ⎣ instB of two⎦events. By introducing time, between the occurrence cpt + 1 the objective is to determine whether durations between events Success must be taken into account by the diagnostic tool to improve When the event is a B occurrence and 2 SuccessA = [], the overall diagnosability [48] then the content of place Success (on the right hand side net) Chronicles can be used to gathered both the by now evolves to include all new occurrences of AB obtainedknowledge about the underlying system and aboutA occurrences. combining the last B event with all previous the faulty executions. The underlying system is then supposed to behave like a timed m modelabM = ⎤ ⎡ ) with E the set of dated event⎤ (E, T trajectories ⎡ [[]] of Start the system (i.e. the system language) and T the set of time [[]] ⎥ curr dates of the events. 2 SuccessA⎢ currB ⎥ B ⎢ constraints between the occurrence B ⎥ ⎥→⎢ ⎢ ⎣ ANR(instB CPR([[E cpt+1 ]], curr the Supervisory Success ⎣ instB ⎦ this track we, present the work ofB )) ⎦ To illustrate b Num 2 Control cpt cpt ⎡(DISCO) team of LAAS − CN RS. ⎤ [[]] In [58], the set of trajectories of the system leading to the ⎥ curr End⎢ recognition of the chronicleBc is called the recognition language ⎥ →⎢ ⎣ ANR(instB , CPR([[E cpt+1 ]], currB )) ⎦ b L(c). Each chronicle is associated to its observable recognition cpt + of language C, that is the set 1 observable projections (i.e. the Disjunction recognition Fig. CPN for recognition Fig. 10: The CP N 3.model for A Bthe recognition of the AB E. trajectory restricted to the observable events) of any trajectory of construction of the coloured Petri fault f (i.e. a fault TheL(c). Each abnormal situation or net for disjunction event chronicle (directly issued from [18]) Note also that both nets for A and B have variables curr like in [64] or a fault pattern like in [47] or in nets is very straightforward: places Start and Success of both [48]) has a and inst. In order to distinguish them when dealing with are signatureand both nets work in parallel. We do not go into system merged, Sig(f ) that is the observable behavior of the the overall marking, they will be denoted respectively currA , further detail as to this operatorchronicle model c(f ) is associated when the fault occurs. A for brevity reasons. The and currB , instB . instA authors define the operational semantics of chronicle to a fault f when its observable recognition language C is a recognition modeled using CP N for the different constructions 8 We provide here a simplified definition of complete, while its full f subset of the fault signature C account the case 7 When A and B are the same name, we deal with “chronicles with definition includes a mechanism to take into f ⊆ Sig(f ). with repetition, of the language and prove that the recognition provided by the repetitions” which are taken into account homogeneously in our processing. e.g. chronicle AA. Under the single fault assumption, the authors propose to CP N is a suitable representation of the recognition for the check the diagnosability of a fault f relying only on a set of CRS/ON ERA language. The modeling of the recognition is chronicles by checking whether two chronicles c(f ) and c(f ) of main interest for formal verification activities in critical and are exclusive or not. Two chronicles are defined exclusive if 104 large scale systems. The work has been applied in the context they cannot be recognized with the same flow of events. of simulation data analysis notably in an airport simulation to The proposed exclusiveness analysis is performed in the detect faulty simulation activities [21]. following way: V. D IAGNOSABILITY A NALYSIS BASED ON CHRONICLES Check for the non exclusiveness of chronicles c(f1 ) and c(f2 ): if Cf1 ∩ Cf2 = ∅ then f1 and f2 are not Nowadays, the design of a posteriori tool for the diagnosis diagnosable. of a system is no longer imaginable as systems gets more and Check for the non exclusiveness between a chronicle more complex. It is imperative to be concerned at the design c(f ) and a non faulty model of the monitored system stage of the system diagnosis purposes to achieve. Several c(f0 ): if Cf ∩ Cf0 = ∅ then f is not diagnosable and research works tend to characterize and analyze properties the more precisely f is not detectable. system should have to make the diagnostic tool efficient on-line Note that in the case where Cf = Sig(f ) checking for the to monitor and isolate the faults of the system: among these exclusiveness allows to conclude on the diagnosability property. properties, diagnosability is the most studied one. Diagnosability This approach has been applied in the context of the is closely related to the capability of the monitoring to record W S − DIAM ON D european project with the objective to observations which are necessary to determine the failure causes develop self-healing Web Services [25]. More recently, [37] within the system with certainty. In case of dynamic systems, propose a fully automated and formal method to perform these diagnosability analysis usually consists in analyzing, off-line, exclusiveness tests. This method relies on three main steps as the system trajectories with respect to their observability to illustrated on Figure 11: determine whether the corresponding diagnostic tool will be During the translation step each chronicle model is able to diagnose the faults online. In the context of discretemodeled into a Labeled Time Petri Net with Priorities event systems (DES) the work developed by [64] introducing (LTPNPr). according the method we have depicted in the diagnoser notion is a reference. section IV-C. So, an intuitive way to tackle diagnosability is to answer the Then a Product step aims to construct from the question: is there a diagnosis function which from an observable LT P N P r model of each translated chronicle a behaviour of the system can tag the observable behaviour with unique LT P N P r (called product) that models the a label that is either, ”normal”, ”faulty” or ”ambiguous” and possible common behaviors with synchronized events. this in a bounded delay?. For Timed Discrete Event Systems (TDES). The aim is to Indeed, the exclusiveness test aims to check that improve the characterization of diagnosability for a discrete the chronicles cannot be recognized by a common event system by taking into account the notion of finite durations trajectory of events.
    • General principle of exclusiveness analysis based on chronicles The system (E , T ) Chronicles Database Projection Data Translation (Eobs , Tobs ) LTPNPrs Product LTPNPr Steps Generation SCG Analysis Exclusiveness? Analysis Results LTPNPr: Labeled Time Petri Nets with Priorities SCG: State Class Graph Fig. 11: General principle of exclusiveness analysis based on chronicles - Finally, an Exclusiveness analysis step performs the exclusiveness tests. The exclusiveness analysis must deal with an important number of trajectories that means chronicle instances that may induce the chronicle recognition. These chronicles instances correspond to the marked behaviors of the Petri Net. By introducing time intervals between two events, the state-space associated to the set of possible trajectories is usually infinite. In order to perform any diagnosability analysis, it is then necessary to use an abstraction of this state-space as the complete enumeration of the possible instances of each chronicle is not realistic. The authors propose to consider a time abstraction through the State Class Graph (SCG) of Time Petri Nets [9] and to perform the exclusiveness analysis on this time abstraction. Given SCf = {c1 (f ), . . . , cn (f )} a set of chronicles associated to a fault f and a set of chronicles SCf = {c1 (f ), . . . , cn (f )} associated to a fault f . As previously explained checking the non exclusiveness between at least one element of SCf and one element of SCf allows to conclude to the non diagnosability of the faults f and f . Then, in a first stage from the SCG the set of trajectories leading to the recognition of the two chronicles noted WOK . WOK is the set of trajectories leading to the marking of the pok places of the chronicle models (see section IV-C). Then, each of these trajectories is compared to the set of observable trajectories that the system can generate (without taking the events date into account) noted WOBS . If WOK WOBS = ∅ then the two chronicles are exclusive. If furthermore the faulty behavior associated to f (resp f ) is totally recognized by SCf (resp SCf ) then the system is diagnosable. If WOK WOBS = ∅ the two chronicles are not exclusive and the two faults f and f are not diagnosable. The solution of the inequalities system TOBS ∧ Tc gives the precise intervals where the two chronicles are not exclusive. With Tc the time constraints on the paths leading to the recognition of both chronicles and TOBS the restriction of the time constraints of the chronicle to the observable events. To validate the proposed approach a diagnosability checker tool has been developed, based on TINA (TIme Petri Net Analyzer, (http://www.laas.fr/tina)) [8]. The main difficulty of this approach is the combinatory explosion intrinsic of the analysis. Therefore in [38] the authors propose an approach based on Petri nets unfolding to face this problem by benefiting of a representation as a partial order of events. Current work address the problem of checking diagnosability of patterns in discrete-event systems. A pattern is a partial order of observable/no observable events and is then 8 / 20 very similar to chronicles. VI. C ONCLUSION This paper provides an overview of research investigated in the field of chronicle recognition. As we have tried to point out, the chronicle recognition is used in a wide range of applications from medical diagnosis to reconfiguration of communication protocols. One major advantage of chronicle recognition notably for diagnosis purposes is the efficiently on line. The approaches developed to translate chronicles into others formalism like Petri nets allow to use model checking technics for formal verification purposes. Moreover, the design of the chronicle takes benefits of a large amount of works developed in the data mining community. This picture allows us to identify a number of research issues. We can highlight for instance the chronicle design recovery issued from the diagnosability analysis based on chronicles. The problem of on line learning of chronicles is also an interesting challenge as the problem of the chronicle distribution in the context of distributed applications. VII. ACKNOWELEDGEMENT I want to strongly thank the members of the Diagnosis and Supervisory Control (DISCO) team of the LAAS-CNRS, the colleagues of the DAISY project and of the Post Graduate Program with Universidad de los Andes de Merida - Venezuela involved in many works presented in this paper. R EFERENCES [1] R. Agrawal and R. Srikant, “Mining sequential patterns,” in Proceedings of the Eleventh International Conference on Data Engineering, ser. ICDE ’95, Washington, DC, USA, 1995, pp. 3–14. [2] J. Aguilar, K. Bousson, C. Dousson, M. Ghallab, A. Guasch, R. Milne, C. Nicol, J. Quevedo, and L. Trav´ -Massuy` s, “Tiger: real-time situation e e assessment of dynamic systems,” LAAS-CNRS, Toulouse, France, Technical report, 1994. [3] J. Aguilar, A. Subias, and L. Trav´ -Massuy` s, “Situation assessment e e in autonomous systems,” in Global Information Infrastructure and Networking Symposium ( GIIS ), Choroni (Venezuela), december 2012. [4] J. Aguilar, A. Subias, L. Trave-Massuyes, and K. Zouaoui, “A chronicle learning approach for self-adapting strategies in collaborative communicating systems,” LAAS-CNRS, France, Technical Rapport 1xs1698, October 2011. [5] J. F. Allen, “Maintaining knowledge about temporal intervals,” Communications of the ACM, vol. 26(11), pp. 832 – 843, 1983. [6] ——, “Towards a general theory of action and time,” Artificial Intelligence, vol. 23(2), pp. 123–154, 1984.
    • [7] B. Berthomieu, F. Peres, and F. Vernadat, “Bridging the gap between timed automata and bounded time Petri nets,” in Proceedings of Formal Modeling and Analysis of Timed Systems (FORMATS’06), LCNS 4202, 2006. [8] B. Berthomieu, P. Ribet, and F. Vernadat, “The tool tina – construction of abstract state spaces for Petri nets and time Petri nets,” International Journal of Production Research, vol. 42, no. 14, 2004. [9] B. Berthomieu and F. Vernadat, “State class constructions for branching analyzis of systems,” in Tools and Algorithms for the Construction and Analysis of Systems (TACAS’03), Warsaw, Poland, 2003. [10] O. Bertrand, P. Carle, and C. Choppy, “Chronicle modelling using automata and coloured Petri nets,” in 18th Internation Workshop on Principles of Diagnosis (DX’07), Nashville, TN, USA, 2007, pp. 243– 248. [11] ——, “Towards a coloured Petri nets semantics of a chronicle language for distributed simulation processing,” in In CHINA 2008 Workshop (Concurrency metHods: Issues aNd Applications), 2008, pp. 105–119. [12] A. Boufaied, A. Subias, and M. Combacau, “Chronicle modeling by Petri nets for distributed detection of process failures,” in IEEE International conference on systems, man and cybernetics (SMC’02), Hammamet, Tunisie, 2002, pp. 243–248. [13] ——, “Distributed fault detection with delays consideration,” in 8th World Multi-Conference on Systemics, Cybernetics and Informatics (SCI’2004), Orlando,USA, july 2004, pp. 135–140. [14] ——, “The distributed time constraints verification modelled with time Petri nets,” in 17th IMACS World Congress on Scientific Computation, Applied Mathematicsand Simulation (IMACS05), Paris, France, july 2005. [15] J. Cardoso, R. Valette, and D. Dubois, “Fuzzy Petri nets: an overview,” in 13th IFAC World congress : IFAC’96, vol. J, San Francisco, USA, july 1996, pp. 443–448. [16] P. Carle, P. Benhamou, M. Ornato, and F. Dolbeau, “Building dynamic organizations using intentions recognition,” Office national d’tudes et de recherches arospatiales, Chˆ tillon, France, Tech. Rep. ONERA-TP a 99-136, 1998. [17] P. Carle, C. Choppy, R. Kervac, and A. Piel, “Handling breakdowns in unmanned aircraft systems,” in 18th International Symposium on Formal Methods - Doctoral Symposium, Paris,France, august 2012, pp. 286–291. [18] P. Carle, C. Choppy, and R. Kervarc, “Behaviour recognition using chronicles,” in Proceedings of the 2011 Fifth International Conference on Theoretical Aspects of Software Engineering, ser. TASE ’11. Washington, DC, USA: IEEE Computer Society, 2011, pp. 100–107. [19] P. Carle, C. Choppy, R. Kervarc, and A. Piel, “Safety of Unmanned Aircraft Systems Facing Multiple Breakdowns,” in 1st French Singaporean Workshop on Formal Methods and Applications (FSFMA 2013), ser. OpenAccess Series in Informatics (OASIcs), C. Choppy and J. Sun, Eds., vol. 31. Dagstuhl, Germany: Schloss Dagstuhl– Leibniz-Zentrum fuer Informatik, 2013, pp. 86–91. [Online]. Available: http://drops.dagstuhl.de/opus/volltexte/2013/4093 [20] G. Carrault, M.-O. Cordier, R., M. Garreau, J. Bellanger, and A. Bardou, “A model-based approach for learning to identify cardiac arrhythmias,” in AIMDM, 1999, pp. 165–174. [21] C. Choppy, O. Bertrand, and P. Carle, “Coloured Petri nets for chronicle recognition,” in Proceedings of the 14th Ada-Europe International Conference on Reliable Software Technologies, ser. Ada-Europe ’09. Berlin, Heidelberg: Springer-Verlag, 2009, pp. 266–281. [22] M.-O. Cordier and C. Dousson, “Alarm driven monitoring based on chronicles,” in 4th Sumposium on Fault Detection Supervision and Safety for Technical Processes (SafeProcess), Budapest, Hungary, june 2000, pp. 286–291. [23] M.-O. Cordier, X. L. Guillou, S. Robin, L. Roz´ , and T. Vidal, “Distributed e chronicles for on-line diagnosis of web services,” in 18th International Workshop on Principles of Diagnosis, G. Biswas, X. Koutsoukos, and S. Abdelwahed, Eds., May 2007, pp. 37–44. [24] D. Cram, B. Fuchs, Y. Pri, and A. Mille, “Dcouverte complte et interactive de motifs temporels avec contraintes numriques partir de squences d’vnements,” in Atelier ”Fouille de donnes temporelles et analyse de flux de donnes”, EGC2009, 2009. [Online]. Available: http://liris.cnrs.fr/publis/?id=3786 [25] W.-D. D4.2, “Specification of diagnosis algorithms for web-services phase 1,” WS-DIAMOND European project, Tech. Rep., September 2006. [26] C. Diop, E. Exposito, C. Chassot, and K. Drira, “Autonomic service bus,” in 6th International Conference of Interoperability for Enterprise Systems and Applications (I-ESA12)Workshop Factories of the Future (FoF), Valencia - Spain, march 2012. [27] C. Dousson, “Alarm driven supervision for telecommunication networks:iion line chronicle recognition,” Annales des T´ l´ communications, vol. 51 ee (9-10), pp. 501–508, 1996. [28] C. Dousson and T. V. Duong, “Discovering chronicles with numerical time constraints from alarm logs for monitoring dynamic systems,” in IJCAI 99: Proceedings of the Sixteenth International Joint Conference on Artificial Intelligence, San Francisco, CA, USA, June 1999, pp. 620–626. [29] C. Dousson, P. Gaborit, and M. Ghallab, “Situation recognition: representation and algorithms,” in IJCAI: International Joint Conference on Artificial Intelligence, Chamb´ ry, France, august 1993, pp. 166–172. e [30] E. Exposito, C. Chassot, and M. Diaz, “New generation of transport protocols for autonomous systems,” in IEEE Global Telecommunications Conference (Globecom 2010), Miami, Florida (USA), december 2010. [31] F. Fessant and F. Cl´ rot, “An efficient som-based pre-processing to e improve the discovery of frequent patterns in alarm logs,” in DMIN, 2006, pp. 276–282. e [32] F. Fessant, F. Cl´ rot, and C. Dousson, “Mining of an alarm log to improve the discovery of frequent patterns,” in Industrial Conference on Data Mining, 2004, pp. 144–152. [33] M. W. Floyd and B. Esfandiari, “A case-based reasoning framework for developing agents using learning by observation,” in ICTAI, 2011, pp. 531–538. [34] M. Floyd, M.Bicakci, and B. Esfandiari, “Case-based learning by observation in robotics using a dynamic case representation,” in FLAIRS Conference, 2012. [35] B. Frances, “Apprentissage de chroniques pour les rseaux de communications autonomes,” LAAS-CNRS, France, Master, Toulouse 3, Paul Sabatier University, September 2012. [36] J. Gamper and W. Nejdl, “Abstract temporal diagnosis in medical domains,” in Artificial Intelligence in Medicine, vol. 10(3), 1997, pp. 209–234. [37] H. Gougam, A. Subias, and Y. Pencole, “Timed diagnosability analysis based on chronicles,” in 1IFAC International Symposium on Fault Detection Supervision and Safety of Technical Processes (SAFEPROCESS’2012), Mexico (Mexique), august 2012, pp. 1256–1261. [38] ——, “Supervision patterns: formal diagnosability checking by Petri net unfolding,” in 4th IFAC Workshop on Dependable Control of Discrete Systems (DCDS 2013), York (UK), sep 2013. [39] B. Guerraz and C. Dousson, “Chronicles construction starting from the fault model of the system to diagnose,” in International Workshop on Principles of Diagnosis (DX04), Carcassonne, France, 2004, pp. 51–56. [40] X. L. Guillou, M.-O. Cordier, S. Robin, and L. Roz´ , “Chronicles for e on-line diagnosis of distributed systems,” in 18th European Conference on Artificial Intelligence, ECAI08, Patras, Greece, july 2008, pp. 194–198. [41] T. Guyet and R. Quiniou, “Mining temporal patterns with quantitative intervals,” in ICDM Workshops, 2008, pp. 218–227. [42] ——, “Extracting temporal patterns from interval-based sequences,” in IJCAI, 2011, pp. 1306–1311. [43] I. J. Haimowitz and I. S. Kohane, “Automated trend detection with alternate temporal hypotheses,” in In Proceedings of the International Joint Conference on Artificial Intelligence IJCAI, Chamb´ ry, France, e 1993, pp. 146–151. [44] F. Heintz, “Chronicle recognition in the WITAS UAV project a preliminary report,” in Swedish AI Society Workshop (SAIS2001), 2001. [45] IBM Corp., An architectural blueprint for autonomic computing. USA: IBM Corp., Oct. 2004. [Online]. Available: www3.ibm.com/autonomic/pdfs/ACBP2 2004-10-04.pdf [46] K. Jensen, “An introduction to the practical use of coloured petri nets,” in Petri Nets (2), 1996, pp. 237–292. [47] T. J´ ron, H. Marchand, S. Pinchinat, and M.-O. Cordier, “Supervision e patterns in discrete event systems diagnosis,” in WODES06: Workshop on Discrete Event Systems, 2006. [48] A. Khoumsi and Ou´ draogo, “Diagnosis of faults in real-time discrete e event systems,” in SAFEPROCESS’09, Jun 2009, pp. 1557–1562. [49] S. Kocksk¨ mper and B. Neumann, “Extending process monitoring a by event recognition,” in In Proceedings of the Second International Conference on Intelligent Systems Engineering (ISE’94), 1994. [50] T. Kohonen, “Self-organized formation of topologically correct feature maps,” Biological Cybernetics, vol. 43, no. 1, pp. 59–69, 1982. [51] R. Kowalski and M. Sergot, “A logic-based calculus of events,” New Generation Computing, vol. 4(1), pp. 67–95, 1986. [52] P. Laborie and J.-P. Krivine, “Automatic generation of chronicles and its application to alarm processing in power distribution systems,” in 8th international workshop of diagnosis (DX97), Mont Saint-Michel, France, 1997.
    • [53] H. Mannila, H. Toivonen, and A. I. Verkamo, “Discovery of frequent episodes in event sequences,” Data Mining and Knowledge Discovery, vol. 1, pp. 259–289, 1997. [54] E. Mayer, “Inductive learning of chronicles,” in European Conference on Artificial Intelligence, 1998, pp. 471–472. [55] J. McCarthy and P. J. Hayes, “Some philosophical problems from the standpoint of artificial intelligence,” Machine Intelligence, vol. 4, 1969. [56] B. Morin and H. Debar, “Correlation on intrusion: an application of chronicles,” in 6th International Conference on recent Advances in Intrusion Detection RAID, Pittsburgh, USA, september 2003. [57] K. N¨ kel, “Temporal matching: Recognizing dynamic situations from o discrete measurements,” in In Proceedings of the International Joint Conference on Artificial Intelligence IJCAI, Detroit, Michigan USA, August 1989, pp. 1255 –1260. [58] Y. Pencol and A. Subias, “A chronicle-based diagnosability approach for discrete timed-event systems: Application to web-services,” Journal of Universal Computer Science, vol. 15, no. 17, pp. 3246–3272, 2009. [59] D. F. P.M. Merlin, “Recoverability of communication protocols: Implication of a theoretical study,” IEEE Trans. Comm., vol. 24, no. 9, pp. 1036–1043, 1976. [60] D. V. Pynadath and M. P. Wellman, “Accounting for context in plan recognition, with application to traffic monitoring,” in Proceedings of the Eleventh conference on Uncertainty in artificial intelligence, ser. UAI’95. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1995, pp. 472–481. [Online]. Available: http://dl.acm.org/citation.cfm?id=2074158.2074212 [61] D. Racoceanu, Z. Zerhouni, and N. Addouche, “Modular modeling and analysis of a distributed production system with distant specialized maintenance,” in IEEE International conference on robotics and automation, Washington DC, USA, May 2002, pp. 4046–4052. [62] N. Rota and M. Thonnat, “Activity recognition from video sequences using declarative models,” in 14th International Workshop on Principles of Diagnosis (DX00), Morelia, Michoacen, Mexico, June 2000. [63] R. Saddem, A. Toguyeni, and T. Moncef, “Consistency’s checking of chronicles’ set using time Petri nets,” in Control & Automation (MED), 2010 18th Mediterranean Conference on. IEEE, 2010, pp. 1520–1525. [64] M. Sampath, R. Sengputa, S. Lafortune, K. Sinnamohideen, and D. Teneketsis, “Diagnosability of discrete-event systems,” IEEE Transactions on Automatic Control, vol. 40, pp. 1555–1575, 1995. [65] A. Subias, E. Exposito, C. Chassot, L. Trav´ -Massuy` s, and K. Drira, e e “Self-adapting strategies guided by diagnosis and situation assessment in collaborative communicating systems,” in International Workshop on Principles of Diagnosis (DX 10), Portland (USA), 2010. [66] N. VanWambeke, F. Armando, C. C. C, and E. Exposito, “A modelbased approach for self-adaptive transport protocols,” Elsevier Computer Communications, Special issue on end-to-end support over heterogeneous wired and wireless network, vol. 31(11), pp. 2699–2705, July 2008. [67] N. VanWambeke, E. Exposito, and M. Diaz, “Transport layer qos protocols: the micro-protocol approach,” in 1st OpenNet Workshop, Brussels, Belgium, March 2007. [68] A. Vautier, M.-O. Cordier, and R. Quiniou, “Extension des bases de donn´ es inductives pour la d´ couverte de chroniques,” in EGC, 2005, pp. e e 421–432. [69] J. Vizcarrondo, J. Aguilar, E. Exposito, and A. Subias, “Armiscom: Autonomic reflective middleware for management service composition,” in Global Information Infrastructure and Networking Symposium ( GIIS ), Choroni (Venezuela), december 2012. [70] J. Vizcarrondo, J. Aguilar, A. Subias, and E. Exposito, “Cronicas distribuidas para el reconocimiento de fallas en la composicin de servicios web,” in XXXIX Latin American Computing Conference (CLEI 2013), Puerto Azul(Venezuela), october 2013. [71] W. Wang, T. Guyet, R. Quiniou, M.-O. Cordier, and F. Masseglia, “Online and adaptive anomaly detection: detecting intrusions in unlabelled audit data streams,” in EGC, 2009, pp. 457–458.
    • Integration of Different Facets of Diagnosis from Control and AI L. Trav´ -Massuy` s e e CNRS, LAAS, 7, avenue du Colonel Roche, F-31400 Toulouse, France Univ of Toulouse, LAAS, F-31400 Toulouse, France Email: louise@laas.fr Abstract—Diagnosis is a rich scientific domain driven by the goal of identifying the root cause of a failure, problem, or disease from the symptoms arising from selected measurements, checks or tests. The different facets of the diagnosis problem and the wide spectrum of classes of systems make this problem interesting to several communities and call for bridging theories from different fields. This paper presents diagnosis theories proposed by the Control and the AI communities and exemplifies how they can be synergically integrated to provide better diagnostic solutions and to interactively contribute in fault management architectures. I. I NTRODUCTION The goal of diagnosis is to identify the possible causes explaining observed symptoms. A set of concomitant tasks contribute to this goal, in particular : • fault detection, which aims at discriminating normal system states from abnormal ones, i.e. states which result from the presence of a fault, • fault isolation, also called fault localization, whose goal is to point at the faulty components of the system, • fault identification, whose output is the type of fault and possibly the model of the system under this fault. In front of the diversity of systems and different views of the above problems, several scientific communities have addressed these tasks and contribute with a large spectrum of methods. The Signal Processing, Control and Artificial Intelligence (AI) communities are on the front. Diagnosis works from the signals that permit efficient fault detection towards the upper levels of supervision that call for qualitative interpretations. Signal processing provided specific contributions in the form of statistic algorithms for detecting changes in signals, hence detecting faults. This track has been surveyed in several reference books and papers [1], [2], [3], [4], [5] and remains out of the scope of this paper. Interfaces between continuous signals and their abstract interpretations, in symbolic or event-based form, implement the qualitative interpretations of the signals that are required for supervision. To do that, discrete formalisms borrowed from Artificial Intelligence find a natural link with continuous models from the Control community. These two communities have their own model-based diagnosis track : • the FDI (Fault Detection and Isolation) track, whose foundations are based on engineering disciplines, such as control theory and statistical decision making, • the DX (Diagnosis) track, whose foundations are derived from the fields of logic, combinatorial optimization, search algorithms and complexity analysis. In the last decade, there has been a growing number of researchers in both communities, who tried to understand and incorporate approaches from the FDI and DX fields to build better, more robust and effective diagnostic systems. In this paper, the concepts and results of the FDI and DX tracks are put in correspondence and the lessons learned from this comparative analysis are pointed out. Data-based diagnosis approaches based on machine learning techniques are present in both the Control and AI communities and complement model-based approaches to provide solutions to a variety of diagnostic problems where difficulty arises from the scarce nature of the instrumentation or, conversely, from the massive amounts of data to be interpreted for the emergence of hidden knowledge. Interesting bridges can be foreseen between model-based and data-based approaches and these are illustrated in this paper with the problem of learning the models that support model-based diagnosis reasoning. Other bridges can be found when considering that diagnosis is not a goal per se but a component in fault management architectures. It takes part in the solutions produced for tasks such as design, failure-mode-and-effects analysis, sensor placement, on-board recovery, condition monitoring, maintenance, repair and therapy planning, prognosis. The contribution of diagnosis in such architectures means close links with decision tasks such as control and planning and calls for innovative integrations. In this paper, different facets of diagnosis investigated in the Control or the AI fields are discussed. While [6], [7], [8] provide three interesting surveys of the different approaches that exist in these fields, this paper aims at reporting the works that integrate approaches of both sides, hence creating ”bridges”. The paper is organized as follows. After the introduction section, section II first presents a brief overview of the approaches proposed by the model-based diagnosis communities, FDI and DX, in subsections II-A and II-B, respectively. Although quite commonplace, this overview is necessary because it provides the basic concepts and principles that form the foundations of any diagnosis method. It is followed by subsection II-C that compares the concepts and techniques used by the FDI and DX communities and presents the lessons learned from this comparative analysis. Section III is concerned with the trends that integrate and take advantage of techniques from both sides, in particular causal model-based diagnosis in
    • subsection III-A and diagnosis of hybrid systems in subsection III-B. Section IV then raises the problem of obtaining the models supporting diagnosis reasoning and discusses bridges that can contribute to learning them in an automated manner. Section V widens the scope of diagnosis and is concerned with diagnosis as a component of fault management architectures, discussing several links with control and planning. Finally, section VI concludes the paper. II. The diagnosis principles are the same, although each community has developed its own concepts and methods, guided by different modelling paradigms. FDI relies on analytical models, linear algebra, and non linear system theory whereas DX takes its bases in logic formalisms. In the 2000s, catalyzed by the BRIDGE group ”Bridging AI and Control Engineering model-based diagnosis approaches ” [9] within the Network of Excellence MONET II [10] and its French counterpart, the IMALAIA group ”Int´ gration de M´ thodes Alliant Automae e tique and IA” supported by GDR MACS [11], GDR I3 [12], as well as AFIA [13], there were more and more researchers who tried to understand and synergistically integrate methods from the two tracks to propose more efficient diagnostic solutions. This collaboration resulted in the organization of several events : • BM : dx/dt = f (x(t), u(t), θ) OM : y(t) = g(x(t), u(t), θ). DX AND FDI MODEL - BASED DIAGNOSIS BRIDGE The FDI and DX streams both approach the diagnosis problem from a system point of view, hence resulting in large overlaps, including the name of the tracks: Model-Based Diagnosis (MBD). • between system inputs and outputs, i.e. the set of measurable variables Z, as well as the internal states, i.e. the set of unknown variables X. The variables z ∈ Z et the variables x ∈ X are functions of time. The typical model may be formulated in the temporal domain, then known as a statespace model of the form: a BRIDGE Workshop in 2001 in the framework of DX’01, 12th International workshop on Principles of Diagnosis, Sansicario, Via Lattea, Italy, 5-9 Mars 2001 [14], the co-location of the two main events of the FDI and the DX communities, namely the Symposium IFAC Safeprocess 2003 and the International Workshop ”Principles of Diagnosis” DX 2003, in Washington DC (USA) in June 2003 with a BRIDGE Workshop in the form of a join day. This events were followed by the publication of a special issue of the IEEE SMC Transactions, Part B, on the topic Diagnosis of Complex Systems: Bridging the methodologies of the FDI and DX Communities in 2004 by [15]. The Bridge track was launched and is still active today. Lets’s mention the two invited sessions ”AI methods for Modelbased Diagnosis” and ”Bridge between Control Theory and AI methods for Model-based Diagnosis”, recently organized in the framework of the 7th IFAC Symposium on Fault Detection, Supervision and Safety of Technical Processes Safeprocess’09, Barcelona, Spain, 30 July-3 August 2009 [16]. The next subsections first summarize the foundations of the FDI and DX methods, then proceed to a comparative analysis that allows us to draw some practical assessments in the form of lessons learned. A. Brief overview of FDI approaches The detection and diagnosis methods of the FDI communauty rely on behavioral models that establish the constraints (1) where x(t) ∈ nx is the state vector, u(t) ∈ nu is the input vector and y(t) ∈ np is the output vector. BM is the behavioral model and OM is the observation model. The whole model is noted SM (z, x). The equations of SM (z, x) may be associated to components but this information is not represented explicitly. The models can also be formulated in the frequency domain (transfer functions in the linear case). Models are used in three families of methods: • the methods based on parameter estimation that focus on the value of parameters as representing physical features of the system, • the methods based on state estimation that rely on the estimation of unknown variables, • the methods based on the parity space that rely on the elimination of unknown variables. The books [17], [18], [19], [20] provide excellent surveys, which cite the original papers that the reader is encouraged to consult. The equivalence between observers, parity and paramater estimation has been proved in the linear case [21]. The concept central to FDI methods is the concept of residual and one of the main problems is to generate residuals. Let’s consider the model SM (z, x) of a system in the form (1). SM (z, x) is said to be consistent with an observed trajectory z, or simply consistent with measurements z, if there exists a trajectory of x such that the equations of SM (z, x) are satisfied. Definition 1 (Residual generator for SM (z, x)): A sys˜ tem that takes as input a sub-set of measured variables Z ⊆ Z and generates as output a scalar r,is a residual generator for the model SM (z, x) if for all z consistent with SM (z, x), we have limt→∞ r(t) = 0. When the system model is consistent with measurements, the residuals tend to zero as t tends to infinity, otherwise some residuals may be different from zero. The residuals are often optimized to be robust to disturbancies [22] and to take into account uncertainties [23]. The evaluation of residuals and assigning them a boolean value (0 or non 0) generally calls for statistical decision techniques [19]. The methods based on parameter estimation are used for linear as well as non linear systems [24]. Fault detection is achieved by comparing the estimated parameter values to their nominal values. With these methods, fault detection, isolation, and identification are achieved at once, provided that model parameters can be put in correspondence with physical
    • parameters. They rely on the identifiability of the system (see [25] and recently [26]) that casted the identifiability problem in the set-membership framework. The methods based on state estimation take the form of observers or optimized filters, such that the Kalman filter, which provide an estimation of the state of the system. Specific filter architectures are often designed to structure the residuals, i.e. to provide different residuals for different faults, and isolate the faults [27]. Numerous diagnosis solutions rely on state estimation, particularly for hybrid systems. These works are surveyed in section III-B. In this case, the continuous state is augmented by a discrete state that corresponds to the operation mode (normal or faulty) of the system components. The methods based on the parity space [28] generate residuals from relations that are inferred from the system model. Theses relations, called Analytical Redundancy Relations(ARR), are determined off-line. Definition 2 (ARR for M (z, x)): An equation of the form r(z, z, z , . . .) = 0 is an ARR for the model SM (z, x) if for ˙ ¨ all z consistent with SM (z, x), the equation is satisfied. ARRs are constraints that only involve measured input and output variables and their derivatives. For linear systems, ARRS are obtained by eliminating unknown state variables by a linear projection on a particular space, so called the parity pace, [28]. An extension to non linear systems is proposed in [29]. On the other hand, the structural approach [30], [31] is an interesting alternative because it allows one to obtain, for linear or non linear systems, the just overdeterminated sets of equations from which ARRs can be derived. Every ARR can be put in the form r(t) = 0, where r(t) is the residual. If the behavior of the system satisfies the model constraints, then the residuals are zero because the ARRs are satisfied. Otherwise, some of them may be different from zero as the corresponding ARRs are violated. A theoretical signature F Sj = [s1j , s2j , . . . , snj ] given by the Boolean evaluation (0 or not 0) of each residual is associated to each fault Fj . The signature matrix is then defined s follows. Definition 3 (Signature Matrix): Given a set of n ARRs, the signature matrix associated to a set of nf faults F = [F1 , F2 , . . . , Fnf ] is the matrix that crosses ARRs as rows and faults as columns and whole columns are given by the theoretical signatures of the faults. Diagnosis is achieved by comparing the observed signature, i.e. the Boolean residual values obtained from the actual measurements, and the theoretical signatures of the nf faults. B. Brief overview of the DX logical diagnosis theory In the model-based logical diagnosis theory of DX as proposed by [32], [33], the description of the system is driven by components and relies, in its original version, on first order logic. A system is given by a tuple (SD, COM P S, OBS) where: • SD is the system description in the form of a set of first order logic formulas with equality, • COM P S represents the set of components of the system given by a finite set of constants, • OBS is a set of first order formulas, which represent the observations. SD uses the specific predicate AB, meaning abnormal. Applied to a component c of COM P S, ¬AB(c) means that C is normal and AB(c) that c is faulty. The model of an adder would be given by : ADD(x)∧¬AB(x) ⇒ Output(x) := Input1(x)+Input2(x) Definition 4 (Diagnosis): A diagnosis for the system (SD, COM P S, OBS) is a set ∆ ⊆ COM P S such that SD ∪ OBS ∪ {AB(C) | C ∈ ∆} ∪ {¬AB(C) | C ∈ COM P S − ∆} is satisfiable. The above definition means that the assumption stating that the components of ∆ are faulty and all the others are normal is consistent with the observations and the system description. A diagnosis hence consists in the assignment of a mode, normal or faulty 1 , to each component of the system, which is consistent with the model and the observations. Definition 5 (Minimal diagnosis): A minimal diagnosis is a diagnosis ∆ such that ∀∆ ⊂ ∆, ∆ is not a diagnosis. Following the parsimony principle, preference is always given to minimal diagnoses. Minimal diagnoses are also interesting because in several cases, they characterize the whole set of diagnoses, i.e. all the supersets of a minimal diagnosis are diagnoses [33]. To obtain the set of diagnoses, it is usual to proceed in the following steps: 1) 2) The set of R-conflicts are first determined. An Rconflict2 is a set s ⊆ COM P S such that the assumption that all the components of s are normal is not consistent with SD and OBS. A minimal Rconflict is an R-conflict set that does not contain any other R-conflict. The set of diagnoses is generated from the set of R-conflicts. [32] proved that minimal diagnoses are given by the hitting sets 3 of the set of minimal Rconflicts. An algorithm based on the construction of a tree, known as the HS-tree, was originaly proposed by [32]. C. Lessons learned from comparing of the FDI and DX approaches This section summarizes the results issued from the comparative analysis of the DX approach and the parity space FDI approach performed by [34]. It then discusses the lessons learned. It should be noticed that the modeling paradigm of FDI does not make explicit use of the concept of component. The behavioral model (1) describes the system as a whole. 1 This framework has been later extended to fault models [33]. R-conflict is a conflict in the sense of Reiter [32]. This concept was later generalized [33]. 3 The hitting sets of a collection of sets are given by the sets that intersect every set of the collection. 2 An
    • On the contrary, the DX approach models every component independently in a generic way, and specifies the topology of the system. Another important difference is that the assumption of correct behavior is represented explicitly in SD thanks to the predicate AB. If F is a formula describing the normal behavior of a component, SM only contains F whereas SD contains the formula ¬AB ⇒ F. The comparison of the two approaches is only possible if the models on both sides represent the same system and the observations/measurements capture the same reality. This is formalized by the System Representation Equivalence (SRE) property, which means that SM is obtained from SD by setting to false all the occurrences of the predicate AB. It is also assumed that the same observation language is used, i.e. OBS is a conjunction of equality relations, which assign a value to every measured variable. In addition, the faults relate to the same entities that are assumed to be components, without loss of generality. The comparison is based on the concept of signature matrix F S, as defined in definition 3, which crosses ARRs in rows and components in columns (since faults are univocally associated to components), and relies on the concept of ARR Support: Definition 6 (ARR Support): The support of an ARR ARRi is the set of components (columns of the signature matrix F S) whose corresponding matrix cell on the ARRi line is non zero. Let us also introduce the two following properties, which refer to detectability indicated by a ”d” and to isolability indicated by an ”i” : Property 1 (ARR-d-completness): A set E of ARRs is said to be d-complet if: • E is finite; • ∀OBS, if SM ∪ OBS |=⊥, then ∃ARRi ∈ E such that {ARRi } ∪ OBS |=⊥. Property 2 (ARR-i-completness): A set E of ARRs is said to be i-complet if: • E is finite; • ∀C, set of components such that C ⊆ COM P S, and ∀OBS, if SM (C) ∪ OBS |=⊥, then ∃ARRi ∈ E such that the support of ARRi is included in C and {ARRi } ∪ OBS |=⊥. ARR-d-completeness and ARR-i-completeness express the theoretical capability of a set of ARRs to be sensitive, hence to detect, any inconsistency between the model SM , or a submodel SM (C), and observations OBS. These properties are hence key to the comparison, which includes the following results : Proposition 1: Assuming the SRE property and that OBS is the set of observations for the system given by SM (or SD), then : 1) If ARRi is violated by OBS, then the support of ARRi is an R-conflict; 2) 3) If E is a d-complete set of ARRs, and if C is an Rconflict for (SD, COM P S, OBS), then there exists ARRi ∈ E that is violated by OBS; If E is an i-complete set of ARRs, then given an Rconflict C for (SD, COM P S, OBS), there exists ARRi ∈ E that is violated by OBS and whose support is included in C. The result 1. is intuitive and can be explained by the fact that the inconsistencies between the model and observations are captured by R-conflicts in the DX approach and by ARRs violated by OBS in the FDI approach. Consequently, the support of an ARR can be defined as a potential R-conflict. This concept is called possible conflict by [35]. The results 2. and 3. are existence and completeness results, the first one being related to fault detectability and the second to fault isolability. Let’s now analyze the results from a more practical point of view, and point at the differences of the two approaches and how there advantages can be integrated. 1) Lesson one: redundant ARRs : An important result about redundant ARRs comes from i-completeness. In FDI, it is generally accepted that if ARRj is obtained from a linear combination of two other ARRs, ARRi1 and ARRi2 , then it is redundant (unless some considerations about noises and sensitivity to faults come into play). But the property of i-completeness states that not only the analytical expression of the ARR but also its support must be taken into account to conclude about its redundancy. Proposition 2: A given ARRj is redundant with respect to a set of ARRi s, i ∈ I, j ∈ I, if f ∃I ⊆ I such that 1) ∀OBS, / if all ARRi s, i ∈ I, are satisfied by OBS, then ARRj is satisfied by OBS 2) the support of ARRj contains the support of each ARRi . 2) Lesson two: exoneration assumptions : The exoneration assumptions, ARR-exoneration and component-exoneration, used by DX and FDI, respectively, are different and cannot be expressed in the other formalism of the streams. Definition 7 (ARR-exoneration): Given OBS, any component in the support of an ARR satisfied by OBS is exonerated, i.e. considered as normal. Definition 8 (Component-exoneration): Given OBS and c ∈ COM P , if SM (c) ∪ OBS is consistent, then c is exonerated, i.e. considered as normal. Importantly, the FDI approach generally uses the ARRexoneration assumption but it is not stated explicitly. On the other hand, the DX approach is generally used without exoneration assumption and it is represented explicitly when it does 4 . This is just what guarantees the logical correctness of the DX diagnoses with DX methods. It has been shown that under the same assumptions, in particular in the case of no exoneration, the diagnoses that are obtained by the DX and the FDI approach are the same. 4 If a component c is exonerated, its model is written as COM P (c) ∧ ¬AB(c) ⇐⇒ SM (c), where the simple logical implication has been replaced by a double implication.
    • Theorem 1: Under the i-completeness and no exoneration assumptions, the diagnoses obtained by the FDI approach are identical to the (non empty) diagnoses obtained by the DX approach. 3) Lesson three: single and multiple faults : In the FDI approach, because the fault signatures are determined off-line for every fault, the number of considered faults is generally limited. Most of the time, only single faults are considered. On the contrary, the DX approach naturally deals with multiple faults. A consequence is that the number of diagnoses is exponential and this is why it is common to introduce preference criteria, like fault probabilities, to order the diagnoses. Several methods have been proposed to search for the preferred diagnoses first (see for instance [36], [37]). 4) Lesson four: off-line versus on-line : In the FDI approach, ARRs are determined off-line and only a simple consistency check is evaluated on-line. This may be very quite relevant for real time applications with hard temporal constraints. Inversely, in the DX approach, the whole diagnosis process is on-line, one advantage being that only the models need to be update if any change. The two approaches have been integrated to obtain the advantages of both: some DX works have used the idea of the FDI community to construct ARRs off-line [38], [39], [40], [35]. Other works, presented in section III, take advantage of an explicit representation of causal influences underlying the system model or deal with hybrid phenomena that call for continuous (as used in FDI) and discrete formalisms (as used in DX). III. B RIDGING THE FDI AND DX APPROACHES This section is concerned with two tracks that are quite representative of the proposed integrations of the FDI and DX model-based theories. influence is associated to a physical component of COM P . Early work was limited to labeling causal influences by the signs giving the direction of change of the influenced variable in relation to the cause variable, thus obtaining a Signed Oriented Graph. Subsequently, the labeling of influences became more sophisticated and local quantitative models as used in FDI were attached. Locally, FDI standard techniques for evaluating the residuals are used for fault detection. Fault detection is an (online) procedure that determines, at each time t and for each measured variable y, the consistency of the measured value yt and ¯ the predicted value yt obtained with the – causal – behavioral ˆ model of the system. It hence evaluates the residual: y rt = yt − yt ¯ ˆ Globally, diagnostic reasoning along the DX approach is underpinned by the causal structure labelled by an abstraction of the local models, such as delay times as in [48], [50]. The detection of a variable as being abnormal is interpreted as the violation of one of the influences involved in the estimation of the variable, i.e. one of the upstream influences in the causal graph. Each influence being associated with a component, this set of influences can be identified as an R-conflict as defined in section II-B (or the support of the ARR that could be built from the local models by performing the variable eliminations indicated by the causal chains). In [50], the influences have a delay attribute corresponding to the time required for a perturbation on the source variable to propagate to the effect variable. This information is used to generate R-conflicts whose elements are labeled by a temporal label indicating the latest time at which the fault occurred on this component. Diagnoses are obtained from the R-conflicts by an incremental algorithm that generates the hitting sets while managing the temporal labels. A. Causal model-based diagnosis In the 90s, the synergies between the AI communities of qualitative reasoning (QR) [41], [42], [43] and model-based diagnosis concretized in a series of studies proposing the use of causal models for diagnostic reasoning. Diagnosis methods based on causal models are a perfect example of an integration of the FDI approach used for the fault detection phase and the DX approach used for the fault isolation phase. Causal models are based on a graph structure expressing explicitly the dependencies between variables by edges called influences. They can then exhibit explanations for the values (normal or abnormal) of variables. This structure is called a Causal Graph. The principle of exploiting the dependencies between variables is the basis of many diagnostic algorithms. While the standard algorithms of logical diagnosis, such as GDE [44] use the technique known as ”dependence recording” (implemented with an ATMS for example) that records dependencies during the inferences, the dependencies understood by causal models are exhibited from the outset. These are obtained either directly from expert knowledge as in [45], [46], or by techniques of causal ordering of the QR community as in [47] or from bond-graphs models as in [48], [49]. Causal diagnosis uses the causal graph as an abstract parameterized representation of the system in which every B. Model-based diagnosis of hybrid systems Hybrid systems [51], [52], [53], [54] address the need to capture phenomema at different time scales in the same model. They are more particularly devoted to represent systems that have double continuous and discrete dynamics. A hybrid system is modeled by a state transition system whose states represent its modes of operation (normal or faulty) for which the continuous dynamics are specified. The modeling of such systems and the associated diagnostic algorithms make use of continuous and discrete formalisms, so that hybrid systems are a perfect field for the integration of methods from the FDI and DX communities. FDI methods, in the form of state estimators, parameter estimators or sets of ARRs are indeed coupled to search methods used in AI to deal with the combinatorial explosion of the number of trajectories to be tracked or to discrete event based methods present in both communities. In the DX community, researchers first tried to abstract the continuous dynamics in qualitative terms. The Livingstone diagnostic engine [55], [56], from NASA, that flew on board the DS-1 probe, was among the first to be qualified as hybrid. This engine was rooted in the DX approach, with a model written in propositional logic, and behavioral equations reflecting the continuous dynamics in the form of logical
    • relationships (qualitative constraints). The qualitative abstraction required monitors between the sensors and the model to interpret continuous signals in terms of discrete modalities. This approach suffered from the two drawbacks: the thresholds are extremely difficult to determine, and detection sensitivity is quite poor. Subsequent research thus replaced the qualitative abstractions by classical differential equations, resulting in real hybrid models interlinking continuous and discrete states. A hybrid model may, as proposed in [57], be given as a tuple: S = (ζ, Q, Σ, T, C, (q0 , ζ0 )), (2) where: • ζ is the set of continuous variables including state variables, input/output variables, and possibly noise, which are functions of time t. Some are measured, others do not. • Q is the set of discrete system states. Each state qi ∈ Q represents a mode of operation of the system. • Σ is the set of events that correspond to discrete control inputs, autonomous mode changes and fault occurrences. Events corresponding to autonomous mode changes are issued upon guards that depend on continuous variables. • T ⊆ Q × Σ → Q is the partial transition function. A transition t(qi , σij , qj ) may be guarded by a condition given as a set of equations G(t(qi , σij , qj )) = gij (x, θg ) = 0, θg being a constant parameter vector. Then σij results from the state x(t) hitting the guard gij at some time instant t∗ and is not observable. A reset map Rij , possibly equal to the identity, is specified. • C = i Ci is the set of system constraints linking continuous variables. Ci denotes the set of constraints associated to the mode qi , which are given in the statespace by the following continuous time state-evolution and output equations: x(t) = fi (x(t), u(t), (t)) ˙ y(t) = gi (x(t), u(t), (t)) (3) where u ∈ Rnu , x ∈ Rnx , y ∈ Rny are the input, output, state vectors, respectively, and ∈ Rn denotes some noise vector. The variables gathered in these vectors belong to ζ. • (ζ0 , q0 ) ∈ ζ × Q is the initial condition of the hybrid system. In the hybrid state (ζ, Q), only the discrete state Q is representative of the operation mode of the system and it provides the diagnosis. Because the evolution of discrete states is closely tied to the evolution of the continuous states, the diagnosis problem is often brought back to the problem of estimating the full hybrid state. In theory, hybrid estimation must consider all the possible mode sequences with the associated continuous evolutions, which is exponentially complex. Consequently, many suboptimal methods have been proposed, of which we can distinguish the following three classes: • methods known as multiple-model estimation, rather rooted in the field of control [58], [59], [60], • particle filtering methods [61], [62], [63], which are present both in FDI and DX, • methods that address hybrid aspects in a dedicated manner [64], [65], [66], [67], taking advantage of FDI and DX approaches. Multiple-model estimation methods, inspired by the IMM algorithm of [59], are formulated in a probabilistic framework. Estimation hypotheses, in the form of sequences of modes and their associated continuous evolution, are tracked over a limited time window. Continuous estimates are merged according to a likelihood measure to provide a belief state in the form of a probability distribution over states at the current time. The likelihood measure is provided by every continuous filter and expresses the degree of consistency between this hypothesis and observations but it can also take into account the information carried by the probabilities of transitions, if any. This family of methods includes [68], which suggests combining a process of continuous state estimation given by a Kalman filter (KF) with an estimation process of the discrete state based on a POMDP (Partially Observed Markov Decision Process). [64] also unifies continuous state observers with a belief calculated from Hidden Markov Models (HMM). The approach is quite similar to the one of [68] in that it uses a set of KFs, but adopts an aggressive strategy for adjusting the number of tracked trajectories to the computing resources available. This strategy uses an A∗ algorithm, which selects the most likely state trajectory branches and takes into account unknown fault modes. It is implemented in the hME engine by [69]. Besides, it was shown by [67] that taking into account the uncertainty as bounded rather than probabilistic uncertainty allows one to merge the hypotheses with the same discrete state estimate by computing the hull of continuous estimates. This fusion, possible possible in a set-membership framework, controls very effectively the number of hypotheses followed and may avoid truncating/approximating the set of hypotheses. Particle filtering methods are based on a Bayesian update of prior beliefs. They proceed by sampling the initial probability distribution. With enough samples, they approach the optimal Bayesian estimate. We refer the reader to [70] for a tutorial on particle filtering methods. These methods, which accept probability distributions of any kind, are very popular. However, it should be noted that they are difficult to apply to diagnosis problem since the probabilities of faults are generally very low compared to those of nominal states. The number of particles needed to track the faulty states is very high. Different strategies were tested to provide solutions to this problem [71], [72], [73]. As we have seen, the combinatorial explosion inherent to hybrid estimation leads to solutions providing an approximated belief state. Consequently, all previous methods suffer from the
    • problem of state loss, which may be critical for a diagnosis application. Indeed, the set of modes estimated over time, i.e. the diagnoses, takes the form of a set Γ of trajectories given by a decision process that abandons the trajectories whose belief is below a certain threshold. Unfortunately, Γ is reused in the calculation of future estimates and it may happen that the actual trajectory of the system is no longer in Γ, thus producing an erroneous diagnosis. Several studies have addressed this problem. [74] proposes a solution based on a a posteriori progressive exploration of the space guided by the faults rank. However, this requires considering a wide time window backwards from the current time, which may even reach the initial time. In this case, the current state mustbe re-predicted from all the system’s history. The diagnostic engine KOALA [75] proposes a variant of the previous algorithm with a revision procedure that produces diagnoses from the current trajectory by performing partial changes (minimal in the best case). There have been other attempts to remedy the loss of solutions. In [76] [77], the authors reduce the set of tracked trajectories by aggregating those using similar assumptions. In addition, they develop a smoothing strategy that propagates the current beliefs back in time to improve the prediction of system states. More recently, an alternative approach, called rME, to hybrid state estimation has been proposed. rME focuses on mode estimation, the actual diagnosis, and ignores continuous state estimation [78]. rME is based on the parity space approach as presented in section II-A for processing continuous data. A set of ARRs is determined for each mode of the hybrid system from the associated continuous model. They are all put together in a vector. When evaluated with the measurements of a given mode, this vector defines its mode signature. The mode signature changes resulting from the transition from one mode to another are then abstracted as a set of events, called signature events, by the abstraction function fSig : fSig : Q × T (Q, Σ) −→ (qi , qj ) −→ ΣSig δij (4) The event δij is observable and noted Roij if the mode signature of the source mode qi is different from the mode signature of the destination mode qj (Sig(qi ) = Sig(qj )). δij is unobservable and noted Ruoij otherwise 5 . Hence ΣSig is partitionned in a set of observable signature-events ΣSig and o a set of unobservable signature-events ΣSig . uo The set ΣSig = ΣSig ∪ ΣSig is used to enrich the o uo underlying DES M = (Q, Σ, T, q0 ), producing an automaton that captures both the abstraction of the continuous dynamics and the discrete dynamics. The classical diagnoser approach [79] for DES permits to track the current mode of the system based on observable events received, i.e. to provide the diagnosis. Lately, the mode estimation rME approach was combined with the state estimation approach hME [80] in [81], leading to mutual enrichment. On the one hand, hME brings an estimate of the continuous state that is not provided by rME. On the other 5 By construction, mode signatures cannot change while being in the same mode. hand, it was shown that among all modes corresponding to the current hypotheses of hME, rME can identify those that are consistent with observations, providing a reduced set of possible modes to hME and significantly reducing the number of hypotheses to be tracked by the hybrid estimator. IV. B RIDGES FOR LEARNING DIAGNOSIS MODELS The main weakness of MBD diagnosis approaches, either from FDI or from DX, is to require well-formalized models that one must generate from the available knowledge about the system. On the other hand, a particularity of nowadays systems is to generate big amounts of data that are stored. Data-driven diagnosis approaches take direct advantage of these data and use a whole spectrum of machine learning methods to assess the state of a system, i.e. the diagnosis. But another way to go is to use machine learning to generate the models automatically, hence bridging with MBD diagnosis methods. Whereas regression analysis is well-known for learning continuous models, there is still an open field for learning more abstract models, in particular discrete-event models. This is a promising research track that can provide methods benefiting from all the available information in the form of data and knowledge. To exemplify this track, let us consider the problem of generating discrete-event models automatically from raw data in the form of time series. Some works have been done to generate automata or Markov chain models from classification results, for example [82]. In this paper, we illustrate the generation of chronicle models, which are rather used in the AI community [83]. Chronicles are high level temporal patterns that are able to capture the behavior of dynamic processes at an abstracted level based on events. They can be used as signatures of specific situations and associated to decision rules specifying which actions must be taken in such and such situation. In the approach proposed by [84], time series data can be abstracted in terms of sequences of temporally constrained events. Events are a symbolic representation of time-stamped specific singularities of the signal. Temporal patterns take the form of chronicles [85]. They are very useful to characterize dynamic situations manifesting as specific signal patterns in many application domains and come together with powerful event recognition engines that are able to recognize chronicles on the fly given a sequence of events as input [86]. 1) Chronicle concept: Chronicles are a rich formalism allowing one to describe the observable patterns corresponding to behaviors one wants to detect. With chronicles one may want to track dynamic situations like the ones below: - event A is immediately followed by event B, - event A is followed by events B and C after less than 10 time units, - event B occurs after n occurrences of event A. A chronicle is the description of a temporal pattern in terms of dated events and time relations i.e. time constraints between event occurrence dates. Time constraints are durations expressed as bounds on the difference between two time points
    • or event occurrence dates. A chronicle model c is then a pair (S, T ) where S is a set of events and T a set of constraints between their occurrence dates. Figure 1 is an example of chronicle in which S = {e1 , e2 , e3 } and T = {{t1 < t3 with 3 ≤ t3 − t1 ≤ 6}, {t2 < t3 with 3 ≤ t3 − t2 ≤ 9}}. Fig. 1. Example of chronicle Let us consider a set of scenarios labelled with their corresponding situation in the form of a set of time series, one for each relevant signal. The goal is to learn one characterizing chronicle for each situation. This chronicle is thus to be learned from all the scenarios labelled by this situation. The method includes two steps: • Step 2: symbolic learning methods of the same type as [87] are applied to the set of sequences obtained at step 1 to extract the chronicle that characterizes the most precisely all the sequences in the set. Clustering step with LAMDA Fig. 3. Generation of events Fig. 4. Example of three sequences with same label Fig. 5. Chronicle characterizing the three sequences Step1: every scenario data is clustered into a set of classes and the conditions that underly the transitions between classes are identified. The transitions between classes are then assimilated to events. The output of this step is a set of dated event sequences representing an abstraction of each scenario data. • Fig. 2. Step 1 is illustrated by figure 2 in which the fuzzy clustering method LAMDA [88], [89] has been used. The three sequences with same label have been given to LAMDA concatenated, hence the repetition of the same clustering pattern in three classes appearing on the top. The bottom bar diagrams provide a characterization of the three classes. Figure 3 illustrate that an event is generated at the transition of the classes. Step 2 is illustrated by figures 4 and 5, which provide an example of three event sequences obtained from three time series corresponding to the same situation and the chronicle that characterizes the three sequences, respectively. V. D IAGNOSIS IN FAULT MANAGEMENT ARCHITECTURES In the last few years, there has been a significant trend for accounting for fault analysis and diagnosis in the solutions produced for autonomous architectures on one side and maintenance programs on the other side. Diagnosis is thus seen as a piece of the puzzle that constitutes the whole fault management architecture. This section does not aim at detailing the literature existing in this areas but rather at discussing the openings that exist and the challenges for future research. For autonomous systems, diagnosis must cooperate with control and planning so as to jointly solve the state tracking/decision problem. The problem of fault tolerant control
    • has been intensively studied by our community [18]. Tools for deciding about system reconfigurability have been proposed as well as solutions to reconfigure control laws on line in order to guarantee the stability of the system and to keep the state of the system close to the desired state even when a fault occurs. Hence nowadays challenges are rather put on bridging diagnosis with high level planning [90]. Planning generates a control program, also known as a plan, which describes the sequence of actions necessary to achieve some pre-defined goals. As proposed by [91], diagnosis may as well be applied to plans for determining which action(s) failed and what went wrong in terms of the internal states of the system. Plan diagnosis is commonly formulated in a distributed framework where each agent is responsible for a part of the total plan [92]. In this context, it has been shown how plan-diagnoses of the partial plans are related to diagnoses of the total plan and how global diagnoses can be obtained in a distributed way [93]. In the last two decades, most architectures for autonomy are ad-hoc and developed empirically. They are organized in a set of modules, typically a planner/scheduler, a health monitoring system (diagnoser), and an executive which do not share the models that support the implemented methods [94], [95]. This obviously limits the articulation of diagnosis and the other functional modules, in particular the planner, and some work should be done towards unifying the underlying models. Active diagnosis is another aspect of the picture in which diagnosis and decision technologies must cooperate. Active diagnosis relies on applying specific inputs to the system so that additional symptoms that permit refining the diagnosis are exhibited. As proposed in [96], [97], [98], starting with an ambiguous diagnosis state, the diagnoser can be coupled with a conditional planner to provide a plan of actions that work towards refining the diagnosis. Optimal input design, implemented on-line, can be seen as a continuous control version of active planning [99]. However, when some discrete actions are possible like changing operation mode, active diagnosis calls for planning algorithms rather rooted in the AI field [100]. In domains in which faults are accounted for through maintenance programs, diagnosis appears as an ingredient for achieving condition monitoring and allows one to make adjusted predictions about the remaining useful life of the system and its components. Prognostic is often the result of some statistics drawn from a set of scenarios implementing different stress conditions [101], [102]. But for a specific component in operation, its is possible to assess its current healh status, resulting from the specific stress it has undergone, and this is just the aim of diagnosis. Diagnosis thus allows one to perform adaptive prognosis [103], [104], [105], [106]. Diagnosis determines the state of the system (and each of its components) as being consistent with the current observations, then prognosis can determine the state that will be reached in the future and that is consistent with the current diagnosis and with the ageing model of the system. Hence the remaining useful life can be evaluated for every component in adaptation with the health status reported by diagnosis. In this area, the tools that are generally in use are statistics, machine learning and estimation methods. Coupling diagnosis and prognosis is still young and more work has to be done to better understand and benefit from this link. VI. C ONCLUSION In this paper, different facets of diagnosis investigated in the Control and the AI fields are discussed. Diagnosis benefits from a wide spectrum of methods and each of them brings in different potentialities. Having the whole picture helps understand the different variants of the diagnosis problem in relation with the different application domains. This is also essential to propose suitable and relevant solutions to real diagnosis problems. This paper does not survey the different diagnosis approaches (see [6], [7], [8] for a survey of this kind) but it surveys the bridging works that integrate approaches from the Control and the AI fields. The model-based FDI and DX tracks are given special attention because they can be put in correspondence and the lessons learned from this comparative analysis are very informative in showing how the two approaches deal with different aspects of the diagnosis problem. In section IV, learning the models that support diagnosis reasoning is shown to be a rich field for bridging theories. Finally, diagnosis is discussed in relation with theories that participate to provide global solutions to fault management problems. It is shown that diagnosis benefits from a wide spectrum of methods and that each of them has its own specificity, to be associated with the requirements of the application domains. It is also shown that diagnosis is a critical function in fault management architectures and that maximal benefit can be achieved when it is formally integrated with other tasks. Throughout the paper several openings central to the development of the diagnosis field, and that call for integrative solutions, are pointed out. ACKNOWLEDGMENT The author does thank all the members of the Diagnosis and Supervisory Control (DISCO) team of LAAS-CNRS, University of Toulouse, France, for their support and interesting comments. This paper gives a picture of many of the DISCO research topics, and of the multidisciplinary approach adopted by this team to address diagnosis. R EFERENCES [1] [2] [3] [4] [5] [6] M. Basseville, “Detecting changes in signals and systems : a survey,” Automatica, vol. 24, no. 3, pp. 309–326, 1988. M. Basseville and I. Nikiforov, Detection of abrupt changes: theory and application. Citeseer, 1993. M. Basseville, L. Mevel, and M. Goursat, “Statistical model-based damage detection and localization: subspace-based residuals and damage-to-noise sensitivity ratios,” Journal of Sound and Vibration, vol. 275, no. 3-5, pp. 769–794, 2004. L. Fillatre and I. Nikiforov, “Non-Bayesian detection and detectability of anomalies from a few noisy tomographic projections,” IEEE Transactions on Signal Processing, vol. 55, no. 2, p. 401, 2007. M. Fouladirad, L. Freitag, and I. Nikiforov, “Optimal fault detection with nuisance parameters and a general covariance matrix,” International Journal of Adaptive Control and Signal Processing, vol. 22, no. 5, p. 431, 2008. V. Venkatasubramanian, R. Rengaswamy, K. Yin, and S. N. Kavuri, “A review of process fault detection and diagnosis: Part i: Quantitative model-based methods,” Computers & chemical engineering, vol. 27, no. 3, pp. 293–311, 2003.
    • [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] V. Venkatasubramanian, R. Rengaswamy, and S. N. Kavuri, “A review of process fault detection and diagnosis: Part ii: Qualitative models and search strategies,” Computers & Chemical Engineering, vol. 27, no. 3, pp. 313–326, 2003. V. Venkatasubramanian, R. Rengaswamy, S. N. Kavuri, and K. Yin, “A review of process fault detection and diagnosis: Part iii: Process history based methods,” Computers & Chemical Engineering, vol. 27, no. 3, pp. 327–346, 2003. BRIDGE group, “Bridging ai and control engineering model-based diagnosis approaches.” [Online]. Available: url{http://monet.aber.ac. uk:8080/monet/monetinfo/monetbridge.htm} MONET, “Network of excellence monet ii.” [Online]. Available: url{http://monet.aber.ac.uk:8080/monet/index.html} GdR MACS, “Groupement de recherche modlisation, analyse et conduite des systmes dynamiques.” [Online]. Available: url{http: //www.univ-valenciennes.fr/GDR-MACS/} GdR I3, “Groupement de recherche information, interaction, intelligence.” [Online]. Available: url{http://www.irit.fr/GDR-I3/} AFIA, “Association franaise d’intelligence atificielle.” [Online]. Available: url{http://www.afia.asso.fr/} DX’01, “Bridge workshop,” 2001. [Online]. Available: url{http: //www.di.unito.it/∼dx01} G. Biswas, M. Cordier, J. Lunze, L. Trav´ -Massuy` s, and e e M. Staroswiecki, “Diagnosis of complex systems: Bridging the methodologies of the FDI and DX communities,” IEEE Transactions on Systems, Man, and Cybernetics, Part B, vol. 34, no. 5, pp. 2159– 2162, 2004. Safeprocess09, “7th ifac symposium on fault detection, supervision and safety of technical processes safeprocess’09,” 2009. [Online]. Available: url{http://safeprocess09.upc.es/} J. Gertler, Fault Detection and Diagnosis in Engineering Systems. Marcel Deker, 1998. M. Blanke, M. Kinnaert, J. Lunze, and M. Staroswiecki, Diagnosis and fault-tolerant control. Springer Verlag, 2003. B. Dubuisson, “Automatique et statistiques pour le diagnostic,” Hermes Science Europe Ltd, 2001. R. Patton, P. Frank, and R. Clark, “Fault diagnosis in dynamic systems,” Theory and Applications, 1989. R. Patton and J. Chen, “A re-examination of the relationship between parity space and observer-based approaches in fault diagnosis,” European Journal of Diagnosis and Safety in Automation, vol. 1, no. 2, pp. 183–200, 1991. Z. Qiu and J. Gertler, “Robust FDI and Hinf optimization,” in Proceedings of the 32nd IEEE Conference on Control and Decision CDC’93, San Antonio, Texas, 1993. O. Adrot, D. Maquin, and J. Ragot, “Fault detection with model parameter structured uncertainties,” in Proceedings of the European Control Conference, ECC’99, Karlsruhe, 1999. A. Pouliezos, G. Stavrakakis, and C. Lefas, “Fault detection using parameter estimation,” Quality and reliability engineering international, vol. 5, pp. 283–290, 1985. M. Grewal and K. Glover, “Identifiability of linear and nonlinear dynamical systems,” IEEE Transactions on Automatic Control, vol. 21, no. 6, pp. 833–837, Dec 1976. C. Jauberthie, N. Verdi` re, and L. Trav´ -Massuy` s, “Set-membership e e e identifiability: Definitions and analysis,” in Proceedings of the IFAC World Congress, Milan, Italy, 2011, pp. 12 024–12 029. P. Frank, “On-line fault detection in uncertain nonlinear systems using diagnostic observers: a survey,” International journal of systems science, vol. 25, no. 12, pp. 2129–2154, 1994. E. Chow and A. Willsky, “Analytical redundancy and the design of robust failure detection systems,” IEEE Transactions on automatic control, vol. 29, no. 7, pp. 603–614, 1984. M. Staroswiecki and G. Comtet-Varga, “Analytical redundancy relations for fault detection and isolation in algebraic dynamic systems,” Automatica, vol. 37, no. 5, pp. 687–699, 2001. M. Staroswiecki and P. Declerck, “Analytical redundancy in non linear interconnected systems by means of structural analysis.” in Proceed- [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] ings of the IFAC Symposium on Advanced Information Processing in Automatic Control, 1989, pp. 51–55. J. Armengol, A. Bregon, T. Escobet, E. Gelso, M. Krysander, M. Nyberg, X. Olive, B. Pulido, and L. Trav´ -Massuy` s, “Minimal Struce e turally Overdetermined sets for residual generation: A comparison of alternative approaches,” Proceedings of the 7th IFAC Symposium on Fault Detection, Supervision and Safety of Technical Processes, Safeprocess’09, 2009. R. Reiter, “A theory of diagnosis from first principles,” Artificial Intelligence, vol. 32, no. 1, pp. 57–95, 1987. J. Kleer, A. Mackworth, and R. Reiter, “Characterizing diagnoses and systems,” Artificial Intelligence, vol. 56, no. 2-3, pp. 197–222, 1992. M. Cordier, P. Dague, F. L´ vy, J. Montmain, M. Staroswiecki, and e L. Trav´ -Massuy` s, “Conflicts versus analytical redundancy relations: e e a comparative analysis of the model based diagnosis approach from the artificial intelligence and automatic control perspectives,” IEEE Transactions on Systems, Man, and Cybernetics, Part B, vol. 34, no. 5, pp. 2163–2177, 2004. B. Pulido and C. Gonzalez, “Possible conflicts: A compilation technique for consistency-based diagnosis,” IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics, vol. 34, no. 5, pp. 2192– 2206, October 2004. B. Williams and R. Ragno, “Conflict-directed A* and its role in model-based embedded systems,” in Journal of Discrete Applied Mathematics. Citeseer, 2003. M. Sachenbacher and B. Williams, “Diagnosis as semiring-based constraint optimization,” in Proceedings of the European Conference on Artificial Intelligence ECAI’04, vol. 16, 2004, p. 873. G. Katsillis and M. Chantler, “Can dependency-based diagnosis cope with simultaneous equations,” in Proceedings of the 8th International Workshop on Principles of Diagnosis DX-97, 1997, pp. 51–59. E. Loiez and P. Taillibert, “Polynomial temporal band sequences for analog diagnosis,” in Proceedings of the Fifteenth International Joint Conference on Artificial Intelligence IJCAI-97, Nagoya, Japan, August 23-29, 1997, 1997, p. 474. T. Washio, H. Motoda, Y. Niwa, and I. INSS, “Discovering Admissible Model Equations from Observed Data,” in Proceedings of the 16th International Joint Conference on Artificial Intelligence IJCAI’99, vol. 2. Citeseer, 1999, pp. 772–779. P. Dague and L. Trav´ -Massuy` s, “Raisonnement causal en physique e e qualitative,” Intellectica (38), pp. 247–290, 2004. L. Trav´ -Massuy` s and P. Dague, “Mod` les et raisonnements qualie e e tatifs,” Hermes sciences, 2003. D. Weld and J. De Kleer, Readings in qualitative reasoning about physical systems. Morgan Kaufmann Publishers Inc. San Francisco, CA, USA, 1989. J. De Kleer and B. Williams, “Diagnosing multiple faults.” Artificial Intelligence, vol. 32, no. 1, pp. 97–130, 1987. L. Leyval, S. Gentil, and S. Feray-Beaumont, “Model-based causal reasoning for process supervision,” Automatica, vol. 30, no. 8, pp. 1295–1306, 1994. S. Gentil, J. Montmain, and C. Combastel, “Combining FDI and AI approaches within causal-model-based diagnosis,” IEEE Transactions on Systems, Man, and Cybernetics, Part B, vol. 34, no. 5, pp. 2207– 2221, 2004. L. Trav´ -Massuy` s, R. Pons, S. Tornil, and T. Escobet, “The CA-En e e Diagnosis System and its Automatic Modelling Method,” Computaci´ n o y Sistemas, vol. 5, no. 002, pp. 128–143, 2001. P. Mosterman and G. Biswas, “Diagnosis of continuous valued systems in transient operating regions,” IEEE Transactions on Systems, Man, and Cybernetics, Part A, vol. 29, no. 6, pp. 554–565, 1999. P. Feenstra, P. Mosterman, G. Biswas, and P. Breedveld, “Bond graph modeling procedures for fault detection and isolation of complex flow processes,” Simulation Series, vol. 33, no. 1, pp. 77–84, 2001. L. Trav´ -Massuy` s and G. Calderon-Espinoza, “Timed fault diagnoe e sis,” in Proceedings of the European Control Conference ECC-07, 2007. J. Zaytoon et al., “Syst` mes dynamiques hybrides,” Herm` s Science e e Publication, Paris, 2001.
    • [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] S. McIlraith, G. Biswas, D. Clancy, and V. Gupta, “Hybrid systems diagnosis,” Lecture notes in computer science, pp. 282–295, 2000. T. Henzinger, “The theory of hybrid automata,” in Proceedings of the 11th Annual IEEE Symposium on Logic in Computer Science (LICS ’96), New Brunswick, New Jersey, 1996, pp. 278–292. J. Lunze and F. L. L. (Eds.), Handbook of hybrid systems control: theory, tools, applications. Cambridge, 2009. B. Pell, D. Bernard, S. Chien, E. Gat, N. Muscettola, P. Nayak, M. Wagner, and B. Williams, “An autonomous spacecraft agent prototype,” Autonomous Robots, vol. 5, no. 1, pp. 29–52, 1998. B. Williams and P. Nayak, “A model-based approach to reactive selfconfiguring systems,” in Proceedings of the National Conference on Artificial Intelligence, 1996, pp. 971–978. M. Bayoudh, L. Trav´ -Massuy` s, and X. Olive, “Coupling continuous e e and discrete event system techniques for hybrid system diagnosability analysis,” in Proceedings of the 18th European Conference on Artificial Intelligence ECAI’08 , July 21-25, 2008, Patras, Greece: Including Prestigious Applications of Intelligent. IOS Press, 2008, p. 219. G. Ackerson and K. Fu, “On state estimation in switching environments,” IEEE Transactions on Automatic Control, vol. 15, pp. 10–17, 1970. H. Blom and Y. Bar-Shalom, “The interacting multiple model algorithm for systems with markovian switching coefficients,” IEEE Transactions on Automatic Control, vol. 33, pp. 780–783, 1988. X. Li and Y. Bar-Shalom, “Multiple-model estimation with variable structure,” IEEE Transactions on Automatic Control, vol. 41, pp. 478– 493, 1996. N. de Freitas, “Rao-blackwellised particle filtering for fault diagnosis,” in Proceedings of the IEEE Aerospace Conference 2002, vol. 4, 2002, pp. 1767–1772. V. Verma, G. Gordon, R. Simmons, and S. Thrun, “Real-time fault diagnosis,” IEEE Robotics and Automation Magazine, vol. 11, no. 2, pp. 56–66, 2004. S. Narasimhan, R. Dearden, and E. Benazera, “Combining particle filters and consistency based approaches for monitoring and diagnosis of stochastic hybrid systems,” in Proceedings of the 15th International Workshop on Principles of Diagnosis (DX04), 2004, pp. 123–128. M. W. Hofbaur and B. C. Williams, “Mode estimation of probabilistic hybrid systems,” in Hybrid Systems: Computation and Control, HSCC 2002, ser. Lecture Notes in Computer Science, C. Tomlin and M. Greenstreet, Eds. Springer Verlag, 2002, vol. 2289, pp. 253–266. E. Benazera, L. Trav´ -Massuy` s, and P. Dague, “State tracking of e e uncertain hybrid concurrent systems,” in Proceedings of the 13th International Workshop on Principles of Diagnosis (DX02), May 2002, pp. 106–114. S. Narasimhan and G. Biswas, “An approach to model-based diagnosis of hybrid systems,” in Hybrid Systems: Computation and Control, HSCC 2002, ser. Lecture Notes in Computer Science, C. Tomlin and M. Greenstreet, Eds. Springer Verlag, 2002, vol. 2289, pp. 308–322. E. Benazera and L. Trav´ -Massuy` s, “Set-theoretic estimation of e e hybrid system configurations.” IEEE transactions on systems, man, and cybernetics. Part B, Cybernetics: a publication of the IEEE Systems, Man, and Cybernetics Society, vol. 39, no. 6, pp. 1277–1291, 2009. R. Washington, “On-board real-time state and fault identification for rovers,” in Proceedings of the IEEE International Conference on Robotic and Automation (ICRA’00), San Francisco, CA, USA, 2000. M. Hofbaur and B. Williams, “Hybrid diagnosis with unknown behavioral modes,” in Proceedings of the Thirteenth Internatinal Workshop on Principles of Diagnosis (DX-02), Semmering, Austria, 2002, pp. 97–105. M. S. Arulampalam, S. Maskell, N. Gordon, and T. Clapp, “A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking,” IEEE Transactions on Signal Processing, vol. 50, no. 2, pp. 174–188, February 2002. V. Verma, S. Thrun, and R. Simmons, “Variable resolution particle filter,” in Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI’03), 2003, pp. 976–981. S. Thrun, J. Langford, and V. Verma, “Risk sensitive particle filters,” in Advances in neural information processing systems 14: proceedings of the 2001 conference. MIT Press, 2002, p. 961. [73] S. Narasimhan, R. Dearden, and E. Benazera, “Combining particle filters and consistency-based approaches for monitoring and diagnosis of stochastic hybrid systems,” in Proceedings of the15th International Workshop on Principles of Diagnosis (DX04), Carcassonne, France. Citeseer, 2004. [74] J. Kurien and P. P. Nayak, “Back to the future for consistency-based trajectory tracking,” in AAAI/IAAI, 2000, pp. 370–377. [75] E. Benazera and L. Trav´ -Massuy` s, “The Consistency approach to the e e on-line prediction of hybrid system configurations,” in Proceedings of the International Conference on Analysis and design of hybrid systems 2003 (ADHS 03): a proceedings volume from the IFAC Conference, St. Malo, Brittany, France, 16-18 June 2003. Elsevier Science, 2003, p. 241. [76] U. Lerner, R. Parr, D. Koller, and G. Biswas, “Bayesian fault detection and diagnosis in dynamic systems,” in AAAI/IAAI, 2000, pp. 531–537. [77] U. Lerner, B. Moses, M. Scott, S. McIlraith, and D. Koller, “Monitoring a complex physical system using a hybrid dynamic bayes net,” in Proceedings of UAI-02, 2002. [78] M. Bayoudh, L. Trav´ -Massuy` s, X. Olive, and T. Space, “Hybrid syse e tems diagnosis by coupling continuous and discrete event techniques,” in Proceedings of the IFAC World Congress, Seoul, Korea, 2008, pp. 7265–7270. [79] M. Sampath, R. Sengupta, S. Lafortune, K. Sinnamohideen, and D. Teneketzis, “Diagnosability of discrete-event systems,” IEEE Transactions on Automatic Control, vol. 40, no. 9, pp. 1555–1575, 1995. [80] M. W. Hofbaur and B. C. Williams, “Hybrid estimation of complex systems,” IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics, vol. 34, no. 5, pp. 2178–2191, October 2004. [81] T. Rienmuller, M. Mayoudh, M. Hofbaur, and L. Trav´ -Massuy` s, e e “Hybrid estimation through synergic mode-set focusing,” in Proceedings of the 7th IFAC Symposium on Fault Detection, Supervision and Safety of Technical Processes, Safeprocess’09, 2009. [82] T. Kempowsky, A. Subias, J. Aguilar-Martin, and L. Trav´ -Massuy` s, e e “A discrete event model for situation awareness purposes,” in Proceedings of the International Symposium on Fault Detection, Supervision and Safety of Technical Processes Safeprocess 2006, Beijing, China, 2006, pp. 1288–1293. [83] A. Subias, E. Exposito, C. Chassot, L. Trav´ -Massuy` s, and K. Drira, e e “Self-adapting strategies guided by diagnosis and situation assessment in collaborative communicating systems,” in Proceedings of the International Workshop on Principles of Diagnosis (DX 10), Portland (USA), 2010, pp. 329–336. [84] J. Aguilar-Castro, A. Subias, L.Trav´ -Massuy` s, and K. Zouaoui, “A e e chronicle learning approach for self-adapting strategies in collaborative communicating systems,” LAAS, 12p., LAAS Reports 11698, 2012. [85] C. Dousson, P. Gaborit, and M. Ghallab, “Situation recognition: representation and algorithms,” in Proceedings of the International Joint Conference on Artificial Intelligence IJCAI’93, Chamb´ ry, France, e august 1993, pp. 166–172. [86] A. Artikis, A. Skarlatidis, F. Portet, and G. Paliouras, “Logic-based event recognition,” Knowledge Engineering Review (to appear), 2010. [87] D. Cram, B. Mathern, and A. Mille, “A complete chronicle discovery approach: application to activity analysis,” Expert Systems, vol. 29, no. 4, pp. 321–346, 2012. [88] R. J. Aguilar-Martin, R. Lopez de Mantaras, “Approximate reasoning in decision analysis,” The Process of Classification and Learning the Meaning of Linguistic Concepts, vol. 1982, pp. 165–174, 1999. [89] T. Kempowsky, J. Aguilar-Martin, A.Subias, and M. L. Lann, “Classification tool based on interactivity between expertise and self-learning techniques,” in Proceedings of the International Symposium on Fault Detection, Supervision and Safety of Technical Processes Safeprocess 2003, Washington D.C. (USA), 2003. [90] E. Benazera, “On the articulation of planning and diagnosis,” 2009, technical report 09536, LAAS-CNRS, Toulouse, France. [91] F. De Jonge, N. Roos, and C. Witteveen, “Diagnosis of multi-agent plan execution,” in Multiagent System Technologies. Springer, 2006, pp. 86–97.
    • [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] R. Micalizio and P. Torasso, “Plan diagnosis and agent diagnosis in multi-agent systems,” in AI* IA 2007: Artificial Intelligence and Human-Oriented Computing. Springer, 2007, pp. 434–446. C. Witteveen, N. Roos, R. van der Krogt, and M. de Weerdt, “Diagnosis of single and multi-agent plans,” in Proceedings of the fourth international joint conference on Autonomous agents and multiagent systems. ACM, 2005, pp. 805–812. N. Muscettola, G. A. Dorais, C. Fry, R. Levinson, and C. Plaunt, “Idea: Planning at the core of autonomous reactive agents,” in Proceedings of the 3rd International NASA Workshop on Planning and Scheduling for Space, Oct. 2002. F. Ingrand, R. Chatila, and R. Alami, “An architecture for dependable autonomous robots,” in Proceedings of the Emerging Technologies and Factory Automation, 2001. Proceedings. 2001 8th IEEE International Conference on, vol. 2. IEEE, 2001, pp. 657–658. E. Chanthery, Y. Pencole, and N. Bussac, “An ao*-like algorithm implementation for active diagnosis,” in Proceedings of the International Symposium on Artificial Intelligence, Robotics and Automation in Space (i-SAIRAS 2010), Sapporo (Japon), 2010, pp. 378–385. M. Daigle, X. Koutsoukos, and G. Biswas, “Improving diagnosability of hybrid systems through active diagnosis?” in Proceedings of the 7th IFAC Symposium on Fault Detection, Supervision and Safety of Technical Processes, Barcelona, Spain, 2010. M. Bayoudh, L. Trav´ -Massuy` s, and X. Olive, “Active diagnosis of e e hybrid systems guided by diagnosability properties,” in Proceeding of the 7th IFAC Symposium on Fault Detection, Supervision and Safety of Technical Processes, Safeprocess’09, Barcelona, Spain, 2009, pp. 1498–1503. R. Mehra, “Optimal input signals for parameter estimation in dynamic systems–survey and new results,” Automatic Control, IEEE Transactions on, vol. 19, no. 6, pp. 753–768, 1974. M. Ghallab, D. Nau, and P. Traverso, Automated Planning: theory and practice. Morgan Kaufmann, 2004. G. Vachtsevanos, F. Lewis, M. Roemer, A. Hess, and B. Wu, Intelligent fault diagnosis and prognosis for engineering systems. Wiley Online Library, 2006. A. Saxena, J. Celaya, B. Saha, S. Saha, and K. Goebel, “Metrics for offline evaluation of prognostic performance,” International Journal of Prognostics and Health Management, vol. 1, no. 1, p. 20, 2010. P. Ribot, Y. Pencol´ , and M. Combacau, “Diagnosis and prognosis e for the maintenance of complex systems,” in Proceedings of the Systems, Man and Cybernetics, 2009. SMC 2009. IEEE International Conference on. IEEE, 2009, pp. 4146–4151. ——, “Prognostics for the maintenance of distributed systems,” in Proceedings of the International Conference on Prognostics and Health Management (PHM’08), Denver, USA, 2008, pp. 6–10. S. Mohanty, A. Chattopadhyay, and P. Peralta, “Adaptive residual useful life estimation of a structural hotspot,” Journal of Intelligent Material Systems and Structures, vol. 21, no. 3, pp. 321–335, 2010. L.Hedjazi, M. Lann, T.Kempowsky, J.Aguialr-Martin, G. F.Dalenc, and S. L. Despenes, “From chemical process diagnosis to cancer prognosis: an integrated approach for diagnosis and sensor/marker selection,” in Proceedings of the European Symposium on Computer-Aided Process Engineering (ESCAPE 21), Chalkidiki (Grce), 2011, pp. 1510–1514.
    • Deducción y Validación de un Modelo Dinámico de la Transferencia Térmica en un Invernadero a Escala Deduction and Validation of a Dynamic Model of Heat Transfer in Scale Greenhouse Oscar Alexánder Bellón Hernández Facultad de Ciencias e Ingeniería Universidad de Boyacá Tunja, Colombia oabellon@uniboyaca.edu.co Resumen—En el documento se propone un modelo dinámico lineal con parámetros concentrados para expresar la relación entre la potencia térmica suministrada a un invernadero y el comportamiento de la temperatura en su interior, tomando en cuenta la pérdida de calor por las condiciones climáticas en el exterior del sistema. Se hace una descripción de los experimentos practicados para determinar las constantes involucradas y una comparación entre el modelo simulado y el sistema real. La obtención de un modelo simplificado de la transferencia de calor es el primer paso en la formulación de una estrategia de control. Términos clave—invernadero; modelo dinámico; transferencia térmica; validación de modelo Abstract—The paper proposes a linear dynamic model with lumped parameters to express the relationship between the thermal power supplied to a greenhouse and the behavior of the temperature inside, taking into account the loss of heat by weather conditions outside the system . Description of the performed experiments is made to determine the constants involved and a comparison between the simulated model and the real system. Obtaining a simplified model of heat transfer is the first step in developing a control strategy. estimado. Sin embargo, las características del aire en un lugar particular, pueden variar dependiendo de factores tales como la hora del día, el nivel de radiación solar, nubosidad, presión, humedad, entre otros. Los invernaderos ofrecen una alternativa viable para controlar en alguna medida, las variables involucradas en el proceso de crecimiento, cuidado y explotación de cultivos [4]. Permiten aislar o reducir las pérdidas de calor, limitando el volumen a un espacio confinado, donde las condiciones ambientales, pueden ser controladas con mayor facilidad. Dentro de las variables que están envueltas en el proceso, pueden mencionarse: la radiación de onda corta, radiación de onda larga, flujo de calor entre el interior y el exterior mediando la cubierta, temperatura al interior, temperatura externa, humedad relativa (flujo de calor por evaporación y condensación), transferencia de calor y masa a través de la cubierta y por ventilación, son sólo algunas de las variables que son parte de este complejo sistema [5]. La transferencia térmica desde un recinto cerrado hacia el exterior, es un fenómeno tratado en muchos textos clásicos [1] y modelado en muchas circunstancias [2]. En este documento se parte de un modelo clásico, con una ecuación diferencial de primer orden, lineal y con parámetros invariantes en el tiempo [3]. Las pruebas realizadas utilizaron dos modelos: uno de caja blanca, a partir de la dinámica de la transferencia térmica y de la ecuación diferencial que describe el sistema [1]. La segunda aproximación puede denominarse de caja negra porque no toma en cuenta los parámetros físicos del sistema sino que deduce una función de transferencia de segundo orden en el que los coeficientes del denominador, no tienen relación con las características del sistema, sino que se ajustan a la curva de respuesta. En ambas situaciones se evaluó la respuesta paso y el sistema se consideró de una entrada y una salida. Tal nivel de simplicidad, tiene como propósito, obtener una relación matemática confiable, fácil de procesar para propósitos de control. Los datos recogidos, en los experimentos realizados, se basaron en el modelo clásico y la determinación de los parámetros del sistema, se hizo directamente a partir de las mediciones en el sitio. En el procedimiento habitual, se cuenta con tablas de densidad, conductividad, coeficientes de convección entre otros, para formular un modelo dinámico La transferencia térmica en invernaderos depende no solamente de las fuentes de flujo de calor, sino de los elementos individuales dentro del recinto [4, 5, 10]. Además de quemadores, resistencias calefactores, estufas, etc, también introducen flujo de calor al sistema, la radiación de onda corta y de la energía proveniente de la luz visible del sol, así como el Keywords—greenhouse; dynamic model; heat transfer; model validation I. INTRODUCCIÓN
    • patrón de flujo que se presenta por las superficies expuestas de las plantas, que interfieren con las corrientes de convección del aire al interior del invernadero [5]. A pesar de la complejidad que un análisis en detalle requeriría para modelar con buen grado de precisión, el comportamiento de la temperatura en cada punto específico dentro del recinto, se pueden asumir condiciones especiales que llevan a considerar cierto grado de homogeneidad, dentro de ciertas limitaciones. En este sentido, se aplica convección forzada mediante la introducción de ventiladores dentro del recinto que ayudan a mezclar las masas de aire [2]. Este documento se enfoca en analizar la transferencia de calor entre el invernadero y el exterior y la temperatura interna, sin tener en cuenta el aporte de energía térmica suministrada por la radiación de onda corta. Las situaciones estudiadas corresponden a la pérdida y compensación del calor en modo transitorio y en estado estable, cuando hay una pérdida neta de potencia como resultado de la diferencia de temperaturas entre el exterior más frío y el interior que contiene una fuente de flujo calórico [6]. Dicho análisis asume que la temperatura al interior es uniforme gracias a la convección forzada. El objetivo que se ha propuesto el análisis aplicado, es determinar un modelo lineal sencillo que describa con buen grado de aproximación, el comportamiento de la temperatura en un recinto cerrado con una fuente de flujo calórico al interior. Dichos modelos son la base para simular condiciones climáticas extremas como por ejemplo: heladas climáticas, fenómeno que se presenta en las noches de nubosidad nula. El modelo obtenido también es el punto de partida en la valoración de estrategias de control de temperatura que luego se puedan validar experimentalmente mediante el diseño de controladores. El control de temperatura en invernaderos es un tema recurrente en la literatura técnica y de especial interés en zonas donde la variabilidad climática no permite una explotación a campo abierto de los suelos de cultivo [6, 10]. Aunque son varias las magnitudes físicas que se pueden monitorizar y/o manipular, como la potencia de la fuente de flujo calórico, velocidad del viento, humedad, intensidad luminosa, entre otras, la principal variable de estado a controlar es la temperatura [6, 7, 8]. Aunque en años recientes, se están implementando protocolos de comunicación en redes inalámbricas para una regulación más eficiente [11, 12] y en tiempo real, sigue siendo útil contar con modelos simplificados, de una entrada y una salida, sobre todo en la fase inicial de diseño. Otra variante que es pertinente mencionar, es el uso de materiales de cambio de fase [9] como aislantes entre el sistema interior y el ambiente exterior. El cambio de fase es la transición de un estado de la materia a otro, en aplicaciones prácticas principalmente, entre los estados sólido y líquido. Las paredes del invernadero se recubren de materiales que presentan cambio de fase a una temperatura apropiada para mantener el calor al interior. Aunque la temperatura exterior al recinto, esté por debajo del valor al interior, un material de cambio de fase (PCM por sus siglas en inglés), mantiene la temperatura en la transición de líquido a sólido, por encima de la del ambiente, mientras coexistan las fases en él. En este caso, no hay intercambio de calor entre el aire al interior del recinto y el ambiente exterior. La sección de “Análisis Teórico”, se fundamenta en una deducción analítica a partir de una serie de expresiones matemáticas que predicen el comportamiento de la temperatura en el sistema sin intercambio con el exterior y con pérdidas hacia el exterior. Las ecuaciones obtenidas, describen funciones matemáticas formales de las que se pueden extraer parámetros invariantes aplicando herramientas conceptuales tales como las ecuaciones diferenciales y la transformada de Laplace, cuyos fundamentos y aplicaciones no son el objeto de este escrito pero de las que hay disponible información en fuentes bibliográficas reconocidas [15]. La extracción de dichos parámetros se hace con procedimientos algebraicos en unas situaciones o por métodos numéricos en otras, pero en ambos casos, a partir de los datos proporcionados por las mediciones realizadas. El modelamiento de procesos térmicos, el uso de transformada de Laplace, las funciones de transferencia y el análisis de la respuesta paso, son profusamente documentados en textos tradicionales de teoría de control [13, 14]. En la metodología se describen los pasos seguidos para la realización de los experimentos, la obtención de datos y los valores calculados a partir de las expresiones ya determinadas en el análisis teórico de la sección anterior. Los componentes para implementar cada experimento fueron relativamente sencillos, por lo que no se dedicó mayor espacio en su descripción. El mayor peso de esta sección es la formulación global de los pasos para la extracción de los valores particulares de los parámetros del sistema, es decir, de los coeficientes de las dos ecuaciones diferenciales representativas: sin pérdida de calor y con pérdida. Se hace mención global y breve de los algoritmos para filtrar y suavizar los datos de las mediciones. Tanto el análisis teórico como la metodología deben ser leídos con atención para tener claridad respecto a la obtención de los datos. La secciones de resultados y de discusión, registran la comparación entre los datos reales obtenidos a partir de los experimentos y los que se generaron al correr las simulaciones. Los modelos con que se efectuaron las simulaciones, se hicieron a partir de las ecuaciones deducidas como funciones de transferencia en el análisis teórico y los valores particulares de los parámetros, se extrajeron de los datos proporcionados por el mecanismo de procesamiento de datos descrito en la metodología. II. ANÁLISIS TEÓRICO Un invernadero es un volumen contenido con fronteras definidas que puede aproximarse a un sistema que intercambia calor con el exterior y dependiendo del grado de precisión del modelo, podría considerar el intercambio de materia con el exterior. Para obtener un modelo simplificado que sin embargo, represente confiablemente el comportamiento de las variables, puede comenzarse a estudiar el comportamiento del aire al interior del invernadero. La primera parte de este trabajo, analiza la transferencia de potencia térmica debido a una fuente de flujo calórico, en un istema cerrado que no intercambia calor con el medio exterior.
    • Posteriormente, se deducen ecuaciones para describir el proceso con intercambio de calor con el exterior, como una primera aproximación al comportamiento del invernadero. De esas dos situaciones, se plantean unas expresiones que permitirán calcular los parámetros intrínsecos del sistema y que son la base del diseño de los experimentos para identificación. La gráfica (fig. 2), muestra el incremento constante de la temperatura respecto al tiempo, cuando se aplica una potencia de entrada con magnitud media cuadrática constante, iniciando en y luego llevándola a 0, nuevamente en , donde la temperatura alcanza un valor , donde la A. Modelado del Incremento Térmico en un Contenedor Adiabático Considerando un volumen de aire conocido , con densidad, humedad y temperatura iniciales iguales a la del aire en el exterior, dentro de un contenedor adiabático y hermético y una fuente de conversión de potencia calorífica, que aumenta la energía interna (Figura 1) . Si se cuenta con un mecanismo agitador, como por ejemplo un ventilador, para mezclar el aire, puede asumirse que la temperatura en el interior del contenedor es homogénea en todos los puntos dentro del contenedor. Acorde con el principio de conservación de la energía, si toda la potencia se transfiere como calor, la razón de cambio de la temperatura respecto al tiempo, en el interior del contenedor, es directamente proporcional a la potencia media cuadrática transferida de la fuente e inversamente proporcional al volumen de aire. (1) temperatura alcanza un valor Fig. 2. Comportamiento de la temperatura en el interior del contenedor ante una potencia paso de magnitud En la misma figura, es la temperatura que tiene el aire antes de que se active la fuente de flujo calorífico y que se asume igual a la temperatura del aire en el exterior. El trazo es el comportamiento ideal esperado que no toma en cuenta el tiempo necesario para que el sistema alcance el equilibrio térmico. De hecho, en la práctica se utiliza un sensor de temperatura para observar el comportamiento de ésta variable, cuya indicación o lectura, implica una constante de tiempo que corresponde a una función de transferencia de primer orden. Físicamente, significa que la temperatura del sensor en realidad es una aproximación y lo que se registra graficamente, no es la temperatura del sistema sino la temperatura del sensor, que en la gráfica está representado por el trazo . Fig. 1. Contenedor adiabático con aire al interior y fuente de flujo calórico. Donde , es la temperatura, la potencia y , la constante de proporcionalidad. La ecuación (1) es una expresión del principio de conservación de la energía que puede encontrarse en los textos que tratan sobre el modelamiento de sistemas dinámicos térmicos [13, 14]. Considerándolo como un sistema causal, al aplicar la transformada de Laplace, la ecuación (1), se convierte en : (2) La potencia térmica es la función de excitación del sistema y la forma de la ecuación (2) indica que si la entrada es una función paso de magnitud el incremento de temperatura aumenta con una pendiente constante. En la figura 3, se observa un diagrama de bloques representativo del sistema. El bloque que representa la función de transferencia del sensor, incluye una constante de tiempo y asume que la salida tiene un factor de escala de 1, porque su salida es también en unidades de temperatura. De lo que se observa en la figura 2, se aprecia que los dos trazos y , tienen aproximadamente la misma pendiente, específicamente en el intervalo , donde el segmento correspondiente de , se aproxima a una recta. Se infiere que en este intervalo, la pendiente es igual a la razón de cambio de la temperatura respecto al tiempo. Dos formas al menos, se tienen para hallar esa pendiente a partir del registro del sensor:
    • (8) (9) Que demuestra que las funciones y igualan sus pendientes a medida que avanza el tiempo, siempre que halla un suministro constante de potencia media cuadrática en el interior del contenedor. 3) Constante de Tiempo Fig. 3. Diagrama de bloques del sistema incluyendo la función de transferencia del sensor 1) Pendiente de en el intervalo del Sensor Sea el tiempo en el cual la función tiene una pendiente equivalente a la mitad de la pendiente de . Con esta consideración, a partir de la ecuación (8), puede hallarse el valor de : La solución de la ecuación diferencial (1), es la función en el tiempo: (10) (3) Que es una línea recta con ordenada al origen (Temperatura ambiente). La pendiente de la recta, puede calcularse a partir de la siguiente relación: (4) (5) (11) Igual procedimiento puede seguirse para cualquier punto de la función , donde sea conocida la pendiente, como una fracción de la pendiente de . La ecuación (11) es válida en el intervalo . B. Modelado del Sistema con Pérdida de Calor Con fundamento en un balance de energía, en donde la velocidad de incremento de la temperatura es proporcional a la diferencia entre el flujo calórico de entrada suministrado por la resistencia calefactora y el flujo calórico que escapa a través de las paredes del contenedor [17], la ecuación diferencial que modela el comportamiento de la temperatura, incluyendo el efecto de la pérdida de calor a través de las paredes es: Donde es la temperatura de equilibrio que alcanza el aire al interior del contenedor, después de desconectar la fuente de potencia térmica, en 2) Pendiente de en el intervalo De la figura 3, con una entrada paso de magnitud se obtiene una ecuación en el dominio de la variable compleja : (6) (12) Donde es una constante de proporcionalidad, es el área efectiva de la cobertura expuesta y es la temperatura en el exterior (Temperatura ambiente). Con una potencia calórica constante de magnitud , eventualmente el sistema alcanzará el estado estable (La razón de cambio de la temperatura respecto al tiempo se hace nula). Igualando a cero la ecuación (12) , ordenando y despejando: (13) Que en el dominio del tiempo es: (7) Que es la ecuación que describe con precisión el comportamiento de en la figura 2, en el intervalo . A medida que el tiempo avanza, la respuesta se estabiliza en una pendiente constante que se puede deducir numéricamente de los datos suministrador por el sensor. Derivando con respecto al tiempo la ecuación (7), se obtiene: Donde , es la temperatura de equilibrio al interior del contenedor y Haciendo el cambio de variable: (14) (15)
    • Donde es la variación de temperatura al interior del contenedor, alrededor de la temperatura ambiente o del exterior. Con esta sustitución, la ecuación (12) se convierte en: (16) La función de transferencia del sistema, conduce al diagrama de bloques de la figura 4, donde es la variación de temperatura instantánea dentro del invernadero y es la variación de temperatura registrada por el sensor. Fig. 4. Diagrama de bloques para el sistema, incluyendo pérdida de calor y función de transferencia del sensor. El comportamiento teórico esperado de la temperatura registrada por el sensor, se puede apreciar en la figura 5: pasabajo digital con el cálculo de la media móvil central con remoción de datos anómalos. Complementariamente, se utilizó un registro semi-manual con termómetro de mercurio con escala de °C, hasta 50°C y subdivisiones marcadas mínimas de una décima de °C. Un observador pulsaba el botón de inicio para activar la alimentación de la resistencia, previo registro de la temperatura inicial. El botón estaba conectado a una entrada digital de una tarjeta Arduino UNO, con interfaz serial hacia un computador ejecutando el entorno MATLAB. El botón se utilizó como detector externo para activar la alimentación a una potencia prefijada y servir de indicación para temporizar la adquisición de datos. Una vez en marcha, cuando la columna de mercurio alcanzaba valores de temperatura prefijados, el observador pulsaba una tecla para que se asignara el valor de tiempo, registrado a partir del reloj de tiempo real del computador al valor de temperatura mencionado. La comparación de mediciones con varios sensores LM35DZ, arrojaba comportamientos aproximados con dispersiones bajas. Las mediciones semi-manuales, resultaron altamente precisas, pues en varias repeticiones con las mismas condiciones y con dos termómetros de mercurio con las mismas especificaciones, se obtuvieron respuestas virtualmente iguales en situaciones de medición iguales. Las figuras 8, 9, 10 y 11, son tomadas a partir de las mediciones hechas con los termómetros, sin necesitar ninguna clase de filtrado y como se puede apreciar, con comportamientos ajustados en gran medida al calculado con las expresiones obtenidas en la sección anterior. Las curvas de comportamiento con el método semi-manual, no requirieron suavizarse y se utilizaron los datos directamente. Para determinar los valores de , y del proceso en particular, se implementó un experimento en dos etapas: A. Cálculo de parámetros sin pérdida de calor Fig. 5. Comportamiento teórico de la temperatura al interior del invernadero ante una entrada de potencia paso de magnitud , considerando pérdidas de calor con el exterior. I. METODOLOGÍA La adquisición de datos fundamentalmente, consistió en capturar valores de temperatura para diferentes tiempos a partir de un momento inicial, hasta tener un registro tabulado de las variables . En un principio se utilizó un sensor de temperatura LM35DZ, conectado a la entrada análoga de una tarjeta programable Arduino UNO que se comunicó serialmente con el entorno MATLAB. La serie de datos registrada, presentó altos niveles de ruido no relacionados con perturbaciones externas, pues las mediciones se llevaron a cabo en un recinto con aire acondicionado. Se pudo reducir el nivel de ruido aplicando un algoritmo que combinó un filtro En primer lugar, en una nevera de poliestireno expandido con un volumen interno de , se dispuso de un resistor cerámico de de potencia nominal, conectado a una fuente de tensión ajustable y un ventilador de , de los utilizados para el enfriamiento de computadores portátiles. La función del ventilador fue acelerar la mezcla del aire dentro del contenedor para que la temperatura fuera homogénea. La temperatura se midió con un termómetro de mercurio con una resolución de . El polietileno expandido es un material con baja conductividad térmica y la nevera de este material es una buena aproximación de un contenedor adiabático. Al inicio del experimento, la temperatura del aire al interior de la caja fue la misma del ambiente. Los orificios y resquicios de la nevera se sellaron para evitar fuga de aire. En esas condiciones iniciales, se activó la resistencia calefactora a una potencia de , mediante conmutación por transistor, controlada desde la tarjeta Arduino UNO con una señal que también fue utilizada para iniciar la cuenta de tiempo. La constante , se obtuvo con la pendiente que resultó al aplicar la regresión lineal a los datos reales de temperatura que tuvieron el comportamiento semejante al que se aprecia en la figura 2 en el intervalo . Los valores particulares de y , se definieron directamente de los datos reales
    • graficados respecto al tiempo y utilizando las herramientas del editor de gráficos de Matlab. Los datos recolectados de temperatura y tiempo, fueron procesados mediante el software Matlab para generar gráficos donde la temperatura es la ordenada y el tiempo la abscisa. Un script se encargó de calcular el valor de tiempo equivalente a , que como se puede ver en la la sección II-3 en las condiciones especificadas en la ecuación (11) para determinar la constante , se recurrió al método numérico de las primeras diferencias, para su determinación. La misma serie de mediciones se hizo con una potencia disipada del resistor de . B. Cálculo de parámetros con pérdida de calor La segunda etapa del experimento, se hizo con la misma configuración de suministro de potencia eléctrica y de métodos de registro de temperaturas de la primera, pero cambiando la nevera de poliestireno por una caja de material plástico transparente, de uso típico en invernaderos con dimensiones aproximadamente. La cobertura plástica, más delgada y con mayor conductividad térmica, produce una disipación que es descrita con la ecuación (12) y el área efectiva expuesta fue de . Como en la primera etapa, se activó la alimentación a la resistencia introduciendo una potencia paso que en una primera serie de medidas fue de y en la segunda serie de . Como en el caso anterior, se registraron las medidas sistemáticamente de temperatura y tiempo. El valor particular de se determinó a partir de la ecuación (13) y de los datos obtenidos en esta etapa del experimento. La gráfica resultante y los valores registrados en la medición, suministraron , mientras que fue la potencia media que disipaba el resistor. En ambas etapas se hizo la simulación con Simulink de Matlab, una vez definidos los parámetros , y . La primera parte de la simulación, se implementó a partir del diagrama de bloques de la figura 3, con los valores de , y . En la segunda parte, se utilizó como referencia la figura 4 y el valor calculado de a partir de la ecuación (13). Fig. 6. Diagrama de bloques hecho en Simulink de Matlab para simular la primera etapa del experimento. Fig. 7. Diagrama de bloques en Simulink de Matlab para simular la segunda etapa del experimento IV. RESULTADOS En la primera etapa del experimento y siguiendo los procedimientos descritos en la metodología, especificamente en la subsección III-B con el contenedor sellado de poliestireno, el procesamiento de los datos permitió definir los siguientes parámetros: Éste último parámetro es importante porque es independiente de las dimensiones del material, es decir, es una constante intrínseca del aire en el sitio donde se tomó la medida. Fig. 8. Temperatura registrada por el termómetro en el interior del contenedor, ante una entrada paso de 5W. Respuesta simulada y real. En las figuras 8 y 9, se pueden ver las gráficas comparativas entre el comportamiento del sistema real y el
    • comportamiento del sistema simulado al aplicarse a la entrada una potencia térmica de y vatios, respectivamente. En la segunda etapa, se calculó el parámetro de material plástico: para la caja magnitud respectivamente. Los resultados se recogen en la tabla I TABLA I. VALORES DE LOS PARÁMETROS CALCULADOS Etapa 1 Etapa 2 Potencia media aplicada por el resistor Así como la constante de proporcionalidad: Que es la que corresponde a la caja de plástico transparente. Parámetro Volumen interno del contenedor adiabático Símbolo 5W 10W 5W 10W Constante de tiempo del sensor 85 85 85 85 Constante de transferencia de calor 0.0055 0.0055 0.0016 0.0016 - - - - 0.005 0.005 Area de la cobertura del invernadero A Constante de transferencia de calor pérdido Fig. 9. Temperatura registrada por el sensor ante una entrada paso de 10W en la primera etapa del experimento con pérdida de calor V. DISCUSIÓN En las gráficas de las figuras 8 y 9, se evidencia la alta correlación entre los datos reales, tomados en la primera etapa del experimento, con el modelo definido por el diagrama de bloques de la figura 6. En la segunda etapa del experimento, las gráficas en las figuras 10 y 11, aproximan bien el comportamiento en estado estable pero en el transitorio, hay una divergencia entre la tendencia de los datos y lo que el modelo del diagrama de bloques de la figura 7, muestra. De hecho, el comportamiento transitorio, se asemeja mejor a una respuesta paso de un sistema de segundo orden. A partir de las medidas de desempeño para sistemas de segundo orden, se determinó una función de transferencia de la forma: (17) Fig. 10. Respuestas simulada y real de la temperatura registrada por el sensor ante una entrada paso de 5W en la segunda etapa del experimento. Las figuras 10 y 11, muestran las respuestas real y simulada, del sistema ante una entrada paso de y de
    • representa bien la respuesta en estado estable. Un modelo híbrido de estas características, deberá ser comparado con su contraparte de caja blanca, para seleccionar el que mejor ayuda a cumplir objetivos de control. Los experimentos se llevaron a cabo en un recinto con mecanismo de regulación de temperatura, por lo que la ocurrencia de perturbaciones en la temperatura ambiente es poco probable. No puede atribuirse a perturbaciones de la temperatura ambiente la diferencia en el comportamiento del valor de temperatura expresado en la ecuación (12), en el intervalo transitorio. Sin embargo, la mejor correspondencia del sistema con pérdida de calor, con la ecuación (17), implica la existencia de al menos un elemento que produce la pérdida de calor, relacionado con la segunda derivada de la diferencia de temperaturas entre el interior del invernadero y el ambiente externo. Tal elemento puede ser definido numéricamente con el planteamiento de una ecuación diferencial de la forma: Fig. 11. Respuestas simulada y real de la temperatura registrada por el sensor ante una entrada paso de 10W en la segunda etapa del experimento. Con y , ambos parámetros en unidades del sistema internacional, muestran una correspondencia con los datos reales, al simular la respuesta con una función de transferencia de la forma dada en la ecuación (17), como se observa en la figura 12: (18) Pero su naturaleza física, es decir, la existencia de un factor tangible que pueda explicar tal correspondencia con la respuesta paso del sistema de segundo orden, es algo que no es explícitamente tratado en los textos de teoría de control clásica. Los parámetros , , se obtuvieron como se indicó en la sección III, que contiene los procedimientos sustentados en la sección II. En el experimento se buscó la simplicidad frente a las alternativas de análisis numérico, que se presentan para simular la transferencia térmica del aire. Las ecuaciones utilizadas, simplifican el trabajo al momento de aplicar algoritmos computacionales para simulación, como es el propósito en próximos avances. VI. CONCLUSIONES Los procedimientos explicados en éste documento, son de fácil implementación y permiten deducir las propiedades térmicas. La primera etapa del experimento permitió determinar la capacitancia térmica (producto de la masa del aire por el calor específico del mismo) sin necesidad de utilizar valores en tablas. Es una alternativa simple, en vez de asumir valores de densidad y calor específico, encontrar el coeficiente numérico directamente de la respuesta del sistema. De cualquier forma, se puede relacionar con la masa y el calor específico : (19) Fig. 12. Comparación de la respuesta real ante una entrada paso en la segunda etapa del experimento con la respuesta simulada de un sistema con función de transferencia de segundo orden. Los parámetros y no corresponden a características físicas del sistema sino que se tratan de valores que ajustan la respuesta transitoria. Para fines de evaluar comportamiento del sistema, un modelo apropiado podría tomar la función de transferencia de 2 orden de la ecuación (17) ante cambios en la entrada mientras que el diagrama de bloques de la figura 7, Aunque el modelamiento de la transferencia térmica por convección, requiere incluir conceptos de dinámica de fluidos, para incluir la influencia del flujo en los gradientes de temperatura, en el espacio a considerar, las aproximaciones aquí trabajadas mantienen la simplicidad sin pérdida significativa de precisión. El resultado es un modelo sencillo que puede llevarse a forma discreta para construir un controlador digital. Los datos reales que delinearon las gráficas 11 y 12, pueden utilizarse para encontrar las ganancias proporcional, integral y derivativa de un controlador PID, mediante los métodos de
    • sintonización de Ziegler y Nichols. Tales métodos conducen a los siguientes resultados: (20) Si las variaciones de potencia y temperatura se consideran en 100%. REFERENCIAS [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] S. E. Vidal y M. E. C. Aguilera, Fundamentos de transmisión de calor (305). Ediciones Universitat Barcelona, 2005. Y. V. Rao, Heat Transfer. Universities Press, 2001. F. P. Incropera y D. P. De Witt, Fundamentals of heat and mass transfer, 2nd edition. John Wiley and Sons Inc.,New York, NY, 1985. A. Alpi y F. Tognoni, Cultivo en invernadero. Mundi-Prensa Libros, 1991. G. P. A. Bot, «Greenhouse climate from physical processes to a dynamic model», Bot, Wageningen, 1983. G. Papadakis, A. Frangoudakis, y S. Kyritsis, «Mixed, forced and free convection heat transfer at the greenhouse cover», Journal of Agricultural Engineering Research, vol. 51, n.o 0, pp. 191-205, ene. 1992. M. F. Modest, Radiative Heat Transfer. Academic Press, 2003. W. Chen y W. Liu, «Numerical and experimental analysis of convection heat transfer in passive solar heating room with greenhouse and heat storage», Solar Energy, vol. 76, n.o 5, pp. 623-633, 2004. B. al a, ar n, L a e a, ehling, eview on thermal energy storage with phase change: materials, heat transfer analysis and applications», Applied Thermal Engineering, vol. 23, n.o 3, pp. 251-283, feb. 2003. Xiang Mei-jing, Chen Zhi-gang, Zhou Qiang, y Yang Ben-quan, «The research of greenhouse temperature control based on fusion technology», Electric Information and Control Engineering (ICEICE), 2011 International Conference on, pp. 4656-4659, 15. A. Pawlowski, J. L. Guzman, F. Rodríguez, M. Berenguel, J. Sánchez, y S. Dormido, «Simulation of Greenhouse Climate Monitoring and Control with Wireless Sensor Network and Event-Based Control», Sensors, vol. 9, n.o 1, pp. 232-252, ene. 2009. D.-H. Park, B.-J. Kang, K.-R. Cho, C.-S. Shin, S.-E. Cho, J.-W. Park, y W.-M. Yang, «A Study on Greenhouse Automatic Control System Based on Wireless Sensor Network», Wireless Pers Commun, vol. 56, n.o 1, pp. 117-130, ene. 2011. W. Bolton, Ingeniería de control. ALFAOMEGA, 2001. K. Ogata, Ingeniería de control moderna. Pearson Educación, 2003. C. H. Edwards y D. E. Penney, Ecuaciones Diferenciales. Pearson Educación, 2001. A. M. Collieu, Propiedades mecánicas y térmicas de los materiales. Reverte, 1977. Procesos y tecnología de máquinas y motores térmicos. Ed. Univ. Politéc. Valencia, 2002.
    • Control Estadístico Aplicado a la Detección de Síntomas de Sucesos Operacionales en Producción de Crudo con Sistemas de Levantamiento Artificial BES Cesar Pereira Gutiérrez, M.Sc. Jorge Prada Mejia, M.Sc. Instituto Colombiano del Petróleo-ICP Ecopetrol S.A. Piedecuesta, Colombia E-mail: cesar.pereira@ecopetrol.com.co Instituto Colombiano del Petróleo-ICP Ecopetrol S.A. Piedecuesta, Colombia E-mail: jorgean.prada@ecopetrol.com.co Abstract—The growing need not only to understand, control and optimize oil production systems but also for detecting anomalies in a timely manner to mitigate losses, favored the need to do some research in order to provide support elements for the characterization of failure events. This research is aimed at evaluating different statistical control techniques - Univariate and Multivariate - in order to achieve efficient management of information in real time as well as identifying patterns associated with operational failures in artificial lift systems with electric submersible pumping systems (ESP) in oil production. Statistical control techniques analyzed were exponentially weighted moving average EWMA, CUSUM cumulative sums, Hotelling's T2, Frequency Analysis and combination of these. From this study it was determined that the phenomena of gasification and solid precipitation in artificial lift systems (ESP), generate specific behavior patterns in variables and multivariable system, which once identified can help generate strategies or methodologies to mitigate losses due to operational problems. Keywords—EWMA; CUSUM; T2 Frecuencial; Bombeo Electrosumergible. I. Hotelling; Análisis INTRODUCTION Contrario a lo que ocurría en épocas anteriores, la actual disminución de reservas e incremento en la producción de crudos pesados han llevado al sector UpStream a buscar alternativas orientadas a la optimización de activos. Dentro de este objetivo es necesario garantizar un eficiente monitoreo, control y optimización de la producción, así como la identificación oportuna de fallos o anomalías de la operación; es ahí donde las técnicas de control estadístico y su combinación pueden llegar a ser muy útiles. La presente investigación se centró principalmente en la combinación de las técnicas de control estadístico univariable EWMA y CUSUM con la técnica de control estadístico multivariable T2 Hotelling, así como el análisis frecuencial de las señales, con el propósito de generar mecanismos tanto, para identificar cambios en las variables de producción, como para detectar posibles patrones multivariables relacionados con problemas de exceso de gas y precipitación de sólidos al interior de la bomba, sucesos que generalmente afectan la operación de los sistemas de levantamiento artificial con bombeo electrosumergible BES [1]. Este es un sistema que transfiere potencia al fluido de yacimiento a través de una bomba centrifuga multietapas impulsada por un motor eléctrico e instalada a profundidad con la sarta de producción, lo más cercano posible a la zona productora, conectada a un sistema de control y un transformador a través de un cable eléctrico. II. METODOLOGÍA A. Recolección de Información y Definición del Sistema La recopilación de información para este estudio se realizó inicialmente en forma retrospectiva, analizando el comportamiento de todo el sistema involucrado en la producción de crudo con sistemas de levantamiento artificial BES. Apoyados tanto en el comportamiento y dinámica del sistema, como en el conocimiento experto de la operación, se definieron las variables y sucesos para la identificación de patrones con el uso de las técnicas de control estadístico. Seguidamente se inició una etapa prospectiva en la recolección de información con el fin de validar y actualizar el desempeño de las técnicas estadísticas y los patrones para la identificación de las anomalías operacionales. 1) Definición de Variables: Se analizaron todas variables que hacen parte del sistema de producción con levantamiento artificial BES, tanto las de fondo de pozo como las de superficie. Inicialmente se realizó un análisis de covarianza para determinar las variables relacionadas más influyentes del sistema. Estas variables fueron: presión de intake, presión de descarga, corriente del motor, temperatura de motor y temperatura de Intake. Posteriormente se realizó un análisis de distribución normal univariable y multivariable, requisito para la aplicación eficiente de las técnicas de control estadístico a evaluar. Para este estudio se tomaron como variables a analizar la presión de Intake, presión de descarga y corriente del motor. 2) Sucesos Amonalos en Sistemas BES: Para este estudio se seleccionaron dos de los problemas más frecuentes y perjudiciales en la operación de sistemas de levantamiento
    •       Ci  max 0, xi  (0  K )  Ci 1  artificial BES, gasificación y precipitación de solidos al interior de la bomba. Ci  max 0, ( 0  K )  xi  Ci 1  B. Técnicas de Control Estadistico A continuación se conceptualizan cada una de las técnicas de control estadístico con el enfoque que fueron utilizadas en el presente trabajo. 1) EWMA: Esta técnica de medias móviles ponderadas exponencialmente (exponentially weighted moving average) acumula en cada periodo los valores de observaciones pasadas. La variable que se representa en cada periodo es un promedio de la observación presente y las observaciones anteriores, donde se da más peso a las observaciones más recientes. 2) Los gráficos EWMA utilizan una forma muy concreta de hacer media móvil que consiste en dar un peso a las informaciones históricas que decae exponencialmente con el tiempo [3]. Esta media móvil la denotaremos por yi y se define como: yi  xi  (1   ) yi 1  Los límites de control para el EWMA están dados por:   LSC   0 L  2    n   Donde, Ci es la suma acumulada de los errores positivos para la muestra i ; Ci es la suma acumulada de los errores negativos para la muestra i; K=k*σ, donde k es una constante y σ es la desviación estándar poblacional. Los autores recomiendan usar k=0.5, por lo cual K sería la mitad de la desviación estándar. Para determinar si el proceso se encuentra fuera de control se determinan unos límites H y –H determinados por: H=h*σ; donde h es una constante, los autores recomiendan h=5. Los valores de k y h fueron optimizados como sintonía de la técnica para afinar la detección de los casos de observación analizados [2]. En la adaptación de esta técnica a nuestro estudio, se logró identificar que la suma de las áreas positivas (desviaciones hacia arriba) entre las curvas Ci y H y las áreas negativas (desviaciones hacia abajo) entre C i y -H, pueden determinar la variación en la tendencia de una variable tanto en corto como mediano plazo, de acuerdo a los tamaños de muestra definidos para cada ventana de tiempo. Esto acumulación se define como: Area _ Total   Area (Ci y H )  Area (Ci y  H)   Donde, L: número de veces a multiplicar la desviación, valor recomendado 3. σ: es la deviación estándar poblacional. n: número de muestras. λ: Es un valor entre 0 – 1; se recomienda 0,2 para análisis rápido y 0,4 para análisis lento. Los valores de L y λ fueron optimizados como sintonía de la técnica para afinar la detección de los casos de observación analizados.  3) CUSUM: Este método de suma acumulativa es una técnica estadística de análisis secuencial de datos, basada en la representación de la acumulación de las desviaciones de cada observación respecto a un valor de referencia. Dentro de las principales ventajas de esta técnica de control estadístico están, su fortaleza para detectar cambios transitorios en las tendencias, la continuidad del análisis en el tiempo y la posibilidad de realizar una evaluación rápida de los datos e identificación rápida de tendencias. Para construir el gráfico es preciso fijar los parámetros de suma acumulativa para errores o desviaciones positivas y negativas para cada muestra: 4) T2 de Hotelling: El gráfico de control estadístico T2 de Hotelling es una extensión al caso multivariante del gráfico de control de Shewart univariante. Utiliza un estadístico que combina la información para la dispersión y la media de las variables que se están analizando [4]. La construcción de la gráfica de Hotelling se basa en el cálculo de la cantidad T2, que en su versión poblacional se puede definir como: siendo X i un vector aleatorio de una población normal p-variada, con vector de medias  y matriz de covarianzas Σ > 0, la variable aleatoria T2 de Hotelling, se expresa como: T2 = n(X- μ)' Σ-1 (X- μ)   Cuando μ y Σ son conocidos, se puede demostrar (Johnson et al., 1998) que T2 se distribuye como una X 2 cuadrada con p grados de libertad. Cuando, como generalmente ocurre, μ y Σ son los parámetros desconocidas de una población normal pvariada con media μ y matriz de covarianzas Σ, estos son estimados por y S respectivamente. La variable aleatoria T2 de Hotelling muestral, se expresa como: T2 = n(X )' S-1 (X- ) 
    • programadas y validadas con la herramienta de cómputo matricial Matlab. En este caso se tiene que:  p(n  1)(n  1)  T2   F( p ,n  p )  n( n  p )   Siendo, F (p,n−p) distribución F con p y (n − p) grados de libertad. Esta función de probabilidad está en función de probabilidad alpha con la que queramos trabajar el sistema multvariable. El límite de control se puede estimar con la siguiente expresión: UCL = d(n, p) F (p,n−p).  A lo largo de este estudio cuando mencionemos T2 nos referiremos al estadístico en donde los estadísticos y S son el vector medio y matriz de covarianzas, respectivamente, de la distribución de referencia. La gráfica T2 controla cambios en el vector de medias suponiendo que la matriz de covarianzas del proceso es igual a la matriz de covarianzas de la distribución de referencia. 5) ANALISIS FRECUENCIAL: El analisis frecuancial en este trabajo se orientó hacia la determinación de comportamientos repetitivos y periodicos en los sucesos de estudio. Para determinar alguna posible frecuencia de oscilación se hace uso de la Transformada Rápida de Fourier, que descompone la señal en sus espectros de frecuencia y se puede analizar la influencia que tiene cada una de las componentes sobre la potencia total de la señal en un periodo analizado [6]. Para este fin se debe tomar una ventana de tiempo en donde se garantice que se tiene por lo menos un ciclo completo del patrón repetitivo para cumplir con el teorema de Nyquist, por lo que la ventana deberá ser lo suficientemente amplia para los eventos más lentos. Esta ventana deberá ser preferiblemente un número de muestras potencia de dos, para que la transformada arroje mejores resultados. Antes del realizar la transformada de fourier sobre los datos seleccionados, se inicia haciendo una evaluación del peso de la potencia que tienen los componentes oscilantes de la señal en relación a su media de operación, con el fin de determinar qué tan influyentes son los cambios respecto a la media. Para esto se normalizan los datos y se calcula el valor de la potencia “rms” de los datos normalizados y de la media asumida como valor promedio de operación (outset). El valor en porcentaje de la relación de los dos, deberá ser superior a un límite en función de un sintoma operacional con incidencia en el proceso, para asumir que existe un comportamiento ciclico oscilatorio. III. RESULTADOS Y DISCUSIÓN Para este estudio se evaluaron datos de alrededor de 20 pozos que presentaban gasificación y precipitación de sólidos, información tomada para periodos aproximados de 10 meses por pozo y con un tiempo de escaneo de datos de 2 minutos, analizando intervalos de tiempo operacional estables e inestables. Las técnicas de control estadístico evaluadas fueron Inicialmente se verificó la distribución normal univariable y multivariable del sistema como requisito para la aplicación eficiente de las técnicas [7]. Además se realizó la normalización de las variables de interés, llevando todas las variables a una escala de 0 a 1; esto con el fin de poder evaluar de manera estándar el aporte de cada variable al análisis multivariable T2. Para evaluar la potencialidad de la combinación de las técnicas EWMA, CUSUM y T2, se asumió como entrada a las cartas de control de CUSUM y EWMA el valor del estadístico de T2 Hotelling, tomando esta como una relación multivariable en función del nivel de covarianza de las tres variables de interés del sistema de levantamiento artificial BES, Corriente del variador, Presión de entrada y Presión de descarga de la bomba. A continuación se muestran los resultados más relevantes del presente estudio. A. Identificación de Patrones de Sucesos Anormales Mediante la combinación de las técnicas de control estadístico se determinaron patrones para los sucesos de gasificación y precipitación de sólidos al interior de la bomba. 1) Gasificación, CUSUM-T2: con esta combinación se Valores T2hotelling 50 lograron resultados de detección de síntomas de gasificación de40 manera rápida, evidenciándose alta sensibilidad a cambios pequeños en la tendencia de cambio de T2, así como un 30 comportamiento cíclico oscilatorio casi uniforme con 20 desviaciones secuenciales en las tendencias ascendentes y 10 descendentes, comportamiento patrón cuando se presenta 0 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 gasificación, como se puede observar en7.3497 figura 1. la x 10 5 100 Oscilación 1 Rápida Oscilación 2 Rápida CMAS CMENOS HMAS HMENOS Oscilación 3 Rápida 50 0 -50 -100 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 5 x 10 Fig. 1. Resultados Análisis CUSUM- T2 Hotelling EWMA T2HOTELLING 60 2) Precipitación de Solidos, EWMA-T2: por la naturaleza estadística el EWMA se configuró para evaluar cambios lentos 40 y rápidos de T2, evidenciándose la detección de un patrón 20 oscilatorio lento y no uniforme, comportamiento propio de la precipitación de solidos al interior de la bomba, como se 0 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 puede observar 7.3484 la figura 2 7.3484 en 5 x 10 2.5 Oscilación 1 Lenta T2hotelling H Media T2 L Oscilación 2 Lenta 2 1.5 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 5 x 10 1 Fig. 2. Resultados del Análisis EWMA - T2 Hotelling. 0.5 Deteccion1CTE 0 -0.5 -1 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 7.3484 5 x 10
    • La comparación de los valores positivos en las tres variables, determinaron las frecuencias de oscilación comunes entre ellas, que indican que el sistema presentó un comportamiento oscilante en una frecuencia de tiempo de 7.06 horas como se puede observar en la figura 5. 16 Tiempo de oscilación [Horas] Aunque en los casos analizados de gasificación y presencia de sólidos al interior de la bomba se tiene un comportamiento oscilante, el T2 de Hotelling al ser un estadístico multivariable permite establecer patrones específicos en función de sus componentes principales (variables del proceso) como, oscilaciones cíclicas de mayor o menor uniformidad, o dinámicas rápidas o lentas del sistema, características que se potencializaron con el uso de las técnicas CUSUM y EWMA. Además T2 Hotelling acompañado de la normalización de las variables (llevar a una misma escala), permitió también diferenciar comportamientos al magnificar pequeños cambios en las variables de menor magnitud real. 3) ANÁLISIS FRECUENCIAL: al realizar el analisis del sistema de variables utilizando la transformada rápida de Fourier, se evidenció su utilidad para la identificación de patrones oscilatorios y cíclicos del sistema, que pueden llegar a relacionarse con el suceso de gasificación. En la figura 3 se logra observar el comportamiento cíclico de las variables para 50 el mismo pozo analizado anteriormente para la combinación FREC CUSUM – T2 Hotelling. 0 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3498 7.3498 5 280 260 240 220 7.3497 x 10 CTE 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3498 7.3498 5 14 X: 5468 Y: 10.09 12 10 X: 4804 Y: 7.066 8 6 4 2 0 0 1000 2000 3000 4000 5000 6000 Fig. 5. Frecuencias de Oscilación Comunes del Sistema. DETECCION DE SUCESOS Bloqueo G B. Identificación de Desviaciones del Sitema Gas Igualmente se identificó gran potencial en el uso de estas técnicas de control y su combinación para la identificación en tiempo real de desviaciones del sistema, originadas estas, tanto Sol Int por anomalías físicas como por variaciones en el comportamiento del yacimiento. Sol Bomba x 10 PI 1) Desviaciones por anomalias Fisicas: este tipo de analisis hace referencia a la identificacion de inestabilidad del SobreCarga 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3498 7.3498 sistema ocasionado por fallas o perdida de eficiencia del x 10 PD sistema fisico de levantamiento artificial BES, motor, bomba, 3600 BajaCarga instrumentacion, asi como de problemas de comunicación de 3400 las señales de monitoreo. 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3498 7.3498 400 Cambio Comp Para este caso se evidenció un gran potencial del grafico de x 10 Fig. 3. Variables con Tendencia Oscilante Caso Gasificación TEMP control T2 independiente, tomando como límite o referencia de 200 estabilidad la constante UCL, llamada también distancia Para este caso se realizó la transformada de Fourier para Eje Roto 0 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3497 7.3498 7.3498 7.3497 7.3497 7.3497 7.3497 eucliliana [5]. En la tabla7.3497se 7.3497 7.3497 los valores de UCL 1 muestran 7.3498 7.3498 cada 1una de la variables y se obtuvieron las cuatro frecuencias x 10 x 10 VIBX utilizados (Ec. 10), para diferentes valores de probabilidad. de mayor potencia enunciadas de mayor a menor como FREC1 0.5 hasta FREC4. En la figura 4 se observa que para el caso en 0 estudio los7.3497 7.3497de 7.3497 en la escala de frecuencia indican valores cero 7.3497 7.3497 7.3497 7.3498 7.3498 7.3497 TABLE I. LIMITE UCL PARA DIFERENTES VALORES DE PROBABILIDAD que algunas de las condiciones en relación a losx 10 límites establecidos para un comportamiento oscilatorio no se Alpha F (p,n−p) UCL cumplieron, mientras los valores positivos indican un 0.05 2.21 15.58 comportamiento cíclico y oscilatorio en cada variable para 0.005 3.35 23.62 estos valores de frecuencia. 0.001 4.1 28.9 800 600 5 5 5 5 5 Corriente PIP 50 PD 50 50 40 40 Los resultados de este análisis se presentan conjuntamente con el siguiente ítem para evidenciar mejor sus propiedades. Tiempo de oscilación [Horas] FREC1 FREC2 40 FREC3 FREC4 30 30 30 Y: 23.55 20 20 Y: 7.066 10 0 0 1000 2000 3000 4000 5000 20 Y: 7.066 10 0 Y: 23.55 0 1000 2000 3000 4000 5000 6000 Y: 7.066 10 0 0 1000 2000 3000 4000 5000 6000 Fig. 4. Frecuencias de Oscilación de Mayor Potencia para las Tres Variables. 2) Desviaciones por Anomalias de Yaciemiento: en este caso se analizó al detalle el comportamiento del sistema de variables de proceso relacionadas con el fluido de yacimiento, desviaciones generadas en la mayor parte por sucesos de gasificacion y precipitacion de solidos. Para este propósito se usó nuevamente la combinación de las técnicas EWMA, CUSUM y T2, asumiendo como variable de entrada el estadístico de T2 Hotelling.
    • En la combinación CUSUM - T2, se calculó la sumatoria de áreas acumuladas, positivas y negativas (ecuación 6), que nos permite tener una idea general de si el sistema puede estar ganando o perdiendo energía, la cual puede estar directamente relaciona con la capacidad de producción del pozo. En la figura 6 se muestran las gráficas de tendencia de las variables del sistema de uno de los casos estudiados, y en la figura 7 los tres tipos de gráficos de control mencionados anteriormente. energía, y que no se estaría aprovechando al máximo el sistema de levantamiento artificial. En las figuras 8 y 9 igualmente se muestran las gráficas de tendencia de las variables del sistema y los tipos de gráficos de control, con el fin de analizar un escenario diferente. VARIABLES 100 49 48 47 46 45 FREC 80 60 6000 6500 7000 7500 8000 8500 9000 9500 10000 40 300 VARIABLES FREC 1 1.5 2 80 2.5 6000 6500 200 1.5 2 0 3000 2.5 8500 9000 x 10 PI X: 65006926 Y: 302.5 0.5 7500 8000 8500 1.5 9000 2 0.5 1 1.5 2 2.5 9500 PD x 10 PD 2000 4 x 10 T2 de Hotelling EWMA 6500 7000 7500 8000 8500 9000 9500 10000 TEMP 40 4 10000 40 2.5 80 4000 80 60 7000 1 6000 0.5 1 1.5 2 0 150 6500 7000 0.5 1 7500 8000 8500 1.5 9000 2 0.5 1 1.5 2 10000 VIBX x 10 AREA CUSUM A+ A- 4 16 04 2.5 2 9500 2.5 4 x 10 TEMP 2 6500 7000 8000 8500 9000 Fig. 8. Graficos 7500Control Multivariable Pozo 9500 de 2. 6000 10000 4 x 10 VIBX 0 1 -2 0.5 1 1.5 2 2.5 0.5 1 1.5 2 2.5 4 4 x 10 x 10 VARIABLES 49 48 47 46 45 ESTADISTICOS Fig. 6. Tendencias Variables de Operación Pozo 1. 100 FREC T2 de Hotelling UCL 80 60 6000 6500 7000 7500 8000 8500 9000 9500 10000 40 CTE 300 20 100 C ESTADISTICOS 200 6000 6500 7000 7500 8000 X: 6846 Y: 330.2 80 350 8500 X: 8596 Y: 337.4 4 40 20 0 4 10 I X: 65006926 Y: 302.5 6000 7500 8000 8500 9000 9500 9000 9500 10000 T2 de Hotelling EWMA 40 20 1.5 2 2.5 6500 7000 7500 8000 8500 150 x 9000 de Hotelling 9500 10 10000 T2 EWMA TEMP 0 6000 6500 7000 7500 8000 8500 9000 9500 10000 7500 8000 8500 9000 9500 10000 AREA CUSUM A+ A- 6 4 2 6000 6500 7000 7500 8000 8500 9000 9500 10000 VIBX 0 4 10 P 8500 10000 4 100 8000 60 7000 1 6000 40 7500 PD 2800 0.5 20 4 7000 80 60 10 D 6500 PI 300 6000 0 100 3000 100 80 10000 X: 8665 Y: 295.3 60 10 E 9000 9500 T2 de Hotelling UCL 1 0.5 0 6 1 1.5 2 2 0 -2 2.5 4 6000 6500 7000 7500 8000 8500 4 x 10 AREA CUSUM 9000 9500 A+ A- 10000 2 6000 6500 7000 Fig. 9. Graficos de Control Multivariable Pozo 2. 4 10 X 0 -2 0.5 1 1.5 2 2.5 4 4 10 x 10 Fig. 7. Graficos de Control Multivariable Pozo 1. Si observamos las dos primeras graficas de la figura 7, T2UCL y T2-EWMA, en ambas se presenta una violación de los límites operacionales, lo que indica que el sistema se encuentra en un estado de inestabilidad. Si comparamos estas dos graficas vemos que para T2-EWMA se presenta este escenario en todo el intervalo de tiempo analizado, mientras que para la gráfica T2-UCL la violación del límite de operación se hace intermitente. De acuerdo a los criterios generados en este estudio, se puede deducir que esta inestabilidad se debe a cambios en las condiciones del fluido y/o yacimiento. Para este caso se pudo comprobar por anallis de laboratorio, presencia de sólidos en el fluido. En la gráfica inferior de la figura 7, T2-CUSUM o suma acumulativa, se evidencia un aumento oscilante de la sumatoria de áreas positivas, lo que indica que el sistema está ganando 0 4 6000 2 2.5 20 6 20 100 0 100 PI 2800 60 150 T2 de Hotelling UCL 9500 10000 X: 8596 Y: 337.4 100 4 450 400 350 300 8000 X: 8665 Y: 295.3 300 20 6000 1 7500 40 4 0.5 7000 X: 6846 Y: 330.2 350 x 10 CTE 300 0 20 200 60 0.5 100 ESTADISTICOS 100 49 48 47 46 45 0 CTE Para este caso, como se evidencia en las gráficas T2-UCL y T2-EWMA de la figura 9, el estadístico T2 supera los límites de operación casi en el mismo intervalo de tiempo en los dos casos, intervalo en el que se presentó inestabilidad operacional en el sistema. Si observamos la magnitud de la desviación en los dos gráficos, se puede evidenciar que para el primer caso T2-UCL, estas son considerablemente mayores. Se puede deducir que esta inestabilidad puede ser el resultado de una perdida de eficiencia del sistema físico de levantamiento artificial, conforme a los hallazgos encontrados para los escenarios evaluados en este estudio. Igualmente en la gráfica T2-CUSUM de la figura 9, se observa una disminución oscilante de la sumatoria de áreas negativas, lo cual puede indicar baja energía del sistema en la mayor parte del intervalo de tiempo analizado. A partir de esto se puede asumir, contrario al caso anterior, que el pozo o el yacimiento puede llegar a tener un mayor potencial si se mejora la eficiencia del sistema físico de levantamiento. 2 0 -2
    • IV. REFERENCIAS CONCLUSIONES En el presente estudio se identificó que la combinación de las técnicas de control estadístico EWMA, CUSUM y T2 de Hotelling, junto a el análisis frecuencial de señales, es una buena herramienta para la evaluación de cambios en variables de producción de crudo, así como para la identificación de patrones multivariables relacionados con anomalías, restricciones e inestabilidad de la operación. Se determinó que los fenómenos de gasificación y precipitación de sólidos en sistemas de levantamiento artificial BES generan patrones de comportamiento específico en las variables y en el sistema multivariable, que una vez identificados podrán ayudar a generar estrategias o metodologías para mitigar perdidas por problemas operacionales. El presente trabajo podrá servir como base para realizar estudios y desarrollos que conlleven al manejo eficiente de la información en tiempo real, y contribuir al control y optimización operacional y de la producción de crudo. [1] [2] [3] [4] [5] [6] [7] [8] [9] G. Takacs, “Electrical Submesible Pumps Manual”, Gulf Professional Publishing, Oxford OX2 8DP, UK, 2009 A. Lowry, H. Woodall, 1992. A Multivariate Exponentially Weighted Moving Average Control Chart. Technometrics, 34(1), pp. 46-53. H. Gutierrez, R. De La Vara, “Control Estadistico de la Calidad” Ed. McGrawhill, Mexico DF, 2009 L. Mason, D. Tracy, C. Young, C. J. 1997. A Practical Approach for Interpreting Multivariate T2 Control Chart Signals. Journal of Quality Technology, 29(4), pp. 396-406. G. Nedumaran, J. Pignatiello Jr. 1998. Diagnosing Signals from T2 and X2 Multivariate Control Charts. Quality Engineering, 10(4), pp. 657. L. Garcia, “Control Digital Teroria y Practica” Politécnico Colombiano Jaime Isaza, Medellin, 2009 D. Hawkins, “Multivariate Quality Control Based on RegressionAdjusted Variables”. Technometrics, 1991 33(1), pp. 61-75. A. Lowry , D. Montgomery, “A Review of Multivariate Control Charts”. IIE Transactions, 27(6), pp. 800-810. S. Sheu, T. Lin.. “The Generally Weigthed Moving Average Control Chart for Detecting Small Shifts in the Process Mean”. Quality Engineering, 2003-200416(2), pp. 209-231.
    • A comparative study of geometric path planning methods for a mobile robot: Potential field and Voronoi diagrams Un estudio comparativo de métodos geométricos de planeamiento de rutas para robots: Campo de potencial y diagramas de Voronoi Edwar Jacinto Gómez ejacintog@udistrital.edu.co Fernando Martínez Santa fmartinezs@udistrital.edu.co Faculty of Technology Distrital University Francisco José de Caldas Cra. 7 No 40-53 Bogot´ D.C. - Colombia a Abstract—In this paper, two real-time pathplanning algorithms that provide an optimal path for autonomous robots with static obstacles avoidance are studied and compared. The proposed planning algorithms compute a path based on geometric strategies and visual identification of the environment. Is well known that traditional geometric strategies have convergence problems, local minima and definition of non-optimal paths. We propose strategies that modify the original algorithms, resulting in new strategies free of convergence problems and with optimal paths. The first algorithm corresponds to the artificial potential field method modified by using dummy loads. We propose a radar strategy, with this concept we simulated dummy loads. These dummy loads are similar to the robot load, at specific points of the environment. These points are determined iteratively by the robot’s position and the target position, and are responsible for describing the navigation path. The second proposed algorithm corresponds to the Voronoi diagrams, but including Delaunay triangulation to avoid routes that could block the robot. This strategy performs a mesh that determines the Voronoi diagram of the environment, and Delaunay triangulation is applied to determine the midpoints, and the best options of mobile navigation. Some experiments with differential drive robots and several simulations are conducted to show the effectiveness and performance of both strategies. En éste artículo, se estudian y comparan dos algoritmos para el planeamiento de rutas en tiempo real que suministran un camino óptimo para robots autónomos con obstáculos estáticos. Los algoritmos propuestos calculan una ruta de acuerdo a estrategias geométricas Fredy Hernán Martínez Sarmiento fhmartinezs@udistrital.edu.co e identificación visual del ambiente. Es bien conocido que que las estrategias geométricas tradicionales tienen problemas de convergencia, mínimos locales y rutas no óptimas. Se proponen estrategias que modifican los algoritmos originales, obteniéndose nuevas estrategias libres de problemas de convergencia y con rutas óptimas. El primer algoritmo corresponde al método del campo de potencial artificial modificado mediante el uso de cargas falsas. Se propone una estrategia de radar, con ésta idea se simulan cargas falsas. Éstas cargas falsas son similares a la carga del robot, en puntos específicos del ambiente. Los puntos se determinan iterativamente por la posición del robot y la posición de destino, y son responsables de describir la ruta de navegación. El segundo algoritmo propuesto corresponde a los diagramas de Voronoi, pero incluyendo la triangulación de Delaunay para evitar rutas que puedan bloquear al robot. Ésta estrategia realiza una malla que determina el diagrama de Voronoi del ambiente, y aplica la triangulación de Delaunay para determinar los puntos medios, y la mejor opción de navegación. Se realizaron algunos experimentos con robots diferenciales y muchas simulaciones para demostrar la efectividad y desempeño de ambas estrategias. Index Terms—Dummy load, global planning, mobile robot, path planning, potential field method, Voronoi diagram. I. Introduction ATH planning is one of the most important topics in robotics. Nowadays, mobile robots work under dynamic environments like manufacturing industries with machinery parts as moving objects and are using many techniques for navigation, obstacle avoidance, and localiza- P
    • tion. The problem basically consists in that an agent, nonpoint object, moves from one point to another, avoiding obstacles by some margin [1]. Two key elements in the solution of this problem is the size of the robot and the speed with which the paths are determined, this latter parameter is often used to evaluate the performance of a given algorithm. Among the techniques used to investigate this problem are: visibility graphs [2], [3], free-space decompositions [4], [5], local path finding [6], [7], [8] and triangulations [9], [10], [11]. In the case of static and known environments, where the robot does not sense or process directly the environment calculating the route, but this task is performed by a central control, the strategies based on computational geometry are a powerful tool for generation and selection of a optimal path (safe path defined quickly). The Artificial Potential Fields [12], [13], [14] and the Voronoi Diagrams [15], [16], [17] are two of the most popular geometric strategies. In the case of Artificial Potential Fields, a potential field is designed that combines attraction to the target, and repulsion from obstacles, which guides the robot navigation. In the case of the Voronoi diagrams, the environments are divided into a number of regions (Voronoi cells, Fig. 1), which are defined in relation to obstacles analyzed as points. The goal is to find the route away from the obstacles. Fig. 1. Voronoi diagram, cell division stage. In the traditional scheme of artificial potential fields construction [18], the robot is a particle over which the obstacles apply a repulsive force, and the arrival point or target, applies an attraction force. The sum of forces at each point of the free space in the environment causes the potential field. This potential field guides the movement of the robot (Fig. 2). At points on which this sum is zero, the potential field does not provide navigation information. This is known as the local minima problem. We propose a modification of this path planning method that guarantees the elimination of local minima problem, while maintaining the simplicity of the original method. Our proposal focuses on avoiding the obstacle which causes the local minimum, adding dummy loads in the free space, which modify the field distribution in areas where local minima are generated. This modified method is one of the studied strategies in this paper. The second strategy studied corresponds to one of the Target Sum of forces Obstacle Robot Repulsion force Attraction force Fig. 2. Artificial potential field force at a point pi in the free space in the environment. most significant route planning structures in computational geometry: the Voronoi diagrams. These diagrams basically start from the comparison between elements near in a plane [19]. In this method is essential to consider the route as far as possible of the obstacles. So in a 2dimensional space, all points that are equidistant from two barriers are considered part of the Voronoi diagram. The Voronoi diagram is denoted as a set of points P = p1 , p2 , p3 , ..., pn in the plane, or in any m-dimensional space. In this set is done a particular classification, which consists in verify the Euclidean distance of each point regarding to the others points, calculating the distance d(p, q). V (pi ) is defined as the Voronoi cell for pi , which becomes the set of q points in the plane which are closer to pi than any other element. Therefore, the Voronoi cell of pi is defined as: V (pi ) = q pi q < pj q ∀i =j (1) This defines the Euclidean distance between p and q. The Voronoi diagram of P (Vor (P )) is defined as the plane which has been divided into n Voronoi cells V (pi ), one for each point in P [19]. In both modifications we take some ideas from research in behavior-based control systems for autonomous robots [20], [21], [22], [23]. In this control scheme, the designer works the robots as a system, where each node corresponds to a robot, and to solve the task, each node has a different behavior. This structure is called a hybrid automaton, and allows use in the design the capacity for abstraction of hybrid systems [24], [25], [26], [27]. The paper is organized as follows. Section II presents preliminary concepts and problem formulation. Section III shows the sensor-based planning algorithms, definitions, formulations and structures. Section IV we present the simulation results. And finally, in Section V, we present our conclusions.
    • II. Problem Formulation Camera Consider the problem of optimal path planning in a 2dimensional Euclidean space. Let W ⊂ R2 be the closure of a contractible open set in the plane that has a connected open interior with obstacles that represent inaccessible regions. Let O be a set of obstacles, in which each O ⊂ O is closed with a connected piecewise-analytic boundary that is finite in length. Furthermore, the obstacles in O are pairwise-disjoint and countably finite in number. Let E ⊂ W be the free space in the environment, which is the open subset of W with the obstacles removed, and the boundary, ∂E, of E is the image of a piecewise-analytic closed curve. The robot is considered to be a moving polygon in R2 , whose size is defined by the radius r of the circle that circumscribes it (Fig. 3), and whose special feature is that r is dimensionally small relative to the size of the environment and the obstacles on it. Furthermore, it assumed that the collision-free subset of the robot’s configuration space C is connected. C-space obstacle corresponds to that of a translating disc, that is, the extended boundary of E which is due to the robot radius r (radius of the circle which circumscribes to the robot). Obstacle Fig. 4. Robot Camera as environment sensor. where S denote an observation space, constructed from sensor readings over time, i.e., through an observation history of the form: o : [0, t] −→ S ˜ (3) The interpretation of this information space, i.e., I × S −→ I, allows the central control to make decisions (information feedback) [28], that is to calculate the navigation path for the robot. The problem is to find a plan that navigates the robot along the shortest path from some initial position p0 (x0 , y0 ), to the target position pt (xt , yt ), while avoiding obstacles. III. Navigation algorithms A. Artificial potential field method enhanced with dummy loads In the calculated navigation path based on the traditional artificial potential field method, there are points for which the sum of forces is close to zero (local minimum, Fig. 5). The navigation path is modified on these points according to our proposed dummy loads. Fig. 3. Robot circumscribed in a circle of radius r. We chose to discard the use of on-board sensors (on the robot). Instead, we consider the use of images taken with a camera to the environment (Fig. 4). From these images, we extract the information of the robots and obstacles. Then, we use this information to implement our routing prediction algorithm. Therefore, for the central control unit, the unit responsible for calculate the navigation path and to control the movement of the robot, it is always possible sense and know the environment. This means that we always know the position of the robot and the obstacles in the environment. The system has a single sensor, a camera capable of observing the entire environment, and clearly identifies the obstacles O, the free space E and its boundary ∂E, and the robot. These observations allow a central control to build an information space I. An information mapping is of the form: q : E −→ S Path to target Robot p0 (2) Target Obstacle pt Local minimum Fig. 5. Local minimum. In the left frame the robot is in the upper left (p0 ), and the target position in the lower right (pt ). The obstacle is in the middle. The right frame shows a local minimum in the path calculated by the traditional artificial potential field method. The new path must be calculated to avoid the obstacle that generates the local minimum. Our strategy proposes to simulate two radars centered, one in the initial position of the robot and another in the target position. The range of these radars simultaneously and iteratively grows (Fig. 6) until they intersect at a point p1 in the free space E (Fig. 7). This point (p1 ) then becomes as an obliged transit point for the robot in the new path, i.e., a new dummy load attraction similar to the target point. This new dummy
    • load attracts the robot and stops working when the robot reaches it. When the robot is at p1 , this position becomes the new starting point, and from there it is again attracted to the target position. Robot p0 r Target pt Extended boundary Growth of radar range Fig. 6. Strategy proposes. In the left frame the control system calculates the extended boundary of the obstacle. The right frame shows the simultaneous growth of the radars range. New attraction point p0 Robot p0 p1 New path p1 2) Obstacles represented as polygons: The definition of the retraction function RT involves construction of the Voronoi diagram. In order to make more realistic the obstacles representation, and according to the formulation of our problem, we interpret the obstacles not as points but as polygons. Thus, the Voronoi diagram is formed by two kinds of segments: rectilinear and parabolic. Fig. 8 shows the Voronoi diagram Cv , and is represented by the demarcated lines. The environment W is delimited by polygon edges {e1 , e2 , e3 , e4 }, the triangular obstacle vertices {n1 , n2 , n3 } and the triangular obstacle edges {a1 , a2 , a3 }. In the figure we can see two kinds of lines that compose the Voronoi diagram. The segment s1 is the locus of equidistant points between the edge e1 , and the vertex n2 . Similarly, the rectilinear segment s2 is defined in the same way but with regard to the edges e1 and e2 . Given a configuration that does not belong to Cv , there is a unique nearest point p belonging to a vertex or edge of an obstacle O. The function RT(q) is defined as the first cut with Cv of the line linking p with q [29] (Fig. 9). Target pt Obstacle Polygon environment limiter e3 pt Fig. 7. Strategy proposes. In the left frame, the two equal diameter radars intersect at point p1 . The right frame shows the new path calculated with the new attraction point p1 . a3 n1 e2 n3 a1 B. Voronoi diagrams method enhanced with the Delaunay triangulation Voronoi diagrams as paths prediction method have a lower risk of collision for robot navigation within an environment, since they have a projection of free space E on a one-dimensional curves network. Formally, is defined as a retraction [19] with preservation of continuity. If the set Cl defines the unobstructed positions of an environment, the retraction function RT builds a continuous subset Cv of Cl . Thus, it is said that there is a path from a starting point qa to another end point qf , which is free of obstacles, if and only if there is a continuous curve from RT (qa ) to RT (qf ). 1) Obstacles represented as points: Considering the obstacles of a map as points, we can define the following properties [19]: • Two points pi and pj are neighbors if they share an edge. An edge is the perpendicular bisector of the segment pi pj . • A vertex is a point equidistant from three generators (if it has more than three, then we have degenerate cases) and it is the intersection of three edges. • A Voronoi region is a convex polygon or an unbounded region. • A Voronoi region is unbounded if its generating point belongs to the convex hull of the point cloud. a2 s2 e1 Fig. 8. CV e4 n2 s1 Retraction of free space E on Voronoi diagram [29]. Voronoi diagram Obstacle Fig. 9. p RT(q) q A configuration q in the Voronoi diagram [29]. For path planning, the Voronoi algorithm tries to find the sequence of line segments for connecting RT (qa ) with RT (qf ). The algorithm [29]: • • Calculate the Voronoi diagram. Calculate RT (qa ) and RT (qf ).
    • Find the sequence of segments {s1 , ...,sp } such that RT (q) belongs to s1 and RT (qf ) belongs to sp . • If it finds such sequence, then it delivers the path. Otherwise indicates error condition. Finally, we determine the optimal paths for navigation. We apply the Delaunay triangulation to verify that the robot to navigate at a distance r from obstacles. This distance r is calculated as the radius of a circle that circumscribes the robot. For the selection of the final path, we apply a recursive method that compares the different routes using the Euclidean distance. • Fig. 10. Steps in the proposed Voronoi algorithm. to evaluate particularly complex configurations. In each test, we randomly chose the starting point p0 and the target point pt . The robot is circumscribed in a circle of radius r = 10.5 cm, according to the actual size of our laboratory robots. The environment used is in rectangular shape with a size of 7 m × 5.5 m. Fig. 11 shows four of these tests. Fig. 11. Simulation of the navigation strategy proposed (artificial potential field) in four different environments. The starting points of the robot p0 are always in the left side of the environment, and the target points pt on the right side. The environments (a), (b) and (c) were constructed with geometric obstacles placed randomly. The environment (d) was artificially constructed shaped maze. IV. Prototype and simulations We perform the initial evaluation of the navigation strategies by simulation. However, the configuration of our simulator fully respects the criteria of our current laboratory tests. the simulations consider not only the functionality of the algorithm, we also have taken great care of the physical characteristics of the robot, i.e. size (0.20 m x 0.22 m), weight (0.530 kg) and speed (0.2 m/s). For our experiments, we use the Oomlout Company’s open-source design SERB Robot. This is a differential robot constructed of acrylic, and equipped with two continuous rotation servomotors. The simulations were performed in MatLab. MatLab captures the image from a camera installed over the test environment. The frames captured from the camera are processed and analyzed with edge detection filters to obtain a set of monochrome images, where the free space E is shown in white and the obstacles and the boundary ∂E of E in black. The software is also able to identify the robot. Using this identification, the software determines the initial position of navigation. The target position is given by the user through the interface. A. Artificial potential field method enhanced with dummy loads We ran a total of 50 tests in 25 different environments, 20 of these environments correspond to actual test environments in our laboratory, and five were artificially generated The settings of the obstacles in the environment (completely random) included up to a total of 10 different polygons simultaneously in the same environment. It also allowed the overlapping obstacles to generate even more complex shapes. The location of the start (p0 ) and target (pt ) points, although it was random, we prefer to adjust it to the lateral ends of the environment. In all evaluated cases the control was able to find a navigation path without the presence of local minimum. The robot always reached its target point without problems. The time required for each calculation is heavily dependent on the complexity of the task and processor used. For an AMD Phenom(tm) 9650 Quad-Core Processor with 8 GB of RAM running Linux 64-bit kernel 3.2.0 and MatLab R2011a, the average time for path calculation was 20 to 30 s. Some of these tests can be observed at runtime in: http://youtu.be/boIYWRGokto B. Voronoi diagrams method enhanced with the Delaunay triangulation We ran a similar number of tests for the same environments used with the artificial potential field algorithm. Again, in each of these tests, the start (qa ) and target (qf ) points were randomly selected. In general, remained similar all conditions of the problem (camera, robot and environment). Fig. 12 shows four of these tests. In this
    • figure, we show the Voronoi diagram with the path chosen by the algorithm. Compared with Voronoi, this algorithm is computationally more expensive, but it finds optimal routes in 100 percent of the cases, and its interactivity makes it suitable for navigation tasks in dynamic environments (case currently under research). On the other hand, the Voronoi diagrams method enhanced with the Delaunay is less computationally expensive, allowing shorter response times, but not always able to find an optimal route (although always reaches the destination, the algorithm does not always use the shortest path), and is only functional in static environments. Acknowledgement Fig. 12. Simulation of the navigation strategy proposed (Voronoi diagrams) in four different environments. The starting points of the robot is qa and the target points is qf . The environments were constructed with geometric obstacles placed randomly. As in the strategy based on the artificial potential field, in all evaluated cases the control was able to find a navigation path. Under similar conditions, the measured times with different scenarios are between 1 and 3 s. This is a time extremely low. However, when analyzing the routes generated by the algorithm, we observe cases where the algorithm fails to select an optimal route, finding many cases in which the routes are peripheral. V. Conclusions This paper presents a comparison between two modified algebraic methods for fast path planning in complex and static environments. The navigation problem considered assumes a robot that executes commands from a central control unit, this central control unit is responsible for sensing the environment, navigating path design, and control the robot’s movements. The proposed algorithms (artificial potential field method enhanced with dummy loads and Voronoi diagrams method enhanced with the Delaunay triangulation) were fully implemented. The proposed algorithms were tested in 25 different scenarios. In all test cases, polygonal obstacles were introduced. Some of the tests analyzed include the use of identical environments for the two algorithms. Always the same algorithms were applied, regardless of the environment’s complexity or topology. In all test cases, the system was able to quickly determine the navigation path without falling into local minima. In the case of the artificial potential field method enhanced with dummy loads, the paths defined by the algorithm always avoid obstacles (the obstacles that cause local minima) by surrounding them with the most efficient way. The algorithm creates quite short navigation paths. This work was supported by the Distrital University Francisco Jos´ de Caldas, in part through CIDC, and e partly by the Faculty of Technology. The views expressed in this paper are not necessarily endorsed by the Distrital University. The authors thank the research groups ARMOS, DIGITI and GICE for the evaluation carried out on prototypes of ideas and strategies. References [1] Guangshun, L., Hongbo, S.: Study of technology on path planning for mobile robots. In: Chinese Control and Decision Conference CCDC 2008. (2008) 3295–3300 ISBN 978-1-42441733-9. [2] Xu, D., Zhang, F., Y., Y.: Constructing visibility graph and planning optimal path for inspection of 2d workspace. In: IEEE International Conference on Intelligent Computing and Intelligent Systems ICIS 2009. (2009) 693–698 ISBN 978-1-42444754-1. [3] Afzulpurkar, N., Thanh, N.: Path planning for a mobile robot in a dynamic environment. In: IEEE International Conference on Robotics and Biomimetics ROBIO 2008. (2008) 2115–2120 ISBN 978-1-4244-2678-2. [4] Mannadiar, R.: Optimal coverage of a known arbitrary environment. In: 2010 IEEE International Conference on Robotics and Automation ICRA. (2010) 5525–5530 ISBN 978-1-4244-5038-1. [5] Zhang, L., Kim, Y., Manocha, D.: A hybrid approach for complete motion planning. In: IEEE RSJ International Conference on Intelligent Robots and Systems IROS 2007. (2007) 7–14 ISBN 978-1-4244-0912-9. [6] Bobadilla, L., Martinez, F., Gobst, E., Gossman, K., LaValle, S.: Controlling wild mobile robots using virtual gates and discrete transitions. In: American Control Conference ACC2012. (2012) 743–749 ISBN 978-1-4577-1095-7. [7] Kress-Gazit, H., Fainekos, G., Pappas, G.: Temporal-logic-based reactive mission and motion planning. IEEE Transactions on Robotics 25 (2009) 1370–1381 ISSN 1552-3098. [8] Otte, M., Richardson, S., Mulligan, J., Grudic, G.: Local path planning in image space for autonomous robot navigation in unstructured environments. In: IEEE RSJ International Conference on Intelligent Robots and Systems IROS 2007. (2007) 2819–2826 ISBN 978-1-4244-0912-9. [9] Hongyang, Y., Huifang, W., Yangzhou, C., Dai, G.: Path planning based on constrained delaunay triangulation. In: Intelligent Control and Automation, 2008. WCICA 2008. 7th World Congress on. (2008) 5168–5173 ISBN 978-1-4244-2113-8. [10] Kallmann, M.: Path planning in triangulations. In: International Joint Conference on Artificial Intelligence IJCAI 2005. (2005) 49–54 ISBN 0938075934. [11] Demyen, D., Buro, M.: Efficient triangulation-based pathfinding. In: 21st National Conference on Artificial Intelligence. (2006) 942–947 ISBN 978-1-57735-281-5.
    • [12] Li, G., Yamashita, A., Asama, H., Tamura, Y.: An efficient improved artificial potential field based regression search method for robot path planning. In: 2012 International Conference on Mechatronics and Automation ICMA. (2012) 1227–1232 ISBN 978-1-4244-4774-9. [13] Bin-qiang, Y., Ming-fu, Z., Yi, W.: Research of path planning method for mobile robot based on artificial potential field. In: 2011 International Conference on Multimedia Technology ICMT. (2011) 3192–3195 ISBN 978-1-61284-771-9. [14] Huang, Y., Hu, H., XingQiang, L.: Obstacles avoidance of artificial potential field method with memory function in complex environment. In: 2010 8th World Congress on Intelligent Control and Automation WCICA. (2010) 6414–6418 ISBN 978-1-42446712-9. [15] Dong, H., Li, W., Zhu, J., Duan, S.: The path planning for mobile robot based on voronoi diagram. In: 3rd International Conference on Intelligent Networks and Intelligent Systems ICINIS. (2010) 446–449 ISBN 978-1-4244-8548-2. [16] Shojaeipour, S., Haris, S., Khalili, K., Shojaeipour, A.: Motion planning for mobile robot navigation using combine quad-tree decomposition and voronoi diagrams. In: The 2nd International Conference on Computer and Automation Engineering ICCAE. (2010) 90–93 ISBN 978-1-4244-5585-0. [17] Shao, M., Lee, J.: Development of autonomous navigation method for nonholonomic mobile robots based on the generalized voronoi diagram. In: International Conference on Control Automation and Systems ICCAS 2010. (2010) 309–313 ISBN 978-1-4244-7453-0. [18] Khatib, O.: Real-time obstacle avoidance for manipulators and mobile robots. In: IEEE International Conference on Robotics and Automation. (1985) 500–505 [19] Takahashi, O., Schilling, R.J.: Motion planning in a plane using generalized voronoi diagrams. IEEE Transactions on Robotics and Automation 5 (1989) 143–150 ISSN 1042-296X. [20] Egerstedt, M., Hu, X.: A hybrid control approach to action coordination for mobile robots. Automatica 38 (2002) 125–130 [21] Gamage, G.W., Mann, G., Gosine, R.G.: A hybrid control strategy for multiple mobile robots with nonholonomic constraints. In: Proc. Canadian Conf. Electrical and Computer Engineering CCECE ’09. (2009) 660–663 [22] Lan, Y., Yan, G., Lin, Z.: A hybrid control approach to multirobot coordinated path following. In: Proc. 48th IEEE Conf. held jointly with the 2009 28th Chinese Control Conf Decision and Control CDC/CCC 2009. (2009) 3032–3037 [23] Hernandez-Martinez, E.G., Albino, J.M.F.: Hybrid architecture of multi-robot systems based on formation control and som neural networks. In: Proc. IEEE Int Control Applications (CCA) Conf. (2011) 941–946 [24] Chaohong, C., Rafal, G., Sanfelice, R.G., Teel, A.R.: Hybrid dynamical systems: Robust stability and control. In: Proc. Chinese Control Conf. CCC 2007. (2007) 29–36 [25] Prieur, C., Goebel, R., Teel, A.R.: Hybrid feedback control and robust stabilization of nonlinear systems. 52 (2007) 2103–2117 [26] Zhang, H., James, M.R.: Bounded robust control for hybrid systems. In: Proc. 45th IEEE Conf. Decision and Control. (2006) 4801–4806 [27] Yoon, K.H., Lee, J.K., Kim, K.H., Park, B.S., Yoon, J.S.: Hybrid robust controller design for a two mass system with disturbance compensation. In: Proc. Int. Conf. Control, Automation and Systems ICCAS 2008. (2008) 1367–1372 [28] LaValle, S.M.: Planning Algorithms. Cambridge University Press, Cambridge, U.K. (2006) Available at http://planning.cs.uiuc.edu/. [29] Ollero, A.: Planificaci´n de trayectorias para robots m´viles. o o PhD thesis, Universidad de M´laga (1995) ISBN 84-8498-970-4. a
    • A comparative analysis of adaptive visual servo control for Robots Manipulators in 2D Maximiliano Bueno L´ pez o Daniel Mari˜ o Lizarazo n Programa de Ingenier´a El´ ctrica ı e Facultad de Ingenier´a ı Universidad de La Salle Bogot´ -Colombia a Email: maxbueno@unisalle.edu.co Programa de Ingenier´a en Automatizaci´ n ı o Facultad de Ingenier´a ı Universidad de La Salle Bogot´ -Colombia a Email: daniellmarino13@unisalle.edu.co Abstract—Visual servoing is a useful approach for robot control. It is specially attractive when the control objective can be stated directly in image coordinates like in point–to–point regulation. The adaptive control is a technique very used in robot manipulators due to uncertainty in the dynamic model and when is combined with vision allows to handle uncertainty in the camera parameters. In this paper, we propose an adaptive control for a robot manipulator, which allows the displacement of the end–effector following a reference trajectory. It is assumed that the robot is planar and the camera fixed, so that the image plane is parallel to the manipulator workspace. Two wellknown adaptive schemes have been simulated together with the proposed algorithm to compare the performance of the different approaches. Simulation results show the good performance of the complete system. Index Terms—Visual Servoing, robot control, adaptive control, vision 2D. I. I NTRODUCTION The principal problem in the design of adaptive control laws for rigid-robot manipulators that ensure asymptotic trajectory tracking has interested researchers for many years. The development of effective adaptive controllers represents an important step toward high-speed/precision robotic applications. Even in a well-structured industrial facility, robots may face uncertainty regarding the parameters describing the dynamic properties. Since the parameters are difficult to compute or measure, they limit the potential for robots to manipulate accurately objects of considerable size and weight. It has recently been recognized that the accuracy of conventional approaches in high-speed applications is greatly affected by parametric uncertainties. To compensate for this parametric uncertainty, many researches have proposed adaptive strategies for the control of robotic manipulators. Using Visual servoing and adaptive control, we look for to estimate a set of parameters more quickly and achieve the desired trajectory in less time. The fixed camera strategy is a common approach in visual servoing for robot control. Usually, the objective consists in making the manipulator end-effector follow a specified trajectory or reach a final point in the workspace [1]. The resulting performance depends on many factors, among them the knowledge of camera parameters. In [2] an alternative to camera calibration is proposed by carrying out vision system identification, while in [3] a control algorithm is introduced which effectively deals with an unknown environment to achieve not only position but also force control. On the other hand, a good performance does not depend only on knowing well the complete visual system and robot model. Recently, in [4] an algorithm is proposed based on velocity fields. Although no specialized approaches were employed to get camera and manipulator model parameters, the outcomes were good. The great benefit that can be obtained from using visual servoing is the accuracy that is obtained with a configuration in closed loop, which makes the system relatively insensitive to calibration errors. Thus, we introduce a point-to-point control using only image, joint coordinates and the focal length of the camera. The paper is organized as follows: Section 2 gives the robot model and reviews the relationship between joint and image coordinates. The control approach is given in Section 3 and the theory about comparative algorithms are given in Section 4. The simulation results are presented in Section 5. Finally, some conclusions are given in Section 6. II. P RELIMINARIES The dynamics of a rigid robot arm with revolute joints can adequately be described by using the Euler–Lagrange equations of motion [5], resulting in ˙ ˙ ˙ H(q)¨ + C(q, q)q + D q + g(q) = τ − τ p , q (1) where q ∈ Rn is the vector of generalized joint coordinates, H(q) ∈ Rn×n is the symmetric positive definite inertia ma˙ ˙ trix, C(q, q)q ∈ Rn is the vector of Coriolis and centrifugal torques, g(q) ∈ Rn is the vector of gravitational torques, D ∈ Rn×n is the positive semidefinite diagonal matrix accounting for joint viscous friction coefficients, τ ∈ Rn is the vector of torques acting at the joints, and τ p ∈ Rn represents any bounded external perturbation or friction force. Let us denote the largest (smallest) eigenvalue of a matrix by λmax (·) (λmin (·)). For a n × 1 vector x, we shall use √ the Euclidean norm x = xT x, while the norm of a m × n matrix A is the corresponding induced norm
    • A = λmax (AT A). By recalling that revolute joints are considered, the following properties can be established: Property 2.1: It holds λh x 2 ≤ xT H(q)x ≤ λH x q, x ∈ Rn , and 0 < λh ≤ λH < ∞, given by λh λH = = 2 S y Oc2 S y1 I I1 OI ∀ Optical Axis C 3 S y2 0 c I2 f f min λmin (H(q)) ∀q ∈Rn max λmax (H(q)). xR = f k (q). = = C αλ OR1 R φ xR − C C OR2 OR3 − λ C OR1 αλ Rφ xR − + C OR2 uo vo + uo vo (3) . T C C C O C = [ OR1 OR2 OR3 ] is the position of the origin of R the camera frame ΣC with respect to the robot frame ΣR , λ is the focal length, α is a conversion factor from meters T to pixels, and [ uo vo ] is the center offset. We assume the camera image to be parallel to the robot plane of motion. Rφ represents the orientation of the camera frame ΣC with respect to the robot frame ΣR and is given by Rφ = cos(φ) sin(φ) sin(φ) − cos(φ) (4) R−1 φ (5) where J (q) = ∂f k (q)/∂q is the so–called geometrical Jacobian matrix of the robot [5], which satisfies the following well–known relationship ˙ ˙ xR = J (q)q. (6) Whenever the robot is not in a singularity, one has also the following relationship ˙ ˙ q = J −1 (q)xR . Oc' 0 z X R1 O c1 x Fig. 1. Reference System Assumption 2.1: The robot does not reach any singularity. Assumption 2.1 is made to simplify the design of the control law. It can be removed as explained in Remark 1 in [8]. The workspace of the robot is shown in Figure1, this is used to obtain the necessary projections for the model of the camera employed in the simulation. III. A DAPTIVE VISUAL SERVOING CONTROL In this section, a tracking controller based on image coordinates will be designed. The task to be accomplished by the robot is to follow a trajectory obtained and given respectively trough the camera image on the computer screen [6], [9]. The tracking error in image coordinates is given by ∆y = y − y d . (8) To design the tracking controller, let us define , where φ ∈ R is the angle of rotation. Note that = T Rφ = Rφ . By deriving (3) one gets the differential perceptual kinematic model given by ˙ ˙ y = αλ Rφ J (q)q, o C 1' ' 2 Oc S Oc3 (2) On the other hand, the output variable of the robotic system is the position y ∈ R2 of the image feature, i. e. the position of the target in the computer screen. In terms of the target position xR with respect to the robot base frame, the image feature y can be computed through transformation and a perspective projection as [6], [7] y C xR ∀q ∈Rn Property 2.2: By using the Christoffel symbols (of the ˙ ˙ ˙ first kind) to compute C(q, q), H(q) − 2C(q, q) is skew symmetric. f f y o ' C3 rc C1 C2 Throughout this paper, we will assume that the robot is a two degrees of freedom planar manipulator, i. e. we have n = 2 in eq. (1). Then, the direct kinematics is a differentiable map f k (q) : R2 → R2 relating the joint positions q ∈ R2 to the Cartesian position xR ∈ R2 of the centroid of a target attached at the arm end–effector, as follows S c' X R2 (7) ˙ yr ˙ y d − Λy (y − y d ) + sd − K γ σ, (9) ˙ ˙ ˙ ¯ ¯ y − y d + Λy (y − y d ) = y + Λy y , s − sd , (10) (11) = where K γ ∈ R2×2 is a diagonal positive definite matrix and σ ∈ R2 , with s s1 = = sd = s(0)e−kt , (12) t σ = 0 {K β s1 (ϑ) + sign(s1 (ϑ))} dϑ, (13) where σ(0) = 0, k is a positive constant, K β ∈ R2×2 is a diagonal positive definite matrix and sign(s1 ) = [sign(s11 ) · · · sign(s1n )]T , (14)
    • with s1i element of s1 , i = 1, . . . , n. Alternatively, ˙ σ = K β s1 + sign(s1 ) (15) can be used. To analyze the stability of the control approach, it is necessary to define the closed loop dynamics. In order to do so, we carry out the following development. ˙ ˙ q − qr = sr 1 −1 J (q)Rφ sy αλ ˙ ˙ y − y r = αλ Rφ J (q)sr sy (16) (17) Then, one can rewrite (1) as ˙ ˙ H(q)sr + C(q, q)sr + Dsr = τ − Y θ, (18) ˙ ˙ ˙ Y θ = H(q)¨ r + C(q, q)q r + D q r + g(q) + τ p . q (19) Y is an m x n matrix independent of the dynamic parameters, θ is a m x 1 vector of the constants parameters, ˙ ¨ ¨ furthermore q r , q r and y r are defined as 1 −1 ˙ J (q)Rφ y r αλ (20) 1 −1 1 −1 ˙ ¨ J ˙ (q)Rφ y r + J (q)Rφ y r αλ αλ ¨ qr (21) ˙ where J −1 (q) = ¨ yr = d −1 (q). dt J ¨ ˙ ˙ ˙ y d + Λy (y − y d ) − ksd − K γ σ. (22) The proposed control law is given by ˆ τ = −K p J (q)Rφ sy + Y θ, T (23) where K p ∈ R2×2 is a positive definite matrix. 1 ˙ ˆ θ = − Γ Y T J −1 (q)Rφ (sy ), αλ Rewriting the control law as ¯ τ = −K p 1 −1 J (q)Rφ sy αλ ˆ + Y θ. (24) (25) ¯ K p ∈ R2×2 has been obtained after some rather direct manipulation and it is defined as ¯ K p = αλ K p J T (q)J (q), (27) Then, the tracking error closed loop dynamics is obtained by substituting (27) in (18) to get ˜ ˙ ˙ H(q)sr + C(q, q)sr + K DP sr = Y θ To verify the advantages of the proposed algorithm we have selected the following controllers for comparison purposes. The direct adaptive control of planar robot manipulators through visual servoing is considered [10]. A solution is developed for image-based visual systems to allow tracking of a desired trajectory, when both camera calibration and robot dynamics are uncertain. In order to solve the MIMO parameter adaptive problem without using image velocity information, the adaptive camera calibration is formulated as a relative degree two MIMO adaptive control problem. In this paper, the authors propose a solution for the direct adaptive visual tracking of planar manipulators using a fixed camera, when both camera calibration and robot dynamics are uncertain. The proposed strategy is developed for image based look-andmove visual servoing systems. In order to solve the MIMO parameter adaptive problem related to adaptive camera calibration scheme, without using direct image velocity information, an uncertain linear plant with relative degree two has to be considered. The control law is given by xm = K −1 (y d − yo ) p (29) e = xR − xm = K −1 (y − y o ) − xm = K −1 (y − y d ) (30) p p ˙ ˙ xr = xm − Λe (31) ˙ ˙ ˙ σ = xR − xr = e + λe (32) ˙ ˙ ¨ ˆ τ = Y (q, q, xr , xr )θ − K D σ, (33) where y d ∈ R2 is the desired image trajectory, ˙ ˙ ¨ Y (q, q, xr , xr ) ∈ R2×p is the regressor and θ ∈ Rp is the corresponding parameter vector. B. Comparative algorithm 2 (26) By taking into account (16) one can write (25) as ˆ ¯ τ = −K p sr + Y θ. IV. C OMPARATIVE A NALYSIS A. Comparative algorithm 1 where ˙ qr ˜ ˆ ¯ where K DP = D + K p and θ = θ − θ. Now, a theorem can be established. ˙ Theorem 3.1: Consider the desired trajectory y d with y d ¨ and y d bounded , and suppose that the initial condition y(0) and the desired final value y f are chosen far away enough from any singularity. Then, for the control law (23) a proper combination of the gains k, kd , Λy , K β , K γ and K p can ˙ always be found so that tracking (∆y, ∆y,) are bounded and tend to zero. Remark 3.1: For a planar robot it is in general quite easy to guarantee that y d will not reached any singularity. (28) The algorithm given in [11] is considered. To avoid performance decaying caused by measurement errors of the visual velocity, the controller is developed on the basis of the proposal of an estimator of visual velocity. The visual velocity is estimated by the joint velocity of the robot manipulator through the image Jacobian matrix. Since the camera parameters are unknown, the estimated Jacobian matrix, which is calculated using the estimated camera parameters, is used to
    • calculate the estimated visual velocity. Denote the desired tra˙ ¨ jectory of the feature point on the image plane by (y d , y d , y d ), ˙ ¨ where y d , y d , and y d represent the desired position, velocity, and acceleration, respectively. For convenience, introduce the following nominal reference: ˙ ˙ y r (t) = y d (t) − λ∆y(t) (34) ¨ ¨ ˙ ˙ y r (t) = y d (t) − λ(y(t) − y d (t)) (35) where ∆y (t) is the position error of the feature point, i.e., ∆y (t) = y(t) − y d (t). (36) λ is a positive scalar. It is also defined Fig. 2. ˙ ˙ sy (t) = y(t) − y r (t) = ∆y(t) + λ∆y(t). Simulation testbed (37) ˙ Note that the trajectory errors ∆y(t) and ∆y(t) tend to zero if the error vector sy (t) vanishes. Denote an estimate of the ˆ unknown parameters θ by θ(t). The control law is given by ˆ ¨ τ = H(q(t))q r (t) 1 ˙ 2 H(q(t)) ˙ ˙ + C(q(t), q(t)) q r (t)) + G(q(t)) ˆ ∂U (θ ) ˙ + K 4 q(t) ˆ ∂θ ˆT s −A (t)K c z (t)ˆy (t) 2ˆ − K1 + K3 sq (t) (38) where K i (i = 1, 2, 3, 4) are positive-definite gain matrices. ˆ ∂U (θ ) is the potential force. The first three terms are to ˆ ∂θ cancel the inertia forces, the nonlinear centrifugal and Coriolis forces, and the gravitational force in the robot dynamics, respectively. The fourth term represents a feedback in the joint space. The last term is the image error feedback. Fig. 3. Desired and actual trajectory in image coordinates for proposed algorithm 10 0 −10 [Pixels] + −20 −30 −40 −50 0 10 20 30 a) V. S IMULATION R ESULTS 40 50 60 40 50 60 t[s] 140 120 100 [Pixels] In order to test the theory given, we have used a model of robot A465 of CRS Robotics (see Figure 2). It has six degrees of freedom, but we have used only joints 2 and 3 to have a two degrees of freedom planar manipulator. The visual system consists of a CCD monochrome camera (Pike F–505B), equipped with a renowned Sony Super HAD CCD sensor to get an excellent image quality. At full resolution, it runs up to 15 fps and with a resolution of 2452 × 2054 pixels at 15Hz. Data is sent via FireWire (IEEE–1394). 80 60 40 20 0 −20 0 10 20 30 a) Fig. 4. t[s] a) ∆ y1 . b) ∆ y2 . A. Proposed algorithm results The desired trajectory of the feature point is to trace the following circular trajectory y d (t) = 60 × sin(0.2t) + 265 −60 × cos(0.2t) + 185 pixel (39) This section shows the results obtained through servovisual adaptive algorithm designed. In Figure 3 actual and desired image coordinates are shown with a circular trajectory. The tracking error are show in Figure 4.
    • 800 30 20 10 [Pixels] 750 0 −10 700 −20 [Pixels] −30 0 5 10 15 t[s] a) 15 10 a) t[s] 650 60 50 600 [Pixels] 40 550 30 20 10 0 500 350 400 Fig. 5. 450 500 [Pixels] 550 600 −10 650 0 Path followed by the end effector 5 Fig. 7. a) ∆ y1 . b) ∆ y2 . φ ≈ 45◦ . 20 240 220 10 [Pixels] [Pixels] 200 180 160 0 −10 140 −20 120 100 0 5 10 a) −30 15 5 10 a) 15 t[s] 5 [Pixels] 10 460 t[s] 15 480 15 10 a) 500 [Pixels] 0 t[s] 440 420 −10 400 −15 380 360 0 −5 0 5 10 a) −20 15 0 5 t[s] Fig. 6. a) y1 (—–), yd1 (- - -) and y1 (· · ·). b) y2 (—–), yd2 (- - -) and y2 ˆ ˆ (· · ·). φ ≈ 0◦ . Fig. 8. a) z1 . b) z2 . φ ≈ 45◦ . Trayectoria en Pantalla 500 In Figure 5 it can be seen the path followed by the end effector in the image coordinates. 480 460 B. Comparative algorithm 1 results 440 pixeles This section shows the results obtained through Comparative algorithm 1. In Figure 6 actual, desired and estimated image coordinates are shown. The tracking and observation errors are show in Figures 7 and 8 respectively. In Figure 9 it can be seen the path followed by the end effector in the image coordinates. 420 400 380 360 100 120 140 160 180 200 220 240 pixeles C. Comparative algorithm 2 results This section shows the results obtained through Comparative algorithm 2. In Figure 10 actual, desired and estimated image coordinates are shown. The tracking and observation errors are show in Figures 11 and 12 respectively. In Figure 13 it can be seen the path followed by the end effector in the image coordinates. Fig. 9. Path followed by the end effector VI. C ONCLUSIONS In this paper we present an adaptation of a control algorithm designed to work in Cartesian coordinates to a scheme that employs image coordinates in a visual servoing approach. As
    • 700 800 650 600 [Pixels] 550 750 500 450 400 700 350 0 5 10 15 20 a) 25 30 35 40 t[s] [Pixels] 300 650 Trayectorias articulacion 2 900 [Pixels] 800 600 700 600 550 500 400 0 5 10 15 20 a) 25 30 35 500 350 40 Fig. 10. a) y1 (—–), yd1 (- - -) and y1 (· · ·). b) y2 (—–), yd2 (- - -) and ˆ y2 (· · ·). φ ≈ 0◦ . ˆ 450 Fig. 13. 500 [Pixels] 550 600 650 Path followed by the end effector a good performance of the proposed method. Two adaptive algorithms referenced in the literature have been presented to compare our proposal and to have a better understanding of the adaptive control applied to robot manipulators. We propose as next work try different paths to verify the correct functioning. 10 0 −10 [Pixels] 400 t[s] −20 −30 −40 −50 0 5 10 15 20 a) 25 30 35 A PPENDIX A P ROOF OF T HEOREM 3.1 40 t[s] Error 140 120 [Pixels] 100 80 60 40 20 0 −20 0 5 10 15 20 a) Fig. 11. 25 30 35 40 t[s] In this appendix, the proof of Theorem 3.1 is presented. As we noted in the introduction, this is a modification of the algorithm given in [8] with application to visual servoing, so that we just show the main issues of the proof for our current work, while the interested reader can look for details in the reference. Consider the following theorem and lemma. Theorem A.1: [12, pp. 172] Let D ⊂ Rn be a domain that contains the origin and V : [0, ∞) × D → R be a continuously differentiable function such that a) ∆ y1 . b) ∆ y2 . φ ≈ 45◦ . 10 0 [Pixels] −10 −20 −30 −40 −50 −60 0 5 10 15 20 a) 25 30 35 40 t[s] Trayectory 300 250 200 [Pixels] 150 100 α1 ( x ) ≤ V (t, x) ≤ α2 ( x ) (40) ∂V ∂V + f (t, x) ≤ −W3 (x), ∀ x ≥ µ > 0, (41) ∂t ∂x ∀ t ≥ 0 and ∀ x ∈ D, where α1 and α2 are class K functions, W3 (x) is a continuous positive definite function and f : [0, ∞) × D → Rn is piecewise continuous in t and locally Lipschitz in x on [0, ∞) × D. Take r > 0 such that Br = {x ∈ Rn | x ≤ r} ⊂ D and suppose that −1 µ < α2 (α1 (r)). 50 0 −50 −100 0 5 10 15 20 a) Fig. 12. 25 30 35 40 t[s] (42) Then, there exits a class KL function β and for every initial state x(t0 ), satisfying −1 x(t0 ) ≤ α2 (α1 (r)), a) z1 . b) z2 . φ ≈ 45◦ . (43) there is T ≥ 0 (dependent on x(t0 ) and µ) such that the ˙ solution of x = f (t, x) satisfies a direct consequence, only any parameters of the camera and the robot base frame is required for implementation. To test the theory, simulation results have been carried out which show x x ≤ ≤ β( x(t0 ) , t − t0 ), ∀ t0 ≤ t ≤ t0 + T (44) −1 α1 (α2 (µ)), ∀ t ≥ t0 + T. (45)
    • Moreover, if D = Rn and α1 belongs to class K∞ , then (44)–(45) hold for any initial state x(t0 ), with no restriction on how large µ is. Lemma A.1: [13] Consider (13)–(14), and suppose you have the relationship si = s1 + K γ σ. (46) If si ≤ si < ∞ for all time, then σ and s1 are bounded for ¯ all time. Furthermore, a bound for σ is given by √ 2 (λmax (K β )¯i + n) s σmax = . (47) λmin (K β K γ ) b) The next step is to show that, with a proper choice of gains, one can actually achieve x ≤ xmax . As done in [6], we consider for simplicity xmax as a given value. Now define 1 V (y) = y T M y, (54) 2 with M = block diag { H(q) it satisfies λ1 y si = s1 + K γ σ, (48) ˙ with si = sy − z bounded. On the other hand, from (8), (9) and (17) one has ˙ ∆y + Λy ∆y = sy + Λy z + sd − K γ σ. (49) The dynamic equation for ∆y represents a stable linear ˙ filter with bounded input, so that ∆y and ∆y must be ˙ bounded. We can conclude that both y d and y d are bounded. Then, since ∆y = y − y d , one concludes that ˙ ˙ ˆ ˆ y and y (and y and y ) are also bounded. On the other hand, from (5) it is ˙ q= 1 −1 ˙ J (q)Rφ y. αλ (50) In view of Assumption 2.1, q must be bounded since no ˙ singularity has been reached and q is bounded after (50). ˙ ˙ Now, from (9) y r is bounded and so is q r . Then we compute ¨ yr = ˙ ¨ ˆ ˙ ˙ y d − Λy (y − y d ) − ksd − K γ σ, (51) ˙ which must be bounded because from (15) σ is bounded. We also have 1 ˙ −1 1 −1 ¨ ¨ ˙ qr = J (q)Rφ y r , (52) J (q)Rφ y r + αλ αλ −1 d ˙ ¨ where J (q) = dt J −1 (q). Then q r is bounded because ˙ −1 ˙ the boundedness of q ensures that of J (q). Also, by taking into account that τ p is bounded by assumption, ˙ Y θ in (19) is bounded, and so is sr after (28). We Note also that from (27) the input torque τ is bounded, so ¨ that from (1) q must be bounded. It is also possible to compute from (5) ˙ ¨ ˙ y = αλ Rφ J (q)q + αλ Rφ J (q)¨ , q (53) ≤ V (y) ≤ λ2 y 2 , (55) with λ1 = λ2 As done in [13], we prove Theorem 3.1 in three steps. a) First of all, we show that if x = [ sT r T ] is bounded r by xmax , then any other signal is bounded. This proceeds as follows. From (9)–(11) and (17) one gets 2 I }. After Property 2.1 = 1 min λmin (M (q)) 2 ∀q ∈R2 1 max λmax (M (q)). 2 ∀q ∈R2 (56) (57) Now we use V (y) in (54) and Theorem A.1, with α1 = λ1 y 2 and α2 = λ2 y 2 . By using Property 2.2, the derivative of V along (28) is given by ˙ V = −sT K DP sr − kd r T r r T +sr K p J T (q)Rφ r − sT y a r ˙ ¯ +r T ∆¨ + Λy y + ksd . y (58) R EFERENCES [1] S. Hutchinson, D. Hager, and P. Corke, “A tutorial on visual servo control,” IEEE Transactions on Robotics and Automation, vol. 12, no. 5, pp. 651–670, October 1996. [2] R. Kelly and F. Reyes, “On vision systems identification with application to fixed camera robotic systems,” International Journal of Imaging Systems and Technology, vol. 11, no. 3, pp. 170–180, July 2000. [3] E. Dean-Leon, V. Parra-Vega, and A. Espinosa-Romero, “Global uncalibrated visual servoing for constrained robots working on an uncalibrated environment,” IEEE/RSJ International Conference on Intelligent Robots and Systems, no. 1, pp. 3809–3816, October 2006. [4] R. Perez, M. Arteaga, R. Kelly, and A. Espinosa, “On output regulation of direct visual servoing via velocity fields,” International Journal of Control, vol. 82, no. 4, pp. 679–688, October 2008. [5] L. Sciavicco and B. Siciliano, Modeling and Control of Robot Manipulators. London,Great Britain, Springer-Verlag, 2000. [6] R. P´ rez, M. Arteaga, and R. Kelly, “On output regulation of direct e visual servoing via velocity fields,” International Journal of Control, vol. 82, no. 4, 2009. [7] M. Arteaga, M. Bueno, and A. Espinoza, “A simple approach for 2D visual servoing,” in 18th IEEE International Conference on Control Applications. Part of 2009 IEEE Multi-conference on Systems and Control, Saint Petersburg, Russia, Oct. 2009, pp. 1692–1699. [8] M.Arteaga, R. Kelly, and A. Castillo, “Cartesian control of robots without dynamic model and observer design,” Automatica, vol. 42, pp. 473–480, September 2006. [9] D. Dawnson, L. Lewis, and C. Abdallah, Robot Manipulator Control. Theory and Practice. New Yersey: Marcel Dekker, 2004. [10] F. Lizarralde, L. Hsu, and R. Costa, “Adaptive visual servoing of robot manipulators without measuring the image velocity,” in 17th World Congress The International Federation of Automatic Control. Seoul, Korea, July 2008. [11] H. Weng, Y. H. Liu, and W. Chen, “Uncalibrated visual tracking control without visual velocity,” IEEE Transactions on Control Systems Technology, vol. 18, no. 6, pp. 1359–1370, Nov. 2010. [12] H. K. Khalil, Nonlinear Systems. New Yersey: Prentice Hall, 2001. [13] M. Arteaga, M. Castillo-S´ nchez, and V. Parra-Vega, “Cartesian control a of robots without dynamic model and observer design,” Automatica, vol. 42, pp. 473–480, 2006.
    • Integración en redes de sensores inalámbricos (WSN) IEEE 802.15.4 – 802.11 para automatización industrial Integration in wireless sensor networks (WSN) IEEE 802.15.4 - 802.11 for industrial automation Alvaro Romero1, Alejandro Marín1, Julian Orozco1, Jovani Jiménez2 1 Dpto. de Energía Eléctrica y Automática Universidad Nacional de Colombia, Facultad de Minas Medellín, Colombia [alromeroac, amarincan, juaorozcoqu]@unal.edu.co Resumen—En este artículo se propone la integración de redes inalámbricas ZigBee y Wi-Fi con sistemas embebidos. Estos sistemas cuentan con la implementación de sensores para la detección de gases combustibles en minas subterráneas de carbón. Además, los sistemas embebidos poseen diferentes protocolos de comunicación, los cuales comparten la información adquirida de forma rápida e inteligente, mediante dispositivos basados en tecnologías inalámbricas, permitiendo obtener gran escalabilidad, flexibilidad y confiabilidad en el manejo de la información. Este desarrollo se realiza con el propósito de optimizar los procesos de monitoreo y control en el área de automatización industrial. Palabras clave— Aplicación móvil; estándares de comunicación; monitoreo y control; redes de sensores inalámbricos; sistema embebido. Abstract—In this article is proposed the integration of wireless networks with Wi-Fi and ZigBee embedded systems; these systems are equipped with sensors for the detection of combustible gases in underground coal mines. In addition, the embedded systems have different communication protocols, which share acquired information quickly and intelligently, using devices based on wireless technologies, allowing these systems to have great scalability, flexibility and reliability in the handling of information. This development is being carried out in order to optimize the processes for monitoring and control in the area of industrial automation. Keywords— Communication standards; embedded systems; mobile application; monitoring and control; wireless sensor network. I. INTRODUCCIÓN La implementación de redes inalámbricas en los sistemas de automatización y control en procesos industriales, ha generado 2 Dpto. de Ciencias de la Computación y la Decisión Universidad Nacional de Colombia, Facultad de Minas Medellín, Colombia jajimen1@unal.edu.co una serie de beneficios tales como: escalabilidad, flexibilidad, interoperabilidad, entre otros. Las redes de sensores inalámbricos conocida por las siglas en ingles (WSN), permiten la medición de variables en lugares de difícil acceso, donde el cableado no pueda ser implementado o no garantiza una fiabilidad en el manejo de la información [1], [2]. La tecnología inalámbrica en entornos industriales se ha enfrentado a una serie de retos. En la actualidad se necesita de un estándar inalámbrico industrial para resolver este desafío. Para este caso, es función de los estándares de seguridad industrial para que las comunicaciones inalámbricas deban de suplir estas necesidades. Por lo anterior, ZigBee (IEEE 802.15.4) se ha establecido como un estándar para la aplicación en redes de sensores inalámbricos (WSN), debido a su bajo consumo de energía y costo, y la red inalámbrica WiFi (IEEE 802.11) es una especificación de la red de área local inalámbrica (WLAN), que puede conectarse a la Internet a través de un punto de acceso ó puerta de enlace (Gateway) [3]. Un aspecto importante a tener en cuenta el estándar IEEE 802.15.4 tiene un escaso impacto en el rendimiento IEEE 802.11. Sin embargo, IEEE 802.11 puede tener un grave impacto en el rendimiento de ZigBee si la asignación de los canales no se tiene en cuenta [4]. Este artículo está distribuido de la siguiente manera: en la segunda sección se presentan de forma resumida los estándar de comunicación inalámbrica IEEE 802.15.4, IEEE 802.11 y la norma ANSI/ISA 100.11.a. En la tercera sección se describe el sistema interconectado de redes y sus componentes. En la cuarta sección se presentan los resultados y finalmente se exteriorizan las conclusiones.
    • II. ESTÁNDAR DE COMUNICACIÓN INALÁMBRICA A. Estandár IEEE 802.15.4 La implementación de la red de sensores inalámbricos (WSN), se realiza principalmente mediante el protocolo ZigBee (estándar de comunicación inalámbrica IEEE 802.15.4, que utiliza radiodifusión digital para el envío de datos). Este tipo de aplicaciones requieren una baja tasa de datos, batería de larga duración y la creación de redes seguras de radiofrecuencia (RF). El bajo costo permite que la tecnología se use ampliamente en aplicaciones de monitoreo y control inalámbrico. Además se puede atribuir una ventaja sobre este protocolo, en el modo API (Application Programming Interface), que tiene en cuenta las tramas de comunicación: transmit request (0x10), receive packet (0x90) y Tx status (0x8b) [5]. Las tramas de comunicación en modo API proveen a la red inalámbrica, de un sistema de auto-verificación sobre la transmisión de datos, y a su vez cada trama contiene un Checksum (chequeador de la trama), el cual se debe determinar con una suma de los datos que conforman la trama (longitud) y de esta manera chequear si la información es correcta (ver figura 1) [6]. cada uno de los bytes cumplen una función específica. En la Tabla I la primera fila contiene el preámbulo, la dirección de destino y origen MAC (Media Access Control). El preámbulo se utiliza para la sincronización entre dispositivos de transmisión y recepción de datos, el campo de dirección MAC (Media Access Control) contiene los identificadores de los dispositivos de destino y origen respectivamente. En la segunda fila se tiene el tipo o longitud de los datos, los datos a transmitir y la secuencia de verificación FCS (Frame Check Sequence). TABLA I. 8 byte 6 byte Destination MAC Preamble 6 byte Source MAC Octet 0 4 8 12 16 20 24 … B. Estándar IEEE 802.11 IEEE802.11 es un estándar que ofrece una alternativa interesante para la conectividad en redes inalámbricas, que garantiza: movilidad, flexibilidad y bajo costo. Esto hace que sea un candidato muy competitivo para la aplicación de las redes de comunicación. Además, IEEE 802.11 tiene un funcionamiento sin licencia y ofrece muy altas velocidades, que pueden alcanzar cientos de Mbps en el estándar IEEE 802.11n [7]. Entre los estándar IEEE 802.11, se encuentra el IEEE 802.11n, que utiliza el doble del espectro radioeléctrico en comparación con 802.11a ó 802.11g. Sin embargo, IEEE 802.11a/c permite transmitir datos hasta Gbps y pueden exceder por más de dos veces las tecnologías de los estándares b y g. La banda baja de Wi-Fi transmite en la banda ISM de 2,4 GHz, mientras que la banda alta transmite en 5 GHz [2]. Además IEEE 802.11 es una extensión del estándar Ethernet (IEEE 802.3) en comunicaciones inalámbricas. El estándar Ethernet define la trama de comunicación, en la cual 2 byte 16 – 1500 byte 4 byte Type Data FCS En la Tabla II se presenta la estructura del protocolo IP (Internet Protocol), en el cual se indica los parámetros que debe contener, empezando por la versión y la longitud del encabezado IP. Luego la longitud total de todo el paquete, después sigue con un identificador, tipo de servicio, banderas (Flags) y fragmento que se está enviando. Posteriormente, se puede apreciar el tiempo de vida, el protocolo que se va a transmitir, el checksum y la dirección de origen y destino, para finalizar con los campos de opciones y datos. TABLA II. Fig. 1 Estructura de comunicación en modo API TRAMA ETHERNET II TRAMA INTERNET PROCOTOL 0 Version 1 2 3 IHL Type of service Total length Identification Flags Fragment offset Time to live Protocol Header checksum Source address Destination address Options Data (variable) Para la Tabla III se determina la estructura del protocolo TCP (Transmission Control Protocol), el cual contiene los puertos de origen y destino respectivamente, un número de secuencia y un número de negociación del paquete, luego continua con un inicio de datos, un campo reservado y las banderas, posteriormente con el checksum y el offset del número de secuencia del último dato enviado, y finalmente cuenta con el campo de opciones y los datos que se desean transmitir [8]. TABLA III. Octet TRAMA TRANSMISSION CONTROL PROCOTOL 0 1 2 3 Destination port Source port 0 4 Sequence number 8 Acknowledgment number 12 16 Data offset Reserved 000 N S C W R E C E U R G A C K Checksum 20 Options (+ padding.) 24 … Data(variable) P S H R S T S Y N F I N Window Size Urgent pointer
    • C. Normas ANSI/ISA 100.11a ANSI/ISA 100.11a (American National Standards Institute/International Society of Automation) es una norma que tiene como objetivo regir los estándares de comunicaciones inalámbricas para el desarrollo de aplicaciones en automatización y control industrial. ISA 100 cuenta con estándares que permiten una interacción entre diferentes tipos de redes, que proporciona la capacidad de las redes inalámbricas para realizar sus tareas en un ambiente donde existen otras redes inalámbricas, que pueden o no estar basados en el mismo estándar [9]. III. DESCRIPCIÓN DEL SISTEMA INTERCONECTADO Para implementar el sistema interconectado mediante redes inalámbricas basadas en ZigBee y Wi-Fi, se debe especificar una aplicación basada en un caso de estudio, por lo tanto se toma caso de estudio el sistema de monitoreo y control de atmósferas explosivas en minas subterráneas de carbón. De esta manera se realiza una distribución en la ubicación de nodos de la red de sensores dentro de la mina. Luego se diseña una estructura de las redes interconectadas tomando como referencia dos estaciones de monitoreo. Posteriormente, se desarrolla un sistema embebido encargado de procesar la información adquirida a través de los sensores de gases combustibles. Además tiene como objetivo construir paquetes de datos para ser transmitidos y extraer la información de tramas recibidas, con el propósito de ejecutar una acción asignada por medio de los actuadores. Luego se procede a la elaboración de la red conformada por estos sistemas embebidos, los cuales se basan en el protocolo de comunicación ZigBee y Wi-Fi. protocolo ZigBee se realiza por medio de la interface X-CTU y para las tramas Ethernet II, se realiza por medio del analizador de protocolos Wireshark versión 1.10.1, el cual permite ver todo el tráfico que pasa a través de la red de Ethernet, y de esta manera tomar la captura de la conexión inalámbrica [10]. A. Caso de estudio El diseño del sistema integrado de redes inalámbricas, se muestra en el caso de estudio para el campo de la minería en Colombia. La actividad minera sigue siendo el trabajo más peligroso, debido al número significativo en pérdidas de vidas humanas, a pesar de los importantes esfuerzos realizados en muchos países [11]. Por lo tanto una alternativa para mitigar el impacto negativo de accidentes producidos por la concentración de gases dentro de la mina, es la implementación de redes de sensores inalámbricos, de esta manera se propone este caso de estudio para la integración de redes de señores inalámbricos IEEE 802.15.4 y 802.11. En la figura 2, se ilustra la estructura de la mina, en la cual se puede ver la distribución de los nodos de la red de sensores inalámbricos (WSN) basado en el protocolo ZigBee, las dos estaciones de monitoreo (A y B), cada una con un ZigBee router asociado, el ZigBee coordinador de la red, el ventilador, y el detalle de las rutas: principal, secundaria y terciaria. Esta estructura corresponde a un esquema cercano de sobre la mina La Clarita, ubicada en el municipio de Amagá del Departamento de Antioquia (Colombia). En la actualidad la mina está en estudio de la ubicación de nodos, por lo tanto se presenta una propuesta de la red de sensores dentro de la mina. Para el caso del protocolo ZigBee (WSN), se verifica su funcionamiento y topología de la red mediante la interface XCTU, la cual vincula la terminal de datos recibidos y transmitidos en códigos ASCII y hexadecimal. Además puede crear paquetes de datos de envío, en esta interface también se pueden configurar los dispositivos XBee y comprobar los resultados. De este mismo modo se diseñan otras dos redes para el servicio Cliente/servidor y móvil. El servicio Cliente/servidor utiliza la herramienta Web Publisher ofrecida por el entorno de programación de LabVIEW, la cual permite al computador donde se está ejecutando la interface comportarse como un servidor Web. En el servicio móvil se integra los dispositivos Wifly desarrollados bajo el estándar IEEE 802.11a/g, el cual me permite transmitir y recibir datos al dispositivo móvil. Después de haber realizado el diseño de las redes basado en el protocolo ZigBee, el servicio Cliente/Servidor y la integración del dispositivo Wifly al servicio móvil, se procede con la interconexión de estas redes y servicios, en las cuales se obtienen las respectivas pruebas de conectividad y verificación de resultados. Las herramientas utilizadas para la verificación de resultados en los paquetes de datos para el Fig. 2 Estructura de la mina La Clarita y distribución de los nodos de la red Para abordar esta implementación, es necesario integrar nuevas tecnologías y obtener mejores resultados, debido a que cada vez, avanzan tecnológicamente el diseño de los dispositivos de la red de sensores inalámbricos, que requieren
    • niveles de procesamiento de datos de forma más compleja, por su gran volumen de información y velocidades de transmisión. Por lo tanto los dispositivos con los cuales se diseña y construye la red, no son fabricados principalmente para operar bajo las condiciones extremas que se presentan en las minas subterráneas de carbón, debido a esto se debe tener en cuenta los factores del medio que afectan directamente el funcionamiento de los dispositivos y la radiofrecuencia [12]. Para el objeto de estudio (ver figura 3) se toman dos estaciones de monitoreo (A y B) para la detección de atmósferas explosivas, en la cual se mide los gases combustibles (metano, monóxido de carbono e hidrogeno) y temperatura, cabe destacar que para aplicar un método de predicción en la detección de atmósferas explosivas tal como el método del Triángulo de Coward [13], se requiere la medición de gas oxigeno, de forma análoga para aplicar el método de los Diagramas de Bureau of Mines, se requiere medir los gases de nitrógeno y dióxido de carbono adicionalmente [14]. En la figura 3, las estaciones de monitoreo (A y B) se encuentran dentro de la red de sensores inalámbricos basado en el protocolo ZigBee (zona azul) y están asociadas cada una a un dispositivo ZigBee router (No. 2 y 3), los cuales se comunican mediante tramas API al ZigBee coordinador (No. 1) que está asociado al PC servidor (No. 7) y posee una interface gráfica (HMI) diseñada en el entorno de programación LabVIEW, para el monitoreo y control de las estaciones (A y B), además cuenta con la herramienta Web Publisher para el servicio Cliente/servidor (zona naranja) y de esta manera poder acceder de forma remota como administrador desde un cliente (No. 8) ubicado en la red. El servicio móvil (zona rosada) vincula la red Wi-Fi, mediante los dispositivos Wifly 802.11a/g (No. 4) y el router inalámbrico al celular (No. 6), de esta manera se integra a otra HMI ubicada en el PC (No. 5) que proporciona una interface de monitoreo y control desde otro punto de la red y vinculada de forma independiente al servicio Cliente/servidor de la zona naranja. Fig. 3 Estructura de redes interconectadas ZigBee y Wi-Fi B. Sistema embebido Sistema dedicado a funciones especificas de comunicación: recepción y transmisión de datos. En la transmisión de datos se debe especificar el protocolo de comunicación a utilizar IEEE 802.15.4 ó 802.11. De esta manera se define la trama de datos a construir, que cumpla con las especificaciones del estándar. De forma análoga se realiza para la recepción de los paquetes de datos. Por lo tanto el sistema embebido depende del dispositivo inalámbrico de comunicaciones conectado (Ver figura 4), en ese caso se acude a la tecnología XBee PROS2B (IEEE 802.15.4) y Wifly (IEEE 802.11). Esto se debe principalmente que la arquitectura del hardware de estos dos dispositivos, poseen las mismas características de inserción al sistema embebido, debido a que cuentan con igual número pines y dimensionado de conexión (20 pines – 2mm). Fig. 4 Sistema embebido. (a) ZigBee (IEEE 802.15.4), (b) Wifly (IEEE 802.11a/g) El microcontrolador implementado para el diseño de los sistemas embebidos es el PIC16F886, es la base fundamental para el acondicionamiento de señales analógicas, provenientes de los sensores de gases combustibles (metano, monóxido de carbono e hidrogeno) y la señal de temperatura. De esta forma se adquieren las señales para ser empaquetadas y enviadas por el puerto serial, el cual está conectado a un dispositivo de comunicaciones inalámbricas XBee ó Wifly, y cuenta con la posibilidad de conectarse a través del medio de comunicación SPI (Serial Peripheral Interface) con otros microcontroladores, esta parte es usada para realizar el puente entre la red de sensores ZigBee y la red Wi-Fi, estableciendo la conectividad de estos dos protocolos. Además cumple la función de indicar las señales de alertas del sistema con salidas digitales mediante LED (verde, amarillo y rojo), también puede encender el sistema de ventilación, en caso de que el sistema lo solicite. Para establecer la conectividad de las redes basadas en los estándar IEEE 802.15.4 y IEEE 802.11, se requiere una configuración de dos microcontroladores como maestro esclavo (ver figura 5), con el propósito de manejar de forma inteligente la información, mediante datos locales adquiridos por los sensores de gases combustibles y temperatura. A su vez, se tiene la recepción de los datos remotos provenientes de la red de sensores inalámbrica ZigBee, la cual trae vinculada la información de otra estación de monitoreo de gases combustibles y temperatura, por lo tanto los datos locales y los datos remotos son transmitidos al microcontrolador como esclavo por SPI, el esclavo cumple la función de establecer la comunicación con el dispositivo Wifly, el cual proporciona conectividad Wi-Fi, con dispositivos móviles [15].
    • D. Red de monitoreo y control Cliente/servidor La aplicación de los servicios Cliente/servidor, se obtiene mediante la herramienta „Web Publishing Tool‟ en el entorno de programación de LabVIEW, a su vez facilita el manejo de la interface gráfica HMI. Además puede ceder el administrador a otro cliente, y de esta manera puede monitorear las señales de los sensores de gas combustible y temperatura de las dos se estaciones de monitoreo A y B. Fig. 5 Estructura de programación en el manejo de datos por microcontroladores maestro-esclavo. C. Red de sensores y actuadores IEEE 802.15.4 La implementación del protocolo ZigBee IEEE 802.15.4 es adecuado para condiciones de bajo consumo energético y de operación en lugares remotos. Las aplicaciones que se pueden beneficiar del protocolo ZigBee son: construcción de redes de automatización, sistemas de seguridad, redes industriales de control, teleoperación, telemedición, entre otras [7]. En la figura 6 se presenta la vista frontal (a) y superior (b) de la estación de monitoreo B, la cual cuenta con tres niveles y cada una de sus partes está relacionada con la Tabla IV. TABLA IV. Nivel No. 1 2 3 3 4 5 2 6 7 1 8 COMPONENTES DE LA ESTACIÓN DE MONITOREO B Nombre Ventilador LED indicadores de alertas Sensor de gas CH4 Sensor de gas CO Sensor de gas H2 Sensor de temperatura y calibración Dispositivo Wifly Dispositivo ZigBee E. Red de monitoreo y control móvil Esta aplicación es utilizada mediante dispositivos móviles, en la que se establece conectividad Wi-Fi, lo cual es importante para el monitoreo y control en tiempo real, sin la necesidad de acercase a la central o servidor del sistema, para lograr conocer la información, desde allí puede acceder de forma remota, en caso dado de tomar alguna acción de preventiva o de emergencia al sistema. IV. RESULTADOS En la Tabla V, se relacionan los datos sobre atmosferas explosivas tomados del articulo “Explosividad de gases desprendidos en los incendios subterráneos en minas de carbón” [16]. Con el propósito de verificar la señal de alerta, se envían los mismo datos desde las dos estaciones de monitoreo, para luego ser registrados mediante el servicio móvil en el celular, estos datos son tomados como referencia, porque han sido parte de casos de estudio y de esta manera se puede garantizar una evaluación de la herramienta, tanto en la parte de comunicaciones como del procesamiento de datos. TABLA V. % VOLUMÉTRICOS DE LOS GASES COMBUSTIBLES [16] En la figura 7 (a) se presenta la parte frontal de la estación de monitoreo A, posteriormente en la parte (b) se puede apreciar las dos estaciones de monitoreo A y B. Fig. 7 Estación de monitoreo A. (a) vista frontal, (b) estaciones A y B. CO H₂ O2 N2 CO2 9% Fig. 6 Estación de monitoreo B. (a) Vista frontal, (b) Vista superior. CH₄ 6% 4% 7% 64% 10% A. Red de sensores inalámbricos tramas API Para obtener los resultados de las tramas de comunicación API se utiliza la interface X-CTU, sobre las mediciones tomadas por las estaciones de monitoreo A y B, antes de ser procesadas por el sistema embebido o en su defecto el PC, de esta manera se tienen resultados más confiables, en la verificación de las tramas de comunicación: transmit request (0x10), receive packet (0x90) y Tx status (0x8b). Luego de identificar las tramas de comunicación API (ver figura 8), la recepción y transmisión de datos se caracteriza por: color rojo para recepción de datos y azul para la transmisión. Otro indicador de la trama es el Start Delimiter (hexadecimal de inicio) que toma el valor 7E y el checksum como dato de cola, el cual es el encargado de chequear la correcta construcción de la trama, consiste en la suma de cada uno de los datos de la trama (Sum) en código hexadecimal a partir del tercer dato del paquete, luego se toma el máximo valor hexadecimal de 8 bit (FF) y se resta la suma de los datos (FF-Sum), de esta forma se reporta el checksum a la trama.
    • La adquisición de datos medidos de los sensores de gases combustibles y del sensor de temperatura, son señales analógicas que varían entre 0 a 5 voltios (V) adecuadas de 0 a 100% el valor volumétrico para los gases combustibles (CH 4, CO y H2), y de 0 a 100oC para la temperatura. De esta manera se procede a la conversión A/D en el microcontrolador, el cual envía una dato de salida de cada sensor en código hexadecimal de (00 a FF) correspondiente al 0 y 100% de la señal medida, de forma análoga para la señal del sensor de temperatura [17]. Estos datos son tenidos en cuenta en la trama API de transmisión, a su vez se envía un 00 para indicar que el ventilador está apagado y un FF para encendido, el envío de los semáforos de alertas son enviados en un solo dato el cual el valor de F1 (verde), F2 (amarillo) y F3 (rojo). Estación de monitoreo B: 7E 00 12 90 00 13 A2 00 40 5D AC 98 FD 11 01 17 0F 0A 4D FF F1 5D En las tramas anteriores se denota la diferencia en la dirección de destino de 64 bit y en el Checksum 5A para la estación de monitoreo A y 5D para la estación B, pero los datos se mantienen igual (17 0F 0A 4D FF F1), lo cual garantiza la correcta transmisión de las señales medidas en cada estación, además se puede verificar una transmisión exitosa de los datos mediante la trama Tx status (0x8b) 7E 00 07 8B 01 00 00 00 00 00 73, la cual indica que el paquete de datos transmitido fue llevado a cabo con éxito (ver figura 8). De esta manera la trama de transmisión (0x10) tomando como referencia los datos de la tabla II, para el caso de la estación de monitoreo estación A es: 7E 00 14 10 01 00 13 A2 00 40 86 0D 69 FF FE 00 00 17 0F 0A 4D FF F1 93 7E: indica la cabecera de la trama. 10: indica la trama API Transmit Request (0x10). 00 13 A2 00 40 86 0D 69: Dirección de destino de 64 bit (dirección del ZigBee coordinador). 17 0F 0A 4D FF F1: Datos transmitidos al coordinador 17 (CH4 9%), 0F (CO 6%), 0A (H2 4%), 4D (Temperatura 30oC), FF (Ventilador encendido) y F1 (Indica el semáforo de alerta en verde). 93: checksum De forma análoga se transmite la información desde la estación de monitoreo B: 7E 00 14 10 01 00 13 A2 00 40 86 0D 69 FF FE 00 00 17 0F 0A 4D FF F1 93 Una característica importante de estos paquetes de datos, consiste que la dirección de destino de 64 bit es la misma, esto se debe a que los router ZigBee le están enviando la información al coordinador. Para que el coordinador distinga que router le envío los datos, el algoritmo diseñado en el entorno de programación de LabVIEW, realiza un test de la trama API de recepción (0x90) y a su vez verifica la dirección de 64 bit de origen. De esta manera se extraen los datos y se imprimen en la interface gráfica (ver figura 9) [18]. Las tramas de recepción en el ZigBee coordinador, de las estaciones de monitoreo (A y B) son: Estación de monitoreo A: 7E 00 12 90 00 13 A2 00 40 92 BE 6B 2E C9 01 17 0F 0A 4D FF F1 5A Fig. 8 Tramas de transmisión, recepción y verificación API B. Sistema HMI servicio Cliente/servidor El sistema HMI, está diseñado bajo el entorno de programación LabVIEW, el cual presenta los resultados de las estaciones de monitoreo A y B, reportando: el nivel porcentual volumétrico de cada gas combustible, el semáforo que ejecuta una señal visual de una posible conformación de atmósfera explosiva en este caso está en amarillo (alerta media), y el estado del ventilador (On/Off), además presta el servicio Cliente/servidor (Web Publishing Tool). En la Figura 9, se puede visualizar la HMI servidor y la HMI cliente desde la Web http://168.176.121.230:8000/ClienteServidor.html. En la HMI Cliente/servidor, se diferencia de la HMI servicio móvil, por el puerto de comunicación asignado, por lo tanto para la HMI Cliente/servidor el puerto de comunicación esta dado por el protocolo ZigBee en tramas API (ver figura 9), y para la HMI del servicio móvil vincula el puerto TCP/IP asociado a las direcciones de los dispositivos Wifly y móvil (ver figura 10).
    • Fig. 9 Sistema HMI LabVIEW Cliente/servidor. (a) HMI del servidor. (b) HMI del cliente en la Web C. Sistema HMI servicio móvil En la figura 10 se presentan los resultados de las estaciones de monitoreo A y B, mediante la HMI LabVIEW móvil, esta HMI asocia los dispositivos Wifly y móvil, mediante el direccionamiento TPC/IP, y se puede obtener los resultados en tiempo real iguales a los expuestos en la figura 9 por la HMI Cliente/servidor, de esta manera se vinculan las redes inalámbricas IEEE 802.15.4 e IEEE 802.11, como alternativa de solución a entornos complejos en la parte estructural de cableado, al llegar a puntos críticos y a estaciones de medición de difícil acceso [19]. Fig. 11 Conectividad disponible de dispositivos El tipo de seguridad para esta aplicación se implementa mediante el sistema de seguridad WPA (Wi-Fi Protected Access), este sistema se utiliza en gran parte por el estándar IEEE 802.11i. En el WPA la información es cifrada utilizando el algoritmo RC4 (Ron's Code 4), con una clave de 128 bits y un vector de inicialización de 48 bits, adicionalmente a la autenticación y cifrado del WPA también mejora la integridad de la información al compararse con algoritmos de seguridad como el WEP (Wired Equivalent Privacy), esto se debe a que WAP incrementa el tamaño de las claves y el número de llaves en uso, por lo tanto agrega un sistema de verificación de mensajes. Además el sistema de seguridad WPA hace que la entrada no autorizada a redes inalámbricas sea más difícil. En la figura 12, se puede observar la conexión del módulo Wifly con el router por medio de la interface X-CTU, esta interface es la misma utilizada en la configuración de los módulos XBee, por lo cual el X-CTU se convierte en una herramienta fundamental para los dispositivos Wifly y XBee, debido a que posee un puerto serial para comunicarse. Fig. 10 Sistema HMI LabVIEW móvil D. Red de medición y control móvil En la red de medición y control móvil, se debe realizar una previa inspección de las redes inalámbricas del medio, en la cual se identifique el móvil celular (ver figura 11). Para este caso se utiliza un celular con sistema operativo en código abierto Androide versión 4.0, y se puede visualizar la conectividad disponible de los dispositivos de la red mediante la aplicación Fing - Network Tools, de esta manera se obtiene el escaneo: SSID (Service Set IDentifier) “marin”, dirección IP móvil (192.168.1.2), dirección IP del computador (192.168.1.4), dirección IP Wifly (192.168.1.10), dirección IP del gateway (192.168.1.254) [20]. Para acceder a la información del dispositivo Wifly, se debe comenzar con la secuencia de caracteres $$$, la cual inicia el modo de comandos, luego el dispositivo responde con CMD lo que indica que entro al modo de comandos. De esta manera se procede a reiniciar el módulo con el comando Reboot; y nos da la siguiente respuesta: *Reboot*: nos indica que ya reinicio el módulo Wifly. Ver 2.32, 02-13-2012 on RN-171: versión del Wifly y referencia del módulo “RN-171”. MAC Addr: dirección MAC del módulo Wifly. Auto-Assoc: conexión automática a la red identificada con SSID “marin”. chan 6; canal de comunicación 6. mode=WPA1: Tipo de seguridad.
    • Fig. 12. Configuración de conectividad del dispositivo Wifly Fig. 13. Recepción y transmisión de datos al móvil con aplicación GetBlue Los datos de transmisión y recepción en el dispositivo móvil, se realizan mediante la aplicación GetBlue, encargada de automatizar las tareas de adquisición de datos, captura los datos del dispositivo y los muestra, además cuenta con una característica importante, en la que ofrece la posibilidad de almacenar los datos en una hoja de cálculo de Google. De esta manera, en la figura 13 se identifica la IP: puerto (192.168.1.4:2000) mediante el cual establece la comunicación con el dispositivo Wifly. Además el móvil también puede establecer comunicación directamente con la HMI de servicio móvil. En esta red de medición y control móvil se utilizo un dispositivo celular para el monitoreo de señales provenientes de las estaciones (A y B) de sensores de los gases combustibles y temperatura, y el accionamiento de los ventiladores. Para la identificación de los datos en el celular, se inicia la trama con la letra “A ó B”, la cual indica la estación de monitoreo A ó B respectivamente, luego viene expresado los porcentajes volumétricos de cada concentración de gas combustible: metano (CH4), monóxido de carbono (CO), hidrogeno (H2) y temperatura (T) en grados centígrados, por último se tiene la información del ventilador (0) apagado y (1) encendido. De forma análoga se identifican los datos para la estación de monitoreo B (ver figura 13). Estación de monitoreo A: A CH4 9,00% CO 6,00% H2 4,00% T 30V 1 A: hace referencia de la estación de monitoreo en este caso (A), de forma análoga para la estación (B). V 1: indicador (On/Off) del ventilador (1) encendido para este caso, (0) en apagado. Esto se cumple para las dos estaciones, al igual que la medición de los sensores de gases combustibles. Estación de monitoreo B: B CH4 9,00% CO 6,00% H2 4,00% T 30V 1 En la figura 14 se presenta el diseño de la aplicación móvil desarrollada con el SDK (Software Development Kit) y las herramientas ADT (Android Development Tools), para el envío y transmisión de datos de las estaciones de monitoreo A y B. Esta aplicación se le asigna el nombre de movilWSN “aplicación móvil para redes de sensores inalámbricos”, por lo tanto cumple la misma funcionalidad en el manejo de datos que la aplicación GetBlue. La aplicación movilWSN obtiene los mismos resultados de las tramas registradas en la figura 13, de esta manera se puede contar con una aplicación en desarrollo para otros sistemas de monitoreo y control móvil. Fig. 14. Recepción y transmisión de datos al móvil con aplicación movilWSN. (a) Icono, (b) interface. En la figura 15, se muestra la captura del paquete de datos que contiene la información transmitida por el computador con dirección IP 192.168.1.4 al dispositivo Wifly con IP 192.168.1.2. Esta captura se realiza mediante el analizador de protocolos Wireshark versión 1.10.1, en la cual se presentan los resultados por fragmentos de la trama de la siguiente manera: (a) hace referencia al encapsulamiento Ethernet, la parte (b) indica la estructura del protocolo IP, el fragmento (c) corresponde al protocolo TCP y por último el fragmento (d) corresponde a los datos enviados. Además se puede apreciar el identificador de las estaciones (A y B), y el direccionamiento de origen y destino.
    • REFERENCIAS Fig. 15 Captura Wireshark del paquete de datos TCP V. CONCLUSIONES De acuerdo a los resultados obtenidos por medio de las herramientas de captura y análisis de datos: X-CTU, Wireshark, HMI LabVIEW, GetBlue y la aplicación movilWSN, sobre el sistema interconectado mostro ser confiable en la transmisión y recepción de datos, a través de los diferentes protocolos utilizados, demostrando de esta manera su gran escalabilidad y flexibilidad, permitiendo a los usuarios tener información en tiempo real, tanto en un punto especifico como móvil. Este desarrollo permite construir una gran variedad de topologías de red, permitiendo la inclusión de diferentes y nuevas tecnologías a estas redes, siendo de gran utilidad en el momento de monitorear y administrar la información, de una manera rápida y eficiente, con la alternativa de dinamizar la estructura del sistema interconectado. El sistema desarrollado contribuye a incrementar la seguridad laboral del minero, ya que permite tener un seguimiento continuo sobre los valores porcentuales de los gases combustibles, en ambientes de difícil acceso que se presenta en las minas de carbón subterráneas, y a su vez se puede registra un historial de datos como herramienta estadística, para un posterior análisis de las variables criticas que conforman las atmósferas explosivas. Un aspecto importante a tener en cuenta para un trabajo futuro, es la implementación de un servidor Web, con el cual la información estará disponible, desde cualquier punto de red con acceso a Internet. AGRADECIMIENTOS Este trabajo fue financiado por el Departamento Nacional de Ciencia, Tecnología e Innovación, COLCIENCIAS por medio del proyecto de investigación ”Sistema Sensórico para la Inspección de Autopartes en la Linea de Ensamble” aprobado en la convocatoria ”569-2012 Banco de Proyectos elegibles de CTeI”. [1] H. Toshi, H. Hisanori, K. Tsuyoshi and S. Hisashi, "Industrial Wireless Standardization - Scope and Implementation of ISA SP100 Standard," SICE Annual Conference, pp. 2059-2064, Sep. 2011. [2] R. Verdone, D. Dardari, G. Mazzini and A. Conti, Wireless sensor and actuator networks, Academic Press, 2008. [3] R. Challoo, A. Oladeinde, N. Yilmazer, S. Ozcelik and L.Challoo, "An Overview and Assessment of Wireless Technologies and Coexistence of ZigBee, Bluetooth and Wi-Fi Devices," Conference Organized by Missouri University of Science and Technology, pp. 386-391, 2012. [4] I. Howitt and J. A. Gutierrez, “Low-Rate Wireless Personal Area Networks – Enabling Wireless Sensors with IEEE802.15.4,” Proc. IEEE WCNC’03, vol.3, pp. 1481-1486, 2003. [5] XBee® / XBee-PRO® ZB RF Modules, Digi International Inc., 2012. [6] C P. Corral, J. A. Perez and and O. Ludwig “Parking Spaces Detection In Indoor Environments Based On Zigbee,” IEEE LATIN AMERICA TRANSACTIONS, vol. 10, no. 1, pp. 1162-1167, 2012. [7] H. Labiod, H. Afifi, C. de Santis, “Wi-Fi, bluetooth, zigbee and wimax”, Springer 2007. [8] Cisco Systems, Inc., Internetworking Troubleshooting Handbook, Troubleshooting TCP/IP, segunda edición, Cisco Press 2001. [9] T. Brooks, "Leveraging DoD wireless security standards for automation and control," InTech ISA, Abr. 2013. [10] L. Chapell, Wireshark network analysis: The Offcial Wireshark Certified Network Analyst Study Guide, Protocol analysis Institute. EEUU. Editorial Chapell University, 2010. [11] Organización Internacional del Trabajo (OTI), Enciclopedia de salud y seguridad en el trabajo, vol. III, Madrid: Chantal Dufresne, BA, 1998. [12] Organización Internacional del Trabajo (OTI), Proyecto de Repertorio de recomendaciones prácticas sobre seguridad y salud en las minas de carbón subterráneas, Primera edición, Ginebra, 2006. [13] J. Cheng and S. Yang, "Improved Coward explosive triangle for determining explosibility of mixture gas," Process Safety and Environmental Protection, vol. 89, no. 2, pp. 89-94, 2011. [14] H. F. Coward and G. W. Jones, Limits of Flammability of Gases and Vapors, US Bureau of Mines Bulletin 503, U. S. Government Printing Office, 1952. [15] J. Burbank, J. Andrusenko, J. Everett and W. Kasch, Wireless Networking: Understanding Internetworking Challenges, Wiley-IEEE Press, 2013. [16] W. Castro and C. P. Martínez, “Explosividad de gases desprendidos en los incendios subterráneos en minas de carbón,” Dyna, Universidad Nacional de Colombia, vol. 129, pp. 51-58, Mar. 2000. [17] Y. M. Yussoff, R. A.Rahman, N. H.Abidin and F. H.Yahaya, “Development of a PIC- based wireless sensor node utilizing XBee technology,” presented at the IEEE Int. Conf. on Information Management and Engineering (ICIME), Chengdú, 2010. [18] J. R. Lajara and J. Pelegrí, Labview Entorno Grafico de Programación, Alfaomega, 2007. [19] T. Ozkul, “Real-time Industrial Networks: Fieldbus Network Design,” 2010. [20] IEEE Standards association, IEEE Standard for Information technologyTelecommunications and information exchange between en systems local and metropolitan area networks-Specific requirements - Part 11: Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications," IEEE Std 802.11-2007 (Revision of IEEE Std 802.11-1999), 2012. Alvaro Romero Acero Candidato a Ingeniería de Control. Grupo de Investigación Inteligencia Artificial en Educación, Facultad de Minas, Universidad Nacional de Colombia, sede Medellín, miembro estudiante ISA (International Society Automation) sección Colombia, miembro de la comunidad LabVIEW. Sus áreas de interés son las redes inalámbricas basadas en el protocolo ZigBee, Wi-Fi, diseño de sistema SCADA, robótica y aplicaciones en control automático.
    • Alejandro Marín Cano Candidato a Ingeniería de Control. Grupo de Investigación Inteligencia Artificial en Educación, Facultad de Minas, Universidad Nacional de Colombia, sede Medellín, miembro estudiante ISA (International Society Automation) sección Colombia, miembro de la comunidad LabVIEW. Sus áreas de interés son las redes inalámbricas basadas en el protocolo ZigBee, Wi-Fi, desarrollo en el entorno de programación LabVIEW, robótica y aplicaciones en control automático. Julian Andres Orozco Quiceno Candidato a Ingeniería de Control. Grupo de Investigación Inteligencia Artificial en Educación, Facultad de Minas, Universidad Nacional de Colombia, sede Medellín, miembro estudiante ISA (International Society Automation) sección Colombia, miembro de la comunidad LabVIEW. Sus áreas de interés son las redes inalámbricas basadas en el protocolo ZigBee, Wi-Fi, diseño electrónico y programación de microcontroladores, robótica y aplicaciones en control automático. Jovani Alberto Jiménez Builes Profesor asociado de la Universidad Nacional de Colombia. Doctor en Ingeniería - Sistemas, Universidad Nacional de Colombia. Pasantía doctoral Grupo de Inteligencia Artificial, Universidade Federal do Rio Grande do Sul, Brasil. Magíster en Ingeniería de Sistemas de la Universidad Nacional de Colombia. Licenciado en Docencia de Computadores, Universidad de Medellín, Colombia. Ha realizado dos pasantías de investigación después de finalizar su doctorado, en Massachusetts Institute of Technology - MIT, Estados Unidos y Universidad Autónoma de Madrid, España. De igual manera, llevó a cabo una visita académica y tecnológica a nueve laboratorios de seis universidades en varias ciudades de Japón.
    • CIIMA 2013 Filtro digital ajustable usando micro softcore en FPGA para frecuencias entre 200 hz y 20 khz Adjustable digital filter using micro softcore on FPGA for frequencies from 200 hz to 20 khz Jorge E. Reita, Juan C. Uribe, Edwar Jacinto, Fernando Martínez Universidad Distrital Francisco José de Caldas, Bogotá, Colombia jorgereita _alc@hotmail.es jcub21@gmail.com ejacintog@udistrital.edu.co fmartinezs@udistrital.edu.co  Resumen— El filtrado digital hoy en día representa un reto para las tecnologías actuales debido su alto costo computacional, es por esto que mediante el uso de sistemas embebidos se ha buscado optimizar este tipo de filtrado utilizando las características de robustez que nos ofrecen dichos sistemas. Aunque el avance en esta área ha sido amplio a través de las últimas décadas, la automatización de los mismos es un campo poco explorado y es por esto que se hace necesario la generación de una aplicación que supla dicha necesidad. Este documento presenta la implementación de un filtro mediante una interfaz gráfica de Matlab que modifica algunos parámetros de un filtro como su frecuencia de corte, frecuencia de muestreo y tipo; dichos parámetros son generados de manera automática e implementados en una FPGA mediante un algoritmo tipo FIR usando una arquitectura MAC (Multiplicador Acumulador) y un microcontrolador softcore. Esta incursión en la automatización del filtrado digital brinda una visión de cómo podrían estar orientados futuros proyectos para sistemas embebidos en otras plataformas. Palabras Claves— Filtro Digital, Microcontrolador Softcore, Sistema Embebido. FIR, MAC, Abstract—Nowadays digital filtering is a challenge for the current technologies due to its high computing cost, for this reason using embedded systems it has looked for optimize this kind of filtering using the robustness of these systems. Although the advances in this area have been wide at last decades, its automation is a little-explored area, that is why it is necessary to generate an application that accomplishes this task. This paper shows the implementation of filter through a graphical interface on Matlab that modify some filter parameters such as its cutoff frequency, sample frequency and type. Those parameters are generated automatically and are implemented on a FPGA through and FIR algorithm using a MAC architecture and a softcore microcontroller. This approach to digital filtering automation gives a vision how the future projects would be oriented on other embedded system platforms. Key Words— Digital Filter, Embedded System, FIR, MAC, Softcore Microcontroller. I. INTRODUCCION A UNQUE los filtros digitales afrontan varios problemas en el momento de su implementación y diseño, uno de los que más intervienen es él de la cuantización [1] debido a que para obtener una buena respuesta del filtro, los coeficientes que van a multiplicar la señal muestreada deben ser todos comparables entre sí, el método usado mediante un algoritmo de redondeo y cuantización en Matlab nos da una buena aproximación. Más delante se mostrará las diferencia de la respuesta del filtro tomando coeficientes cuantizados y sin cuantizar, en este caso el mayor parámetro a tomar en consideración es el de la frecuencia de muestreo [2] teniendo en cuenta el teorema de Nyquist-Shannon [3] la frecuencia deberá ser de mínimo el doble de la máxima frecuencia presente en la señal de entrada para poder obtener una correcta reconstrucción de la señal. Lo anterior restringe el ancho de banda del filtro por las limitantes del conversor ADC [4] de la FPGA que establece la frecuencia máxima para el filtro, El algoritmo MAC (multiplicador Acumulador) [5] toma los valores de los coeficientes y realizará el proceso de filtrado de manera automática. Los filtros digitales ajustables pueden ser usados en aplicaciones de audio digital, y su principal barrera son las frecuencias de muestreo y el efecto aliasing [6], es por esto que se deben sentar unas bases sólidas para el diseño de filtros que funcionen a frecuencias mucho mayores que las de
    • CIIMA 2013 hoy en día. II. TIPOS DE FILTRADO DIGITAL A. Filtros tipo FIR Los filtros digitales de respuesta impulsional finita (Finite Impulse Response) se basan en obtener la salida a partir, exclusivamente, de las entradas actuales y anteriores. Así, para un filtro de orden N se tienen la expresión (1). Existen técnicas de compensación de fase mediante la utilización de filtros pasa todo, sin embargo esto aumenta la longitud total del filtro. Si no es necesario que el sistema sea causal (no funcionará en tiempo real) se puede conseguir fase lineal mediante filtros IIR realizando un filtrado bidireccional [9] este consiste en filtrar la señal, invertir el orden de las muestras obtenidas y volver a filtrar de nuevo lo que representa un costo computacional alto para un sistema digital. III. MÉTODO DE VENTANAS (1) Los Donde los {bk} son los coeficientes del filtro. La ecuación (1) es conocida como ecuación en diferencias y es el equivalente discreto de la ecuación diferencial que caracteriza al filtro. La ventaja de los filtros FIR es que pueden diseñarse para que presenten fase lineal [7]. La linealidad de fase implica que se verifiquen ciertas condiciones de simetría. Un sistema no causal con respuesta impulsional conjugada simétrica mostrado en (2) tiene una Función de Transferencia real. (2) Un sistema no causal con respuesta impulsional conjugada anti simétrica mostrado en (3) tiene una Función de transferencia imaginaria pura. Lo cual es viable de ser trabajado en un sistema digital [8]. El método de las ventanas se basa en acotar la respuesta impulsional infinita de un filtro ideal, el método del muestreo en frecuencia propone que se fijen una serie de puntos de la respuesta en frecuencia del sistema y, a partir de la DFT (Transformada Discreta de Fourier) inversa [10], obtener los coeficientes del filtro. Por último existe una familia de métodos que se basan en definir la respuesta en frecuencia ideal del filtro y, fijado un orden, obtener los coeficientes que generen la respuesta más aproximada, en particular, los más comunes se basan en la aproximación de Tchebyshev [11]. Este método consiste en truncar la respuesta impulsional infinita de un filtro ideal. El procedimiento es el siguiente: • Obtener la respuesta impulsional del filtro ideal que deseamos diseñar (pasa-baja, pasa-alta, etc.) • Delimitar una ventana de valores (truncar) dicha respuesta impulsional. es la respuesta impulsional de la ventana y es la respuesta del filtro ideal. La respuesta de la ventana debe ser de la forma de (5). (5) (3) B. Filtros tipo IIR Son sistemas cuya salida depende además de salidas anteriores y que estando en reposo, al ser estimulados con una entrada impulsional su salida no vuelve al reposo, de ahí el calificativo de filtros de respuesta impulsional infinita (IIR). La ecuación en diferencias general de la forma mostrada en (4). (4) Donde el orden es igual al máximo de M y N, Comparado con un FIR, un filtro IIR requiere un orden mucho menor para cumplir las especificaciones de diseño, sin embargo estos últimos no pueden diseñarse para tener fase lineal. • Desplazar la respuesta impulsional de la ventana un número adecuado de muestras para hacerla causal. También se puede desplazar la respuesta impulsional del filtro ideal previamente, para que la secuencia de la ventana sea causal. Son numerosas las funciones planteadas para delimitar una ventana para h(n) ideal y el decidirse por una u otra depende de las características del problema, es decir, si dada una longitud del filtro, lo importante es poder reducir al máximo la zona de transición (ventana rectangular), atenuar lo más posible los lóbulos secundarios (ventana Blackman) [12] u optar por una solución de compromiso. La expresión matemática de alguna de las principales ventanas es mostrada en la tabla 1. En las ventanas consideradas, la anchura del lóbulo principal es inversa al valor de N y la atenuación del lóbulo secundario no depende del orden sino del tipo de ventana. El orden determina la anchura de la banda de transición. Estas ventanas no son muy versátiles para el diseño de filtros ya que no es posible controlar la anchura de la banda de
    • CIIMA 2013 transición y la atenuación independientemente. Existen otro tipo de ventanas como la de Kaiser, definida con 2 parámetros N y β, que nos permiten controlar ambos parámetros independientemente. Su definición es más compleja, a partir de funciones de Bessel. La gran utilidad de esta ventana es que existen expresiones aproximadas para la elección de parámetros de diseño, además modificando los valores de β es posible tener formas de la ventana similares a las principales [13]. TABLA I PRINCIPALES VENTANAS [16]. eficiente para FPGAs. Las muestras de entrada se presentan en el registro de desplazamiento de entrada paralelo a serie (PSC) en la señal de entrada de frecuencia de muestreo. B. Arquitectura MAC El núcleo MAC FIR utiliza uno o más seguidores de tiempo compartido que se multiplican y acumulan (MAC) [16] unidades funcionales para el servicio de la N suma de productos de los cálculos en el filtro. El núcleo automáticamente determina el número mínimo de MAC motores necesarios para satisfacer al usuario especificado el rendimiento. Fig. 2 Diagrama de unidad MAC simple. IV. ARQUITECTURA DEL ALGORITMO DE FILTRADO Para la implementación del filtro diseñado Mediante la interfaz gráfica creada en Matlab se selecciona la FPGA Spartan3E y el Sotware ISE 12.4 de Xlinx. Dentro de la gran variedad de módulos que ofrece este compilador tendremos dos arquitecturas importantes. A. Arquitectura Distribuida La arquitectura distribuida en Xilinx conocida como Distributed Arithmetic FIR Filter [14] o FIR DA realiza cálculos tomando bits seriales de naturaleza distribuida en una serie aritmética SDA. Se han realizado mejoras al algoritmo básico con las cuales se desea eliminar esta limitación potencial de rendimiento [15]. Una vista simplificada de un FIR DA se muestra en Fig. 1. Fig. 1 Arquitectura serial distribuida para filtro FIR. La ventaja de una aritmética distribuida se enfoca en la eficiencia de la mecanización. Las operaciones básicas que se requieren son una secuencia de look-up tables, adiciones, sustracciones y corrimientos de la secuencia de entrada de datos. Todas estas funciones son mapeadas de manera MAC es la unidad básica del diseño. Para N-pulsos del filtro, en el muestreo instantáneo n, el bloque de MAC, recibe la entrada de muestras X(n-i) y calcula el valor parcial donde: (6) El primer término en la ecuación (6) representa la operación de multiplicación y el segundo término representa la suma acumulada de todos los términos de la ecuación del filtro iniciando desde el ultimo termino hasta . Esto significa que la unidad MAC implementa las operaciones de multiplicación y acumulación. Para lograr esta función, la MAC está compuesta en general de tres bloques, dos de estos complementan el circuito controlado por las muestras de los coeficientes, el siguiente es un multiplicador serial para implementar la multiplicación serial de cada bit, el tercer bloque es la sección de almacenamiento. La sección de almacenamiento consiste de un registro paralelo adentro, paralelo afuera, para almacenar uno de los coeficientes y otro registro serial adentro, serial afuera para almacenar el valor acumulado. Lo ideal es mantener la precisión completa a lo largo de toda la ruta de datos, la longitud del registro almacenado en el valor del acumulador es y la multiplicación serial necesita de algún número de ciclos para completar la operación multiplica/acumula.
    • CIIMA 2013 La estructura del filtro FIR es mostrada en Fig. 3. Esto consiste de una unidad input/output y un arreglo de N bloques MAC con coeficientes de almacenamiento. En el caso de un filtro no simétrico, cada celda de MAC recibe dos asignaciones de señales una para la unidad input/output y una para las celdas anteriores. El proceso de las celdas es recibir el dato y propagar el resultado en forma serial hacia la próxima celda. En el caso de un filtro simétrico, cada celda recibe tres asignaciones de datos, uno es asignado para la unidad de input/output, el segundo acumula un valor para la celda anterior y el tercero acumula un valor a la siguiente celda. El proceso de las celdas reciben el dato y generan dos valores a acumular, uno de estos propaga a la siguiente celda y el otro a una anterior [17]. En Fig. 5 se puede ver la respuesta esperada del filtro con coeficientes sin cuantizar se puede ver como al aplicar la función FIR1 tipo pasa altas con frecuencia de muestreo de 9KHz y de corte de 900Hz y la longitud de palabra de los coeficientes es de 8bits. Fig. 5 Respuesta esperada del filtro bajo los parámetros configurados Luego en Fig. 6 y Fig. 7 se observa la respuesta del filtro para coeficientes cuantizados y sus respectivas representaciones graficas (diagrama de Bode) tanto en frecuencia como en fase para su respectivo análisis. Fig. 3 Estructura del filtro con celdas MAC. V. IMPLEMENTACIÓN DEL ALGORITMO DE FILTRADO La generación del archivo COE en Matlab que tendrá el listado de coeficientes se genera mediante la interfaz creada en Matlab mostrada en Fig. 4 a partir de un filtro FIR digital, bajo la función B = fir1(N, Wn, type, window), diseño de un paso-bajo de orden enésimo de estructura digital, los rendimientos de los coeficientes y de longitud de filtro de N +1 vectores B (numerador). Los coeficientes se enumeran en potencias descendentes de z. La frecuencia de corte Wn debe ser 0,0 <Wn <1,0, correspondiente a 1,0 con la mitad de la frecuencia de muestreo. Fig. 6 Respuesta del filtro con coeficientes cuantizados bajo los parámetros configurados y sus respectivas representaciones Después de haber generado las diferentes gráficas para el análisis del filtro gracias a el algoritmo de filtrado, con esta interfaz el objetivo principal es generar los coeficientes y ofrecer las gráficas para su respectivo análisis. Lo esencial es dar una herramienta para facilitar el diseño de filtros digitales. Fig. 4 Interfaz Generación de código automático
    • CIIMA 2013 se tendrá como orden superior de compilación el diseño esquemático del mismo. En Fig. 8 se muestra el diseño de las entidades o bloques funcionales de lo que se llamara “Core” bloques que serán explicados uno a uno a continuación: Fig. 7 Diagrama de bode del filtro con coeficientes cuantizados bajo los parámetros configurados y sus respectivas representaciones Los coeficientes los podemos visualizar en el Comamnd Window de Matlab el vector llamado “Reita” son los coeficientes sin cuantizar en donde podemos evidenciar que son números entre 0 y 1 en donde no se puede evidenciar una diferencia significativa entre un número y otro; esto puede generar errores cuando se van a cargar en el Core que se encarga de realizar el filtro (arquitectura MAC). Reita = Fig. 8 Diagrama de bloques funciones en VHDL para el core del filtro Rom_r: En esta entidad apreciada en Fig. 9 es donde se almacenan los coeficientes declarando un arreglo de 255 posiciones. Columns 1 through 12 -0.0019 -0.0023 -0.0020 0.0004 0.0063 0.0145 0.0206 0.0175 -0.0016 -0.0388 -0.0897 -0.1425 Columns 13 through 24 -0.1825 0.8009 -0.1825 -0.1425 -0.0897 -0.0388 0.0016 0.0175 0.0206 0.0145 0.0063 0.0004 Columns 25 through 27 -0.0020 -0.0023 -0.0019 Debido a esto, es necesario hacer una cuantización a los coeficientes para evitar errores, los coeficientes cuantizados se guardan en un vector llamado “datos1” y es el que se va a utilizar para cargarlo en el Core del filtro datos1 = -1 -1 0 2 4 5 4 0 -10 -23 -36 -47 205 -47 -36 -23 -10 0 4 5 4 2 0 -1 -1 0 A. Implementación FPGA Siendo VHDL un lenguaje óptimo para las aplicaciones electrónicas es claro acotar que tiene un nivel bajo en cuanto a programación se refiere en comparación con otros leguajes como el JAVA o C++, pero a su vez su paralelismo ofrece una amplia ventaja en cuanto tiempos de proceso de máquina y multiplicidad de acciones, a continuación se muestra el diseño implementado para la generación del filtro en donde Fig. 9 Bloque de Rom para los coeficientes  clk(Entrada): Reloj de la tarjeta programado a 50Mhz.  Read_strobe(Entrada): este es el que se encarga de mover el cursor dentro del arreglo para obtener el coeficiente correcto que ha de ser multiplicado por la muestra, este es activado por el prescalizador del bloque del Conversor Analogico-Digital.  Dato_esc(7:0)(Salida): Bus de datos de 8 bits donde saldrán los coeficientes en su representación binaria con signo. AD1RefComp: En Fig. 10 se observa la entidad del conversor análogo digital, para su manejo se utiliza una máquina de estados finitos donde se tomaran las muestras con el máximo al que sea establecido el prescalizador, para efectos prácticos se toma como máximo una frecuencia de muestreo de 200khz que corresponde a 10 veces la frecuencia de filtrado máxima este parámetro se escoge bajo la respuesta obtenida en la interfaz, en Fig. 11 se muestra el modulo utilizado de la casa Digilent .
    • CIIMA 2013 Prescalizador1: Entidad encargada de prescalizar la frecuencia de la tarjeta para obtener la frecuencia de muestreo del conversor Analogico-Digital el diagrama de la entidad es mostrado en Fig. 12. Fig. 10 Bloque de conversor Analógico-Digital Fig. 12 Bloque de prescalizado  CLK(Entrada): Reloj de la tarjeta programado a 50Mhz.  RST(Entrada) : Boton de reset externo , coloca el estado inicial en la máquina de estados interna cuando este bit es afirmado.  SDATA1(Entrada): Pin Externo de entrada de la señal análoga  SDATA2(Entrada): Pin Externo de entrada de la señal análoga  START(Entrada): Entrada de la frecuencia de muestreo para el bloque funcional.  SCLK(Salida): Reloj de salida para el circuito integrado interno.  NCS(Salida): Chip Select para el trabajo con el integrado del conversor.  DONE(Salida):Estado alto indica que hay un dato saliente por el bus DATA  ATA1(Salida): Bus de salida de 12 bits que es el valor binario de la muestra tomada RAM: Entidad encargada de tomar el valor de la muestra y guardarla en un arreglo, de 500 posiciones es el lugar de donde se tomara la muestra para ser almacenada y después remplazada por la muestra siguiente, el diagrama de esta entidad es visto en Fig. 13. Fig. 13 Bloque de Ram para el almacenaje de las muestras  CLK(Entrada):Esta dada por la salida del prescalizador1 en la parte del conversor es el que indica que hay una nueva muestra para almacenar.  Valor(Entrada):.Bus de dato de entrada del conversor  Dato(Entrada):Contador de 8 bits donde se ira colocando las muestras de acuerdo a su aumento.  Read_dato(Salida): Bit de salida que indica al Core que hay un nuevo dato de muestra listo para multiplicarse  Dato_esc(Salida): Bus de datos de 12 bits donde saldrán las muestras. Contador: En esta entidad se realiza el conteo en 8 bits del número de muestras que se van a multiplicar por los coeficientes almacenados este contador se reinicia cada vez que se llega al número máximo de coeficientes. Fig. 14 Bloque de Conteo para Numero de muestras Adesor: Es un bloque concatenador de bits que aumenta a 32 el número de bits de entrada a la unidad MAC del Core, esto con el fin de dar mejor resolución a la salida. Fig. 11 Diagrama y fotografía del módulo ADC
    • CIIMA 2013 Fig. 15 Bloque Adesor de Bits MAC_Prueba: Es la arquitectura diseñada para realizar la operación de multiplicación y acumulación del Core, en Fig. 16 se observa el bloque funcional de la unidad MAC la cual después de haber realizado las multiplicaciones sucesivas enviara el valor obtenido para luego ser redondeado. Fig. 18 DAC y bloque de pines asignados Fig. 16 Bloque MAC  CLK(Entrada):Esta dada por la salida del prescalizador1 en la parte del conversor es el que indica que hay una nueva muestra para ser multiplicada  Ready(Entrada):Bit que indica que se han alcanzado el número de muestras máximo y que se tiene que reiniciar el proceso de acumulación , no sin antes dejar salir el dato.  A(Entrada):Bus de entrada de 32 bits para los coeficientes.  B(Entrada):Bus de entrada de 32 bits para las muestras.  C(Salida): Bus de salida de 80 bits. Fig. 19 Esquema de conexión DAC Redondeo: Este bloque es el encargado de realizar el redondeo y dejar el valor del dato en 12 bits, estos serán los datos de entrada del conversor Digital-Analógico. Fig. 17 Bloque Redondeo DAC_TOP: Esta entidad será la encargada de realizar la máquina de estados finitos para el manejo del conversor digital-análogo de la tarjeta mostrado en Fig. 18, dicho conversor cuenta con un manejo de datos bajo el protocolo SPI, en Fig. 19 se muestra la conexión esquemática interna ofrecida por la casa XILINX es un conversor de transmisión full-duplex de 12 bits de topología sincrónica. Fig. 20 Bloque DAC  CLK(Entrada): Reloj de la tarjeta programado a 50Mhz.  RESET(Entrada): Boton de reset externo, coloca el estado inicial en la máquina de estados interna cuando este bit es afirmado.  PATTERN(Entrada): Bus de datos de 12 bits es la entrada de datos para el conversor .  DAC_MOSI(Salida): Dato Serial “Master Output, Slave Input”  DAC_CLR(Salida): Reset para el Dispositivo LTC2624.  DAC_SCK(Salida): Reloj para el Dispositivo LTC2624.  DAC_CS(Salida): Chip-Select para el Dispositivo LTC2624.
    • CIIMA 2013  SPI_SS_B(Salida): Señal sincrónica para el manejo de la configuración SPI.  AMP_CS(Salida): Chip-Select para el amplificador interno.  AD_CONV(Salida): Datos serie del DAC.  SF_CE0(Salida): Flash Chip Enable.  FPGA_INIT_B(Salida): Bit de encendido para el Puerto B de la FPGA. MUX: Entidad encargada de visualizar los primeros 8 bits del valor del ADC en los led’s de la tarjeta. Fig. 23 Simulación de Filtro Pasa Altas a 1.5 kHz La siguiente simulación será para un filtro pasa banda con las siguientes características:  Frecuencia de corte : 2.5 KHz  Frecuencia de muestreo : 25 KHz  Orden : 30  Atenuación de las bandas: 40 dB.  Ganancia de la banda de rechazo: 1dB.  Coeficiente de cuantización : 8 bits Fig. 21 Bloque Visualización ADC VI. SIMULACIONES Para el proceso de simulaciones se utiliza la herramienta grafica de Matlab para realizar pruebas a distintas frecuencias y con diferentes topologías de filtro, estas luego serán reproducidas en la FPGA. En Fig. 22 se observa la simulación de un filtro pasa altas con las siguientes características:  frecuencia de corte : 1.4 KHz  frecuencia de muestreo : 14Khz  orden : 30  Atenuación: -29 dB.  Ganancia: 1dB.  coeficiente de cuantización: 8 bits. Fig. 24 Simulación de Filtro Pasa Banda a 2.2 kHz La última simulación será para un filtro rechaza banda con las siguientes características:  Frecuencia de corte : 2.5 KHz  Frecuencia de muestreo : 25 KHz  Orden : 30  Coeficiente de cuantización : 16 bits Fig. 22 Simulación de Filtro Pasa Altas a 1.4 kHz Fig. 25 Simulación de Filtro Pasa Banda a 2.2 kHz Luego se procese a realizar la simulación de un filtro pasa bajos con las siguientes características:  Frecuencia de corte : 1.5 KHz  Frecuencia de muestreo : 15Khz  Orden : 30  Atenuación: -29 dB.  Ganancia: 1dB  Coeficiente de cuantización : 8 bits Fig. 26 Entrada de 30.12 Hz y salida del filtro pasa banda de 30 Hz
    • CIIMA 2013 [4] [5] [6] [7] [8] [9] Fig. 27 Entrada de 50Hz salida del filtro pasa banda a 30 Hz [10] [11] [12] [13] [14] Fig. 28 Entrada de 56.81 Hz salida del filtro pasa banda a 30 Hz VII. CONCLUCIONES [15] El filtro digital diseñado bajo la interfaz de Matlab tiene una característica importante y es la simplicidad que representa no tener que calcular nuevamente los parámetros del filtro sino que se podrá hacer en modo automático desde el computador. Una ventaja de usar el algoritmo MAC es que reduce de manera considerable el número de compuertas usadas por la FPGA. El algoritmo MAC implementado para el análisis digital de señales (DSP) representa una solución al problema del costo computacional del filtrado digital. La cuantización y redondeo de los coeficientes dan lugar a una mayor simplicidad en el momento de la multiplicación y una mejor respuesta al filtrar. REFERENCIAS [1] [2] [3] Juan Manuel Luzuriaga, Pablo Cayuela, Sergio Olmedo, Guillermo Gutiérrez , “Desarrollo de filtros fir en fpgas muestreo y cuantización”, Universidad Tecnológica Nacional, Facultad Regional Córdoba , p.p 1-24, Ing. Edison Izquierdo Instituto tecnológico DECALME “Diseño de Filtros activos pasa Bajas y procesamiento digital de señales basico” pp 10-22, Mayo del 2009. Hanho Lee ,Gerald E.Sobelman,” Performance evaluation and optimal design for FPGA- based digit-serial DSP functions”, Department of Electrical and Computer Engineering, 200 Union Street SE, University [16] [17] [18] [19] of Minnesota, Minneapolis, MN 55455, USA Received 9 April 1998; accepted 14 January 1999 Carlos E Canto Quintal, “Convertidor analógico digital su conexión y aplicaciones” p.p 1-5 Zhongnong Jiang, “DESIGN OF FIR DIGITAL FILTERS WITH VERY FEW MULTIPLIERS AND ADDERS”, Institut fur Angewandte Physik der Universitat Frankfurt/M. Bo Tang He “Logical And Adaptive Synthesis for Digital Filters and aliasing effect “ Massachusetts Technical Institute pp 2-40 2012. J.Delgado-Frias “FPGA Implementation of Adjustable Wideband Fractional Delay FIR Filters”, School of Electrical Engineering and Computer Science Washington State University Pullman WA, USA. R Isermann, “Parameter Adaptative Control Algorithms“, A Tutorial, Automatica Vol 18-5, pp 513-528 1982. Sathyanarayan S. Rao y Kumar Chellapilla,” Design of Discrete Coefficient FIR Filters using Fast Simulated Evolutionary Optimization” Department of Electrical and Computer Engineering Villanova University, Villanova, PA 19085. Miguel Melgarejo-Rey Andrés Gaona-Barrera Carlos Barreto-Suárez ECUALIZACION DIFUSA ADAPTATIVA BASADA EN AGRUPAMIENTO POR NEURONAS PARA CANALES DE COMUNICACIÓN NO LINEALES Y VARIANTES EN EL TIEMPO. Laboratorio de Automática, Microelectrónica e Inteligencia Computacional (LAMIC) de la Universidad Distrital Francisco José de Caldas, Bogotá, Colombia., pág. 1-20 Año: 2010. I.D.Landau, “Adaptative Control –The Model Reference Approach“, Control And System Theory, Vol 8. Marcel Dekker,Inc. Alexander Jiménez Triana y Edgar N. Sánchez “SÍNTESIS DE UN CONTROLADOR PARA UN CIRCUITO CAÓTICO USANDO VHDL” Universidad Distrital, Facultad Tecnológica, Bogotá, Colombia. Mario Merino Márquez. “VIABILIDAD DE LA TARJETA BASYS2PARA SU IMPLEMENTACIÓN EN ELCONTROL DE UN PROCESO”.INSTITUTO TECNOLÓGICO DE TEHUACÁN, pág. 142 Año: 2012. Jesús Antonio Álvarez Cedillo, Klauss Michael Lindig Bos, Gustavo Martínez Romero. IMPLEMENTACION DE FILTROS DIGITALES TIPO FIR EN FPGA .Centro de Investigación e Innovación Tecnológica Unidad Azcapotzalco del Instituto Politécnico Nacional, México, D. F., pág. 1-5 Año: 2012. Walter Huang, Venkatesh Krishnan, Daniel Allred, Heejong Yoo,” Design Analysis of a Distributed Arithmetic Adaptive FIR Filter on an FPGA”, Center for Signal and Image Processing,Georgia Institute of Technology. F.Alba Blanco Applications of distributed arithmetic to digital signal processing: A tutorial review:' IEEE ASSP Magmine, vol. 6, pp. Gl9,July 1989. Jiménez, A., Camargo C. I., Cortés J. A.; “Síntesis de un Circuito Caótico Empleando VHDL”, Proceedings IX WorkShop Iberchip 2003. Benmouyal G, Design of a digital multi-curve time-overcurrent relay. IEEE Trans Power Deliver 1991;6(2):656–65 Simon He- “Inferencia estadística: Ajuste por variables instrumentales ADC CAD “estadística inferencial- Octubre 2004.
    • SISTEMA TELEMÉTRICO DE REGISTRO DE SEÑALES DE EMG SUPERFICIALES BASADO EN TECNOLOGÍA BLUETOOTH REGISTER WIRELESS SYSTEM OF EMG SIGNALS BASED ON BLUETOOTH TECHNOLOGY Robin Alfonzo Blanco Leonardo Andrés Góngora Velandia Estudiante de Ingeniería Mecatrónica Universidad Piloto de Colombia Bogotá, Colombia lgongora87@upc.edu.co Ingeniero Mecatrónico Universidad Nacional de Colombia Bogotá, Colombia Brian Chacón Hernández Estudiante de Ingeniería Mecatrónica Universidad Piloto de Colombia Bogotá, Colombia Resumen—En el presente artículo se planteó la mejora de un prototipo de medición y registro de señales electrofisiológicas humanas superficiales, basado en microcontroladores, amplificadores de instrumentación, filtros pasivos y comunicación Bluetooth. También se describe la importancia de los electrodos a usar ya que hay de varios tipos, y estos a su vez influyen de formas directas y diferentes a la medición. Además de un análisis por transformadas de Fourier para comprobar si se estaba obteniendo las mediciones pertinentes y con una buena relación señal ruido. Palabras nerviosas. Clave: Electromiografía, Bluetooth, Señales Abstract— This paper proposes an improvement of a prototype capable to measure and register surface EMG (electromyographic) signals. This system is based on different kinds of electronic designs and electronic components like microcontrollers, passive filters and instrumentation amplifiers, also including a Bluetooth interface to communicate the prototype and the computer. The importance of dry electrodes is presented due the relevance that these represent regarding the possible variations in the signal to measure. An analysis using Fourier transform was made to prove if the prototype was working properly establishing a good signal to noise ratio. Key Words: Electromiography, Bluetooth, electromiographic signals. I. INTRODUCCIÓN El estudio de las señales electrofisiológicas humanas superficiales (donde se puede encontrar la electromiografía (EMG), la electroencefalografía (EEG) o la electrocardiografía (ECG)), es de gran importancia para determinar la homeóstasis en términos fisiológicos de un paciente, y las posibles alteraciones que hayan en este, debido a variedad de patologías, traumas y efectos debidos al tratamiento con fármacos. De ahí surge la importancia de diseñar instrumentos que midan fielmente estas señales y la forma de realizar las mediciones de tal forma que sea menos traumática para el paciente. En el proceso de medición de algunas de estas señales, se hace el uso de métodos invasivos y de conexión a un gran número de cables a los equipos médicos de medición, generando en algunos pacientes incomodidad y niveles pequeños de estrés, los cuales pueden alterar de manera significativa la toma de mediciones y por ende, la obtención de un correcto diagnóstico. Buscando minimizar los efectos anteriormente descritos, hoy en día se opta por desarrollar dispositivos portátiles haciendo uso de tecnologías de baterías de mayor duración, circuitos integrados de bajo consumo y tecnologías inalámbricas, logando que estos dispositivos sean más pequeños, livianos y cómodos para el paciente.
    • Se escogieron como objeto de análisis las señales de EMG superficiales en miembro superior, específicamente en antebrazo, como primer paso para el desarrollo y calibración de un dispositivo versátil en la medición de señales electrofisiológicas en un paciente en el quehacer de sus actividades cotidianas. II. CONCEPTOS PRELIMINARES A. Electromiografía: En medicina, es común encontrar gran cantidad y diferentes tipos de exámenes que indican información relevante acerca de alguna parte específica del cuerpo humano. Uno de los exámenes comúnmente realizados y que brinda información importante acerca del estado de los músculos, es la Electromiografía (EMG), que específicamente hablando, hace referencia a un examen que se encarga de evaluar y proporcionar información acerca de la actividad eléctrica de los músculos esqueléticos, comprendiendo su estado fisiológico. El análisis en la EMG, entiende diferentes aspectos asociados al estado del músculo esquelético al cual se le realiza el análisis. Dentro de esta técnica convencional, hay dos señales nerviosas que se deben analizar para obtener un estado general del músculo al cual se le realiza el diagnóstico. El primero de estos análisis es realizado cuando el músculo se encuentra en reposo o en estado basal, es decir, cuando el paciente no realiza ningún movimiento y el músculo se encuentra en estado de relajación. Al inicio de este primer análisis, en el dispositivo de visualización de la señal, (que puede ser un osciloscopio o una interfaz de usuario) se pueden encontrar algunos picos de voltaje, debidos a la variación del potencial en el momento de la inserción del electrodo. Con la información registrada en este análisis se buscan potenciales de denervación de las fibras musculares para el correcto diagnóstico de las patologías del músculo analizado. [1] Como segundo objeto de análisis, se busca registrar de manera adecuada la señal que se genera cuando el musculo se encuentra en estado activo, es decir, el análisis de la actividad eléctrica durante la contracción voluntaria [1]. Este análisis sirve adecuadamente para encontrar los potenciales eléctricos de las placas neuromusculares, para la realización del diagnóstico. La EMG de fibra única [2] también llamada de fibra aislada [1], permite el registro de la actividad eléctrica de fibras aisladas, con lo cual se pueden determinar los estados de las placas motoras individuales de cada fibra muscular. B. Electrodos en la EMG: En la práctica médica, la correcta realización de pruebas de este tipo, depende en gran medida de los electrodos a utilizar. Dentro de las clases de electrodos usualmente usados en exámenes de electromiografía, se pueden encontrar: electrodos profundos o de inserción (monopolares o coaxiales), y electrodos superficiales (secos o con geles). A la hora de la realización de un electromiograma, es común y frecuente la utilización de electrodos profundos, ya que su uso está más difundido. Además, permiten detectar señales independientes que reciben los músculos esqueléticos de las neuronas. Esta es limita de sobremanera a la hora de utilizar electrodos superficiales en la realización de este tipo de pruebas, pero aunque con los electrodos de aguja el registro de señales puede ser mejor en términos prácticos, se presentan desventajas para el paciente, tales como la preparación y la incomodidad que debe soportar antes de la realización de las pruebas utilizando estos electrodos. Se optó en este proyecto, por la utilización de electrodos superficiales, que a diferencia de los de inserción son fáciles de utilizar, su uso representa mayor comodidad para el paciente y además son desechables (en el caso de los electrodos secos). [3] Los electrodos superficiales, pueden ser secos o con geles. Se presenta a continuación una diferenciación entre estos tipos de electrodos superficiales. Los electrodos que utilizan geles, con el tiempo pierden su adherencia, lo cual hace que se incremente la impedancia de contacto entre el electrodo y la piel, causando una notable diminución de la relación señalruido. Otra desventaja en la utilización de este tipo de electrodos, es que al presentarse en algunos casos sudoraciones en las áreas de contacto (entre la piel y el electrodo) y dispersión del gel conductivo, pueden generarse corrientes parásitas debido al intercambio de electrolitos entre la piel y el medio externo, dichas corrientes pueden mezclarse con los potenciales eléctricos que se desean medir en la placa neuromuscular, haciendo que la medición sea afectada, y por tanto el análisis también. [4] En cuanto al funcionamiento específico de los electrodos anteriormente descritos, comparativamente hablando, los electrodos superficiales secos son en gran medida mejores que aquellos que utilizan geles, dado que se ha demostrado que la relación señal-ruido que presentan los electrodos secos es mucho menor. También se ha observado que estos son menos susceptibles al ruido en la señal que se puede generar por el movimiento del paciente. [5] Dadas las anteriores razones, para la realización del proyecto aquí presentado, se dispusieron de electrodos secos superficiales como el que se aprecia en la Figura II.1. Figura II.1- Electrodo superficial marca 3M™ (Figura tomada de www.3m.com)
    • Figura III.1 Diagrama esquemático de filtro y amplificador de ganancia 100 III. MÉTODOS La indumentaria médica ha estado en constante desarrollo, y es común encontrar dispositivos de diagnóstico médico que no solo son portables y fáciles de utilizar para los médicos, sino que también están diseñados para brindar confort a los pacientes. Debido a la facilidad en su utilización, la tecnología Bluetooth se ha venido popularizando de manera gradual desde su creación hasta la fecha, y representa facilidad de manejo e implementación, no solo para dispositivos de entretenimiento o comunicación, sino también para los equipos médicos, ya que dicha tecnología actualmente se encuentra aprobada para esta clase de unidades [4] [6]. Dado que este protocolo de comunicación es inalámbrico por medio del uso de señales de radio frecuencia, es ventajosa su aplicación en equipos para diagnostico médico, donde normalmente en los exámenes se debe poner al paciente fuera de su área de comodidad para realizar un diagnóstico bajo parámetros controlados. La realización de un dispositivo capaz de captar señales eléctricas en los músculos esqueléticos; utilizando tecnología Bluetooth y garantizando desde su diseño que sea portátil, sin duda es un elemento de gran alcance en el área médica, no solo por su aplicabilidad, sino también por su uso para la investigación de patologías musculares. Como segunda parte importante, se encuentra la etapa de conversión análoga a digital de la señal capturada por medio de los electrodos posteriormente de haber sido filtrada, para después ser tomada por canales diferenciales de ADC del microcontrolador MSP430F2013. Dicho microcontrolador fue configurado para que la señal que llegara tuviera una amplitud máxima de 1.2 Voltios, esto, debido a que el voltaje máximo de entrada en los canales diferenciales del ADC que tiene el micro es de 1.2 Voltios. Después de esto, los datos se envían por protocolo de comunicación serial RS232, manejado con niveles de voltaje TTL de 3.3 Voltios hacia el módulo bluetooth, encargado de enviar los datos de manera no alámbrica a un ordenador. La información de la señal convertida a datos discretos, es llevada a un módulo bluetooth configurado para el envío de datos a 230400 bits por segundo. A diferencia de otros dispositivos similares [7], la velocidad es necesaria para garantizar que el muestreo de la señal en el ordenador sea bastante alto, para que la señal capturada esté acorde con la mostrada. El desarrollo de la tarjeta que contiene las fases ya mencionadas se hizo a una escala de centímetros, como se puede ver en la figura III.2 sin hacer uso todavía de componentes de montaje superficial debido a los diversos que se hicieron en el diseño y a las continuas pruebas que se plantearon para esta. El desarrollo del sistema de obtención de EMG consiste de cuatro fases importantes, y necesarias para la correcta captura, visualización y análisis de la señal a medir. Dentro de los parámetros tenidos en cuenta para la elección de los implementos electrónicos que se nombran a continuación, comprenden las características inherentes de un sistema de esta clase, como la velocidad de transmisión, frecuencia de muestreo, amplificación y transmisión vía inalámbrica [6]. La primera fase, se trata de una etapa de filtrado y amplificación, con la cual se busca tomar la señal de manera que no estén presentes frecuencias altas con respecto a la señal a medir, ni frecuencias bajas que contengan las componentes DC de la señal. Se utilizaron amplificadores de instrumentación INA129P de la marca Texas Instruments™, para éste propósito. Dado que las señales capturadas tienen una amplitud baja (en el rango de micro-voltios), se dispuso de una ganancia neta de 100. Esto fue realizado por medio de un filtro pasa banda, cuyo diagrama representativo se puede ver en la Figura III.1. Figura III.4 Tarjeta desarrollada que incluye el microcontrolador, los amplificadores y los filtros. Por último, se encuentra la etapa de recepción de los datos enviados por el módulo bluetooth, por parte del ordenador. Se realizó una interfaz gráfica en la que la señal capturada puede verse representada, además de guardada para su posterior procesamiento matemático con el fin de buscar información relevante acerca de la señal, y por ende del estado muscular de la persona a la cual se le realiza la prueba. En la Figura III.3, se puede observar la gráfica correspondiente a la interfaz gráfica desarrollada en una plataforma Java de desarrollo.
    • Figura IV.2 Señal cuadrada reconstruida de frecuencia de 20 Hz y Voltaje pico a pico de entrada de 10 mili-Voltios Figura III.3 Interfaz gráfica. IV. RESULTADOS Y DISCUSIÓN Como primera parte de las pruebas pertinentes para la evaluación y corrección del sistema, se capturaron señales generadas a partir de un generador de señales, estas formas de onda fueron visualizadas en la interfaz gráfica de Java, para luego ser registradas. La Figura IV.1, muestra los dos canales del sistema funcionando en perfectas condiciones. En la Figura IV.2, se puede observar la señal reconstruida correspondiente a una onda cuadrada de frecuencia de 20 Hz y voltaje de entrada pico a pico de 10 mili-voltios, con este registro, se pudo determinar que los datos guardados por medio de la interfaz de usuario, son correctos, y que pueden ser utilizados sin problema alguno para la realización de análisis matemáticos, los cuales son una herramienta bastante poderosa para analizar las formas de onda generadas en la placa neuromuscular. Dentro de los análisis matemáticos más comunes se pueden encontrar algoritmos de la Transformada Discreta de Fourier, Transformada Rápida de Fourier [8], filtros digitales [7] y herramientas mucho más poderosas como las Wavelets. [9] En la Figura IV.3, se observa el diagrama de magnitud de la transformada rápida de Fourier realizada para los datos registrados de la señal de la Figura IV.2. Dicha figura representa las frecuencias que componen a la señal cuadrada, por lo que se puede evidenciar todo un proceso adecuado desde la captura, pasando por la visualización, guardado y análisis de los datos para una señal común como una onda cuadrada. Figura IV.1 Prueba de los canales funcionando, y de la visualización de la señal en la interfaz gráfica. Luego de las pruebas de visualización, se hicieron pruebas correspondientes al registro de los datos de las señales. Estos datos son almacenados en un archivo de texto plano, para luego ser llevados a un programa de hojas de cálculo como Microsoft Excel® o Libre Office Calc, y posteriormente realizar una reconstrucción de los datos por medio de una gráfica de línea. Esto se realiza con el fin de revisar que no se presenten incongruencias de los datos discretos de la señal, en relación con la señal visualizada. Figura IV.3FFT para la señal descrita en la Figura IV.2 . V. ALCANCES El proyecto descrito en este paper, como se puede observar, se encuentra en estado de desarrollo, el cual hasta el momento representa un primer avance dentro de la temática de aplicación del mismo. Aunque el propósito de este avance del
    • proyecto actualmente está enmarcado en el ámbito del análisis médico, se puede lograr abstraer a aplicaciones más complejas que las de captura y diagnóstico, de manera tal que dependiendo de los análisis realizados con las señales capturadas, se puedan encontrar diferenciaciones de los potenciales eléctricos en las inserciones de la placa neuromuscular, para llegar así a relacionar dichas formas de ondas como variables de control para aplicaciones biomédicas en relación a prótesis u órtesis. A corto plazo y entendiendo la evolución del proyecto, es necesario para continuar, realizar la implementación de algoritmos de análisis matemáticos. Dentro de estos, y como primer recurso por su relativa facilidad para programar, se tiene la Transformada Discreta de Fourier (DFT: Discrete Fourier Transform); aunque este método es un recurso importante y fácilmente desarrollable, presenta desventajas debido al gran número de operaciones computacionales que se deben realizar para obtener las componentes frecuenciales de las señales medidas. Es por esto que al momento de querer disponerse de un estudio en línea de las señales, se requiere que el análisis de Fourier se realice lo más rápido posible, de ahí la implementación del método de la Transformada Rápida de Fourier. (FFT: Fast Fourier Transform) que a comparación con la DFT, permite un procesamiento de las componentes frecuenciales de las señales mucho más veloz, aprovechando los posibles cálculos repetitivos que se presentan debido a las propiedades de simetría y periodicidad en el operador de Fourier que se encuentran en el algoritmo de programación. El uso de las Wavelets, representa un análisis matemático poderoso, que debido a la naturaleza propia de las señales capturadas que son de tipo no estacionarias, hay información que no se puede llegar a analizar debido a que la respuesta en frecuencia de dichas señales varía en el tiempo. Este recurso de análisis es complementario al de cualquiera de los algoritmos de Fourier, ya que presenta limitantes en la información que puede llegar a mostrar [10]. La implementación de la transformada Wavelet representa un desarrollo de programación bastante complejo, por lo que se planea realizar en un periodo de mediano plazo. Por otro lado, la implementación de filtros digitales, permite visualizar las formas de onda capturadas con mejor relación señal ruido [7], permitiendo asegurar al usuario que la señal visualizada es fiel representación de la medición hecha, para realizar un correcto diagnóstico del estado en el que se puede encontrar el musculo al que se le practica la prueba. En resumen el uso de herramientas computacionales es de gran utilidad para visualizar y analizar de manera adecuada las formas de onda capturadas por el sistema desarrollado, por lo que se hace necesaria la implementación de estos algoritmos para realizar un correcto y completo análisis de las señales. VI. CONCLUSIONES El diseño de este prototipo basado en tecnología bluetooth mostro la gran utilidad de transmitir datos de una forma fácil, con una buena rata de transmisión y un buen alcance sin tener un gran consumo de energía, los cuales son parámetros importantes para un dispositivo portátil, además de permitir comunicar con una gran cantidad de dispositivos no solo computadores sino tablets y smartphones, lo que permitiría llegar a plantear este dispositivo para la producción y venta a personas y entidades que requieran la medición fiable de una señal electrofisiológica de forma portátil y a un costo moderado. VII. REFERENCIAS [1] Dr. C. Carlos Santos Anzorandia y Dra. C. Esther Medina Herrera Dr. C. Roger Álvarez Fiallo, "Desarrollo histórico y fundamentos teóricos de la electromiografía como medio diagnóstico," Revista Cubana de Medicina Militar, vol. 35, no. 4, Octubre 2006. [2] Rafael Barea Navarro, "Electromiografía," Universidad Alcalá. Departamento Electrónica.Instrumentación Biomédica, Alcalá de Henares, Review. [3] Madeleine M. Lowery, Charles J. Heckman, Allen Taflove, and Todd A. Kuiken Nikolay S. Stoykov, "Recording Intramuscular EMG Signals Using Surface Electrodes," in 9th International Conference on Rehabilitation Robotics, Chicago, 2005. [4] Paolo Bifulco, Rafael A. Calvo, Mario Cesarelli, Craig Jin and André van Schaik Gaetano Gargiulo, "A mobile EEG system with dry electrodes," School of Electrical and Information Engineering, The University of Sydney y Dipartimento di Ingegneria Elettronica e delle Telecomunicazioni (D.I.E.T.) “Federico II” University of, Napoles, Paper IEEE 978-1-4244-2879-3, 2008. [5] Kirkup L. Searle A, "A direct comparison of wet, dry and insulating bioelectric recording electrodes.," Department of Applied Physics, University of Technology, Sydney, Broadway, NSW, Australia, Sydney,Australia, Paper Medline 10847194, 2000. [6] Brian Alexander Chacon Hernandez y Robin Alfonzo Blanco Cañon, "Osciloscopio Bluetooth," Universidad Piloto de Colombia, Bogotá, Conferencia 2012. [7] Wonkeun Youn and Jung Kim, "Development of a Compact-size and Wireless Surface EMG measurement system," in ICROS-SICE International Joint Conference 2009, Fukuoka, 2009, pp. 1625-1628. [8] Pantelis Georgiou, Amir Eftekhar, Chris Toumazou,Lynsey Duffell, Jeroen Bergmann, Alison McGregor Irina Spulber, "Frequency Analysis of Wireless Accelerometer and EMG Sensors Data: Towards Discrimination of Normal and Asymmetric Walking Pattern," Imperial College London, London, Paper 978-1-4673-0219-7, 2012. [9] LUO Zhizeng ZHANG Qingju, "Wavelet De-noising of Electromyography," in International Conference on
    • Mechatronics and Automation, Luoyang, China, 2006, pp. 1553-1558. [10] Robi Polikar, The Wavelet Tutorial, 2001, Rowan University.
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. 1 Diseño de un equipo de soldadura basado en gas HHO extraído del agua. Design welding equipment based on HHO gas extracted from water. Ramirez P. Gustavo. garamire@unal.edu.co Universidad Nacional de Colombia, Facultad de Minas. Resumen— Este Artículo trata sobre el diseño de un equipo de soldadura basado en gas HHO extraído del agua. Gas que se produce por electrolisis del agua. En la primera parte describe los principios básicos de operación. En la segunda parte enumera los elementos fundamentales que lo conforman. En la tercera parte describe con algún detalle cada parte que conforma el equipo completo y su relación con la estructura general. En la parte final se presentan aportes y resultados de esta investigación; así como argumentos que justifican la importancia de esta nueva tecnología. Índice de Términos— Antorcha, Celda de Electrolisis, Doble Capa, Electrolisis, Electrolizador, Flama, Flujo de Gas, Fuente de poder, Hidrogeno, HHO, Oxigeno. Abstract— This article deals with the design of welding equipment based on HHO gas extracted from water. Gas produced by electrolysis of water. The first part describes the basic principles of operation. In the second part lists the key elements that comprise it. In the third part describes in some detail each part that makes up the entire team and their relation to the overall structure. In the final part presents contributions and results of this research, as well as arguments that justify the importance of this new technology. Índex Terms— Torch Cell, Electrolysis, Double Layer, Electrolysis, Electrolyzer, Flame, Gas Flow, Power Supply, Hydrogen, HHO, Oxygen. I. INTRODUCCIÓN E n los últimos años se ha venido investigando sobre nuevas fuentes de energía alternativa. Una de las líneas más promisorias en la actualidad se refiere a la extracción de hidrogeno del agua o de otros compuestos orgánicos como alcoholes, amoniaco, residuos biológicos. Inclusive desde los mismos hidrocarburos como son los nuevos los procesos de reformado. Durante la búsqueda de un nuevo método de extracción de Hidrogeno del agua por electrolisis. Se pensó en la posibilidad de utilizar el gas HHO extraído del agua en aplicaciones menos exigentes que el transporte. Una propuesta es combustible alternativo para equipos de soldadura y como gas de blindaje en equipos de plasma e n soldadores tipo MIG o TIG[1]y con poder calorífico superior a un sistema de oxi-acetileno. Durante el desarrollo de este proyecto se encontró gran cantidad de información poco seria y empírica que no justificaban ninguna argumentación teórica, los procedimientos para llevar a cabo un equipo de soldadura por gas HHO. En respuesta a esta situación fue dar darle soporte teórico a algunos de los criterios electroquímicos que hacen posible que esta tecnología de soldador HHO se pueda materializar y proporcionar puntos de partida más acertados, que faciliten la dimensionalidad del equipo según la aplicación que se desee. Uno de los desafíos consistía en calcular la cantidad de corriente eléctrica necesaria para lograr un determinado flujo de gas. También se investigó sobre otras estrategias y principios físicos que pueden ser incorporados para mejorar la eficiencia del equipo en términos de proporcionar más gas por unidad de corriente en electrolisis. Esos factores fueron: efecto de la temperatura[2], metal de las celdas, ultrasonido[3] y las ondas de corriente compleja[4][5][6][7]. Finalmente proponer un eficiente y moderno equipo de soldadura basado en combustión de gas HHO, para ser aplicado en diversas labores de tratamiento de metales y materiales cerámicos y vítreos. II. PRINCIPIOS QUE RIGEN LA OPERACIÓN DE UN SOLDADOR DE GAS HHO A. Electrolisis La electrolisis es un proceso electroquímico que pretende separar el hidrogeno y oxigeno que forman una molécula de agua. (1) Para lograrlo se precisa de una corriente eléctrica y la adición de un compuesto que permita ionizar las moléculas de agua para facilitar el rompimiento de moléculas. Durante la electrolisis, se forma oxígeno en el ánodo e hidrógeno en el cátodo, teniendo lugar las siguientes reacciones: (2) Esta reacción por ser en la actualidad la más primitiva se ha denominado electrolisis de fuerza bruta y es el punto de
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. partida para proponer métodos de electrolisis mejorados, ya que esta forma de operar presenta una eficiencia pobre, cuando se enjuicia la cantidad de energía que se puede obtener de este reacción respecto a la energía eléctrica invertida. Todo este proceso es llevado a cabo en un equipo compuesto de electrodos metálicos llamado electrolizador. B. Catálisis. En el contexto de este equipo comprende los factores que acompañan la electrolisis, como son el material adecuado que forma los electrodos de la celda y los compuestos químicos que facilitan la ionización. Para construir los electrodos de la celda de electrolisis se prefieren metales nobles como platino pero por su elevado costo hace prohibitivo. Obligando a emplear materiales alternativos como el nickel que presenta un desempeño excelente, pero como el nickel es algo difícil de conseguir en comercios comunes se remplaza por aceros inoxidables con fuerte contenido de nickel como los aceros de calidades 304, 316 y 316L. Siendo este último el más adecuado por presentar una resistencia excepcional a la corrosión alargando la vida útil de la celda de electrolisis y evitando complicados mantenimientos y reparaciones. C. Electrolito. Se encarga de aportar los iones que facilitan la conducción eléctrica en el interior de la celda electrolítica. En este caso al tratarse de una electrólisis que emplea una solución de 𝐾𝑂𝐻 en agua, el electrolito también aporta el reactivo de la reacción. Para minimizar las pérdidas debidas a la resistencia del electrólito y debido a la resistencia notable de corrosión del acero inoxidable en este rango de concentración, se emplean soluciones de hidróxido de potasio al 25 - 40% [8]. Otros electrólitos son hidróxido de sodio acuoso o cloruro de sodio. Dado que la conductividad de los electrolitos convencionales aumenta con la temperatura, las unidades electrolíticas de 𝐻2 usualmente operan entre 60 – 90 ℃, justo por debajo del punto de ebullición de la solución acuosa [9]. La figura (1) muestra la conductividad del hidróxido de potasio como función de la concentración de electrólito y la temperatura. Queda claro observando esta figura que el rango óptimo de conductividad para el electrólito 𝐾𝑂𝐻 se encuentra entre 25 – 40 % y por consiguiente ésta es la concentración usada en los electrolizadores alcalinos comerciales [10]. D. Dinámica de burbujas. Este efecto que se da en la celda y se muestra en la figura (2). Y se estudió detalladamente en [9][11]. Es de suma importancia ya que tiende a empeorar la eficiencia de la celda. Es un desafío en el diseño lograr que el tiempo de permanencia de la burbuja así como su diámetro sobre los electrodos sea reducido al máximo. Se han propuesto varias estrategias. Como son el aumento de la densidad de corriente y la aplicación de ondas ultrasónicas para reventar las burbujas [3]. Otra estrategia que se suele emplear es instalar una bomba adecuada para trabajar a altas temperaturas con sustancias alcalinas. Estas bombas para evitar ser destruidas por los 2 corrosivos emplean motores sin escobillas o brussless, donde el efecto final es acelerar el flujo de electrolito dentro de la celda que ha demostrado tener efectos benéficos sobre la conductividad [9]. Figura. 1. Conductividad para el KOH Figura. 2. Detalle de la burbuja que abandona la celda. E. Formas de onda compleja para la corriente aplicada. En la actualidad es un tema de suma importancia en electroquímica y sus estudios e investigaciones se reúnen en la vertiente llamada Electroquímica sonora [12]. Que se encarga de estudiar los efectos de señales y ondas de baja frecuencia sobre procesos electroquímicos. En el caso de deposición galvánica se sabe que ondas de geometría pulsante mejoran bastante los efectos de una electrodeposición de nickel duro. También existen numerosas patentes que afirman que haciendo resonar el agua con un aporte reducido de energía eléctrica se logran cantidades apreciables de gas HHO [5]. Otras publicaciones afirman que es posible mejorar un proceso de electrolisis si se aplican frecuencias que logren hacer resonar los vértices de una molécula de agua que presenta forma de tetraedro. Esto lleva a proponer ondas complejas de corriente que presentan un contenido espectral de hasta cuatro fundamentales. Según [5]. Las frecuencias son: 1st armónico = 7960 Hz. 2nd armónico = 15,920 Hz. 3rd armónico = 31,840 Hz. 4th armónico = 63,690 Hz.
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. 3 III. MODELO MATEMATICO DEL ELECTROLIZADOR vez más amortiguado, es decir, a medida que incrementa la temperatura, las líneas 𝐼−𝑈 están cada vez están más juntas. A. Relación Corrientes voltaje Del electrolizador En este trabajo usaremos el modelo matemático desarrollado en [7][9][10]. Este tiene la ventaja de ser un modelo que requiere relativamente pocos parámetros y de describir suficientemente bien el sistema en cuanto a condiciones generales de diseño. Se trata de un modelo empírico y por consiguiente, es necesario medir experimentalmente algunos parámetros. Se trata además de un modelo que solo es válido en estado estable. La primera ley de la termodinámica para el sistema abierto, señala que: Q – Ws = ΔH (6) Donde Q es la cantidad de calor suministrada al sistema, Ws la cantidad apropiada de trabajo realizada por el sistema y ΔH es el cambio en entalpía del sistema. El trabajo realizado es la electricidad utilizada en electrolizador, por lo tanto, Ws es: Ws = -nFE (7) Donde: n - La cantidad de electrones transferidos. F – constant de Faraday = 23,074 cal/volts. E – potencial electrico de la celda en voltios. (3) Siendo 𝐴 el área del electrodo de la celda electrolítica y 𝑈 𝑟𝑒𝑣 el voltaje reversible dependiente de la presión y la temperatura de operación (𝑇,𝑃): Usando la ecuacion (5), transforma la expresion (4), resultando. (4) La dependencia de coeficientes 𝑟,𝑠,𝑡 con la temperatura propuesta por [11] es la siguiente: (8) En un proceso isotérmico reversible (sin pérdida) Q es Qatg = TΔS (7) (5) A continuación se muestra la curva característica 𝐼−𝑈 utilizada en el presente proyecto. (9) Donde T es la temperatura absoluta y ΔS es el cambio de entropía del sistema. De (6) y (7) se obtiene el valor del potencial de reacción reversible, donde es imposible para descomponer el agua en hidrógeno y oxígeno en tiempo real: (10) (ΔH – ΔS) es el cambio en la energía libre de Gibbs ΔG. A temperatura y presión normal (temperatura 25 º C y 1 atm de presión) ΔH es igual a 68320 cal / gmol y ΔG es igual a 56 690 cal / gmol; Por lo tanto el potencial reversible de la celda es. (11) El Potencial donde Q es igual a cero y la energía suministrada se transforma en energía química, se llama tensión termoneutral. (12) Figura3. Curva característica 𝐼−𝑈 En la gráfica se observa que para bajas densidades de corriente (𝜌) el comportamiento de la curva es lineal debido a que las perdidas dominantes en el electrolito son las óhmicas, las curvas que representan una mayor temperatura de electrolito (𝑇) están por debajo de las de menor temperatura, esto quiere decir, que para una misma tensión aplicada en bornes de una celda electrolítica (𝑈) se obtiene una mayor densidad de corriente a una mayor temperatura, es decir, es conveniente trabajar a mayores temperaturas posibles sin perjudicar la conductividad del electrolito. También se ha de notar que este efecto beneficioso de operar a temperaturas más altas es cada El voltaje para dividir el agua en electrolizadores comunes es superior a la tensión termo-neutra de la celda, debido a la transformación en calor que calienta la celda. Por lo tanto un electrolizador requiere refrigeración adicional y el valor de la tensión de CC se define como: E = Erev +loss (11) (13) Donde las perdidas = Eanode + Ecathode + Emt + IR (14) En la ecuación (12) Eanode – es el sobre voltaje de activación del anodo. Ecathode – sobrevoltaje de activación del catodo; Emt – sobrevoltaje de la transferencia de masa y IR – sobrevoltaje óhmico (incluye la resistencia del electrolito sobre los terminales de los electrodos). La densidad de
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. corriente debe ser mayor que 100mA/cm2 en electrolizadores comunes; por lo tanto el voltaje aplicado a una celda individual parcialmente se transforma en calor, convirtiéndose en las pérdidas típicas de la electrólisis convencional con DC. Es posible escribir una expresión para el factor de eficiencia de la electrólisis del agua, calculado contra el voltaje termonéutro, usando las relaciones de arriba [7]. (15) 4 Expresión de la eficiencia de Faraday propuesta por [7] es: (23) Con los coeficientes temperatura. 𝑓1 y 𝑓2 son función de la (24) la ecuación general de los enlaces reacción electroquímica con un potencial de corriente. (25) (16) β es el factor de simetría (0, ½, 1 para procesos sin activación, procesos normales libres de barreras). B. Rendimientos del electrolizador alcalino. En este apartado se definen los rendimientos y eficiencias utilizados a la hora de describir el comportamiento de un electrolizador alcalino. 1. Eficiencia de Faraday. Esta se define como la relación entre el caudal de hidrógeno producido y el caudal de hidrógeno calculado teóricamente. Figura 4. Eficiencia de faraday (17) 2. Eficiencia de voltaje (26) Donde el caudal de hidrógeno teórico se obtiene de la siguiente manera: (27) (18) Por lo tanto: (19) La siguiente expresión de la eficiencia de Faraday fue propuesta por [7]. (20) Donde 𝐴 es el área del electrodo de la celda y los coeficientes 𝑏 y 𝑐 son función de la temperatura del electrolito y vienen definidos por: Figura 5. Eficiencia de voltaje F. Rendimiento del electrolizador. (21) (22) El rendimiento real de un electrolizador se define como: (28)
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. Donde Δ𝐻 es la energía teórica necesaria que aportar para producir un caudal de hidrógeno 𝑚 𝐻2, es decir: (28) 5 expresión del rendimiento de Faraday (𝜂𝐹) propuesta por [7], donde se pone de manifiesto la dependencia de dicho rendimiento con la temperatura (𝑇). Si despreciamos la energía aportada por algún sistema de refrigeración: (35) Se observa que el rendimiento así definido es siempre menor que el real: (30) La dependencia de 𝑓1 y 𝑓2 con la temperatura de electrolito (𝑇) se obtienen experimentalmente mediante mediciones en diferentes puntos de funcionamiento, obteniendo expresiones polinómicas de la temperatura. (36) Desarrollando esta expresión obtenemos que el rendimiento del electrolizador es igual al producto de la eficiencia de voltaje y la eficiencia de Faraday: (37) (29) (31) (33) D. Resto de caudales y producción de hidrógeno. Para finalizar el caudal de agua que es necesaria para la electrólisis (𝑚 𝐻2𝑂) y el caudal de oxígeno que se produce (𝑚 𝑂2) viene dado por la estequiometría de la reacción: A continuación se muestra gráficamente la relación del rendimiento del electrolizador con la densidad de corriente que atraviesa una celda electrolítica. (38) (39) (40) Para conocer la producción de hidrógeno desde el instante inicial hasta un instante 𝑡, se integra el caudal de hidrogeno hasta dicho instante: (41) Y el del gas HHO (42) Figura. 6. Rendimiento del electrolizador IV. REQUERIMIENTOS PRODUCCIÓN DE HHO PARA Se observa que las líneas para las diferentes temperaturas se cruzan debido al efecto contrario que produce el aumento de la temperatura del electrolito en la eficiencia de Faraday que disminuye al aumentar la temperatura y en la eficiencia de voltaje que aumenta al aumentar la temperatura. C. Caudal de hidrógeno. Una vez resuelta la parte eléctrica y térmica y obtenida la intensidad que atraviesa una celda electrolítica (𝐼) y la temperatura del electrolito (𝑇) y el caudal de agua de refrigeración (𝑚 𝑤) se calcula el caudal de hidrógeno producido mediante la siguiente expresión: (34) Donde 𝜂𝐹 es el rendimiento de Faraday que tiene en cuenta el efecto de las corrientes parásitas, 𝑁 es el número total de celdas del electrolizador 𝑧 es el número de electrones transferidos en la reacción de la electrólisis del agua (𝑧=2) y 𝐹 es la constante de Faraday. En este modelo se utiliza la LAS DIFERENTES APLICACIONES Y RELACIÓN CON LOS DEMÁS PARÁMETROS DE DISEÑO En este apartado, se usará una metodología aproximada de análisis térmico que permita estimar, el flujo medio de gas HHO necesario para ser usado en soldadura fuerte. En la tabla 4. Se listan la densidad de energía necesaria para fundir diferentes materiales. Como referencia se tomarán 10.3 J/mm3, con esto se garantiza la aplicabilidad del equipo a la mayor parte de los procesos de soldadura. El problema es determinar, cuanto flujo de gas HHO, es necesario producir en el electrolizador para suministrar 10.3 J / mm3 al material de aporte en un tiempo determinado. El calor de combustión de un gas, es el calor generado por este cuando presenta una reacción de combustión con el oxígeno a temperatura y presión estándar (298 K, 1 atm... La temperatura de flama o de llama adiabática. Es la temperatura que alcanza la combustión del gas cuando esta se produce en una cámara a condiciones estándar (298 K, 1 atm), y en la cámara se impide la transferencia de calor. Es también denominada
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. 6 temperatura teórica. Es la máxima temperatura que alcanza la llama en presencia del carburante, (aire u oxígeno) en una proporción determinada. Debido a que el valor de esta temperatura depende de la relación de exceso del carburante, así como de la presión y temperatura a la cual se mida o calcule, estos valores difieren un poco de los obtenidos en catálogos comerciales como los registrados en la tabla 1. La recomendación es asumir la mayor temperatura como requerimiento de diseño y selección de los componentes del equipo de soldadura. En este caso la temperatura adiabática de la combustión de hidrógeno en oxígeno (2974 °C) es la temperatura de trabajo que debe soportar el soplete o antorcha. Se observa que las temperaturas adiabáticas de los demás gases en la tabla 1. Son inferiores a los de la tabla 1. Esto se debe a que los valores de la tabla 1. Son el resultado de la combustión de estos en aire y no en oxígeno como es el caso del proceso de soldadura oxi-gas. material de aporte igual 10 J/mm2-s, esta es la transferencia de energía que generan los equipos típicos de soldadura a gas. Remplazando en datos para el hidrógeno en la ecuación anterior tenemos: 10 [J/mm2-s] = (0.75*0.25*144 000 000 (J/Kg)* flujo másico)/78.54mm2 Flujo másico = 0.000029089 Kg/s = 0.029089 gr/s Tabla 1. Calores de combustion P: Presión dada en atmósferas V: Volumen en Litros n: Moles R: 0.08205 [L-atm /mole- K], constante universal de los gases T: temperatura en grados kelvin n= m/M, donde m es la masa en gramos y M es la masa molecular del hidrógeno La ecuación de los gases se derivarse en función del tiempo para expresarla en términos de flujos. Se remplaza además n por m/M Gas Formula Calor de Combustión [KJ/Kg] Hidrógeno H2 144000 Metano Propano Butano Acetileno CH C4H8 3 C4H10 C2H2 53265.4 50340 49601* 49923* Temperatura de flama adiabática °C 2097 (aire)2974 (O2) 1950 (aire) 1988 (aire) 1973 (aire) 2262 (aire) Generalmente los electrolizadores comerciales especifican su producción de Hidrógeno en litros /minuto. Para llevar a cabo la conversión es necesario emplear una ecuación de estado para los gases, en este caso se usa la ecuación de gases ideales. (43) 12) Dónde: El calor de combustión será usado a continuación para estimar el flujo másico de gas HHO que debe ser producido por el electrolizador. Esto con el fin de obtener un requerimiento que permita el dimensionamiento del mismo. Calor generado = Flujo volumétrico x Calor de Combustión x Eficiencia de transferencia La eficiencia puede tomarse igual a 0.25 (para un cálculo conservador). Sea ―A‖ el área de un círculo en el cual se concentra el 75% del calor de la flama aplicada directamente sobre una superficie. Esta cantidad debe ser hallada experimentalmente, un valor base para cálculos estimativos es De esta forma la densidad de energía transferida es: Se puede tomar como base para la energía transferida al (44) La temperatura y la presión corresponden al estado estándar (298 K, 1 atm) lo que corresponde a su vez a las Condiciones en las cuales fue calculado el calor de combustión en las tablas. Solo queda multiplicar esta por 60 para expresarla en L/min III. DISEÑO DEL ELECTROLIZADOR En este sistema se lleva a cabo la electrolisis y se muestra en la figura (7). Los diseños de celda de este equipo usaran estructura seca alcalina, nombre que la identifica por que opera con cantidades mínimas de electrolito y no presentan perdidas por conducción colateral. Su estructura característica basada en un circuito de celdas separadas entre sí, por empaquetaduras de un material sintético o cerámico Figura (10). El detalle de ensamblaje se aprecia en las Figuras (7,9).
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. 7 Los electrodos o placas metálicas tienen perforaciones en un extremo. Ver figura (9) que facilitan la salida del gas y la circulación del electrolito, además en su área metálica interior a la que deja la empaquetadura, se hacen perforaciones en la parte inferior llamadas hoyos igualadores, estos deben ser lo suficientemente pequeños para que el electrolito llene totalmente la celda ya que esta puede acumular aire en el momento inicial de llenado, de ser grandes aportarían perdidas por conducción colateral. El método de conexión de cada electrodo dependerá del voltaje máximo de operación de la celda y el voltaje nominal por celda que indica el modelo del electrolizador. Generalmente son conexiones tipo paralelo que logran áreas equivalentes mayores con pérdidas por conducción mínimas. Según el modelo, para evitar pérdidas por sobretensión, se prefieren conexiones paralelas. En este diseño conectamos circuitos de doce celdas serie en ocho grupos paralelos. Tal como se aprecia en la figura 7. Figura 7. Electrolizador. . Figura 8. Detalle básico de una celda seca. En la Geometría del electrolizador debe tenerse en cuenta los factores que mejoran la eficiencia desempeño y seguridad. Como son: Distancia entre placas mínima u óptima como se calcula en [9]. El área y numero de celdas debe ser suficientes para que se genere el flujo adecuado de gas que hacen posible una soldadura al menos equivalente con otros soldadores tipo antorcha. Las empaquetaduras como se aprecian en la figuras (9,10), deben ser redondeadas en los bordes (propiedad que se emplea en las ventanas de los aviones) para mejora su resistencia a la presión interna de la celda, evitando una posible fuga de electrolito en estado líquido o vapor. El material generalmente algún sintético debe ser resistente al calor y los álcalis se suele emplear neopreno. El espesor de la lámina metálica se ve afectada por dos factores que entran en conflicto como son; máxima densidad de corriente a emplear con un peso mínimo. Un procedimiento de optimización podría ser aplicable pero desgraciadamente queda limitado cuando el acero 316L que se emplea en electrolizadores no se suministra en calibres pequeños. Fig. 10. Empaquetaduras. Figura 9. Detalle de ensablaje. B. FUENTE DE PODER La fuente primaria de poder entrega voltaje de corriente continua. Se debe emplear del tipo suicheo, PWM o resonante; por ser fuentes con una relación potencia peso muy alto. Además se dispone de un módulo de
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. conmutación en caso de desear electrolisis por A.C. [5] o por pulsos. Este último método de excitar un proceso electrolítico se demostró en [6] se extremadamente útil si se desea mejorar la eficiencia ya que recorta el fenómeno de la doble capa y la consecuencia es acelerar el movimiento de iones en la celda que es muy ventajoso . C. ANTORCHA Este componente esta encargado de lograr la combustión del gas HHO de forma eficiente y segura. Entre sus componentes se resalta de primera mano el dispositivo anti flama (flash Back arrestor) [13] [14]. Encargado de evitar ignición hacia atrás que se produce cuando se enciende el hidrogeno y puede suceder que se produzca una explosión en el tanque burbujeador y la celda. Este dispositivo simplemente se fo r ma Introduciendo a presión malla fina de c o b r e o bronce, que permite que pase el gas pero impide que se establezca flama hacia atrás. Pueden estar instalados fuera de la antorcha como se ve en la figura (12) o dentro de ella. La antorcha completa se ve en la figura (11). controladas monitoreadas las siguientes dinámicas: Flujo de gas HHO para garantizar la calidad de la soldadura, esto se logra básicamente manteniendo controlada la corriente de la Figura 13. Trampa de vapor Fuente de poder. Se puede realimentar una señal proveniente del flujo metro mostrado en la figura (14) que emite pulsos y en un segundo lazo se instala un stunt a la salida de la fuente de poder. Esas variables discretas y continuas se aplican al sistema microprocesado que se implementó en una plataforma de 32 bits. ARM CORTEX (FRDM-KL24Z) de Freescale, programable en línea con hhtp://www.embed.com. Se hace un monitoreo constante de las siguientes variables y se emite alarma por procesador de habla las siguientes variables en caso de contingencia: nivel del electrolito, PH, conductividad, coloración, temperatura de la celda, para evitar fugas por las empaquetaduras y la producción de condensación corrosiva, la presión del sistema, temperatura de la celda. Fig. 11. Antorcha completa. Figura 14. Flujometro de gas HHO Figura. 12. Anti flama de retorno separado. D. TANQUE BURBUJEADOR Permite mantener la celda llena de electrolito, se puede ver en la parte superior de la figura (15) y asume una función anti retorno de flama para la celda. La tapa es de diseño especial con características de anti-explosión. Posee tres perforaciones; dos para cerrar el circuito principal de la celda y uno en la parte superior p a r a l a salida del gas H H O , hasta la trampa de vapor que se ilustra en la figura (13). Esta trampa se construye introduciendo malla gruesa de acero inoxidable en su interior. Facilita el paso del gas pero también logra que el posible vapor que salga del tanque se condense antes de abandonar la tubería que se dirige a la antorcha. E. INSTRUMENTACIÓN Y CONTROL En un soldador basado en gas HHO se deben mantener 8 Figura 15. Circuito de la celda de electrolisis
    • Universidad Nacional de Colombia, Facultad de Minas. Ramirez. Diseño de un soldador de gas HHO extraído del agua. Se agregan los sensores correspondientes a las variables anteriores; asi como una interfaz hombre maquina realizada con un teclado y un modulo de visualizacion de cristal liquido, para ingreso y visualizacion de variables y parametros. [9] CONCLUSIONES Un sistema de soldadura de gas HHO representa una opción limpia a un sistema de soldadura convencional como oxiacetilénica o gas MAP. La fortaleza más interesante radica en no requerir tanques de almacenamiento. Evitando así la posibilidad de una inminente explosión. No produce gases contaminantes. Produce una flama neutra y logra temperaturas muy altas. Es versátil ya que es fácil de transportar y realizar mantenimientos. El sistema se puede mejorar incorporándole sistemas de ondas complejas y sistema de ultrasonido para mejorar la eficiencia de la electrolisis. A parte de ser soldador puede suministrar gas a un soldador de plasma y se puede reconvertir uno de plasma utilizando la corriente de este para generar gas HHO como blindaje en soldadores MIG o TIG. [10] [11] [12] [13] AGRADECIMIENTOS Los autores aprovechan esta oportunidad para expresar agradecimiento a la primera convocatoria en innovación del programa GTI. De la Universidad Nacional de Colombia, que proporcionó la financiación de este proyecto. REFERENCIAS [1] [2] [3] [4] [5] [6] [7] [8] M. Suban. J. Tusek. M. Uran. Use of Hydrogen in welding engineering informer times an today. Jurnal of tarerials Processing technology. El Sevier. 119, (2001). 193-198. Sopenaa, E. Guelbenzub, L.M. Gandı´aa,* Thermal performance of a commercial alkaline water electrolyzer: Experimental study and mathematical modeling P.M. Die´gueza, A. Ursu´aa, P. Sanchisa, C. international journal of hydrogen energy 33 (2008) 7338 – 7354. Sheng-De Li, Cheng-Chien Wang, Chuh-Yung Chen, Water electrolysis in presence of an ultrasonic field. Electrochimica Acta 54(2009) 3877-3883. Elsevier. M.vanags,P.Aizpurietis,G.Bajars,Jj.Kkleperis,J.Klavins. Water electrolysis with dc pulses and plasma discharge. Institute of solid state physics, University of Latvia. 8 kengaraga str., riga, lv-1063, Latvia. Progress in Energy and Combustion Science xxx (2009) 1–20 Puharich, H.K. (1983) Method & Apparatus for Splitting Water Molecules. US Patent ,394,230(1983). Naomiro Shimizu, Soazaburo Hotta, Takayuki Sekiya and samu Oda. A novel method of hidrogen generation by wáter electrolysis using an ultra-short-pulse supply. Jurnal of Applied Electrochemistry (2006) 36: 419-423. Martins Vanags, Janis Kleperis and Gunars Bajars. Water Electrolysis with Inductive Voltage Pulses. http://dx.doi.org/10.5772/52453. Kai Zeng. Dongke Zang. Recent progress in [14] 9 Alkaline wáter electrolysis for hydrogen production and applications. Elsevier. Progress in Energy and Combustion Science (2009) 1–20 Iystein Ulleberg. Modeling of advanced alkaline electrolyzers: a system simulation approach. Institute for Energy Technology, P.O. Box 40, N-2027 Kjeller, Norway. International Journal of Hydrogen Energy. EL SEVIER. 28 (2003) 21 – 33 López Ramírez. Juan Rafael. Modelo dinámico de un electrolizador alcalino. Msc. Thesis. Universidad de Sevilla. E. Amores Vera. J. Rodríguez Ruiz. C. Merino Rodríguez. P. García Escribano. Study of an Alkaline Electrolyzer Powered by RenewableEnergy. Centro Nacional del Hidrógeno. Prolongación Fernando El Santo s/n. 13500 Puertollano (Ciudad Real) – SPAIN. M.D. Esclapez, V. Saez, D. Milan-Yañez, I. Tudela. O.Louisnard, J. Gonzales-Garcia. Sonoelectrochemical treatment of wáter polluted with tricloacetic acid: From sonovoltametry to pre- pilot plant scale. Ultrasonic Sonochemestry 17 (2010) 1010-1020. Elsevier. The Welding Handbook for maritime welders, 11th ed. Wilhelmsen Ships Service AS. José Ma Tamborero del Pino, NTP 495. Soldaduraoxiacetilénica y oxicorte: normas de seguridad. Ministerio de Trabajo y asuntos sociales de España, Instituto Nacional de Seguridad e Higiene en el Trabajo.
    • Multivariable GPI Control of a Gait Exoskeleton for People with Walking Disabilities Control GPI Multivariable de un Exoesqueleto para Asistencia de Marcha en Personas con Discapacidad Motora J. Arcos; A. Tovar; J. Cortés; H. Díaz; L. Sarmiento Universidad de San Buenaventura, Bogotá; Indiana University Purdue University Indianapolis; Universidad Nacional de Colombia, Bogotá. jaime_arcos000@yahoo.com tovara@iupui.edu jacortesr@unal.edu.co hdiazmo@unal.edu.co lcsv100@yahoo.com Abstract—The objective of this investigation is to design a multivariable Generalized Proportional Integral (GPI) control system of a walking-assist exoskeleton for all gait phases. The proposed GPI controller allows optimal trajectory tracking on the sagittal plane and the exoskeleton’s operation for single and double gait support. The control performance is evaluated through the numeric simulation of the person-exoskeleton system in Matlab®’s SimMechanics. Besides the effective trajectorytracking capabilities, the results demonstrate the controller’s robustness and reasonable energy consumption. Resumen—El objetivo de esta investigación es diseñar un sistema de control Proporcional Integral Generalizado (GPI) multivariable para controlar un exoesqueleto de asistencia de marcha en las distintas fases de la caminata. El controlador GPI propuesto permite realizar el seguimiento óptimo de una trayectoria predeterminada en el plano sagital y la operación del exoesqueleto en simple y doble apoyo. El desempeño del controlador es evaluado a través de la simulación de un modelo computacional del sistema paciente-exoesqueleto en SimMechanics de Matlab®. Además de la alta capacidad para el seguimiento de trajectoria, los resultados demuestran robustez del controlador y un razonable consumo de energía. I. INTRODUCCIÓN El uso de exoesqueletos robotizados en la asistencia a pacientes con discapacidad de marcha actualmente está restringido a sistemas estacionarios en el que el paciente se encuentra completamente apoyado. Su uso en marcha autónoma está limitado por el tamaño de los actuadores que deben soportar los torques ejercidos por el paciente en moviemiento y la incertidumbre propia de la marcha. Por tal motivo, los tres aspectos más relevantes en el diseño el sistema de control son el seguimiento de trajacetoria, la minimización de la señal de control (consumo de energía) y el rechazo a perturbaciones (robustez). Los primeros trabajos en exoesqueletos iniciaron en la década de 1960 en los laboratorios de aeronáutica de la Universidad de Cornell [1]. A principios de la década de 1970, bajo el concepto de un amplificador humano, General Electric con el patrocinio de la armada estadounidense desarrolló el proyecto Hardiman [2]. Más adelante a mediados de los 70, Vukobratovic desarrolló el primer exoesqueleto para sujetos con paraplejia, el cual fue controlado con un conjunto de servosistemas sincronizados [3]. En los años 80, Seireg construyó un exoesqueleto para sujetos con paraplejia, que utilizaba actuadores hidráulicos en las articulaciones de la cadera y rodilla [4]. En los años 90, Kazerooni exploró el comportamiento de la interacción dinámica del sujeto y el exoesqueleto, Kazerooni propuso estrategias de control que le permitieran al exoesqueleto realizar los movimientos del operador [5], [6]. Los últimos 10 años se han caracterizado por los avances en las estrategias de control y diseño de actuadores más eficientes para exoesqueletos amplificadores humanos [7], [8], [9]. Entre los exoesqueletos más destacados en los últimos años se encuentran a BLEEX [10] y HAL [11] cuyo objetivo es amplificar las capacidades del sujeto. En el campo de la rehabilitación se encuentran Lokomat [12], LOPES [13] y ALEX [14] que consisten en un exoesqueleto con el propósito de una máquina de rehabilitación. Otra modalidad de exoesqueletos médicos es una clase de dispositivos portátiles que cumplen el objetivo de asistir la marcha de personas con discapacidad motora [15], [16]. Estos dispositivos dan movilidad a las piernas por medio del control automático de los ángulos de cada articulación, aunque con la
    • necesidad de que el sujeto realice esfuerzo con los brazos por medio de muletas canadienses o andadores para mantener el cuerpo en equilibrio [17], [18], [19]. La mayoría de sistemas de control para exoesqueletos de asistencia de marcha se basa en el control de la impedancia mecánica de las articulaciones de la pierna de apoyo [20], [15]. Esto significa que las articulaciones de la pierna en apoyo se bloquean mecánicamente mientras que la pierna en balanceo generalmente es controlada con controladores dedicados tipo SISO (single-input singleoutput). Los modelos construidos para este tipo de estrategias de control se basan en la dinámica de la pierna en balanceo, ignorando así los demás efectos del cuerpo [21], [22], [23]. La limitación principal de estos sistemas de control es la pérdida de los efectos de las dinámicas acopladas entre las distintas articulaciones, para lo cual se requiere tratar el sistema de manera global e implementar controladores MIMO (multiple-input multipleoutput). Sin embargo, la sintonización de estos controladores presentan retos relacionados con la estabilidad, desempeño, robustez, rechazo de perturbaciones y la variaciones de parámetros en el sistema [16]. El control GPI del inglés (Generalized Proportional Integral) es una estrategia de control lineal para sistemas no lineales [24]. Aunque no hay evidencia del uso de este tipo de control en exoesqueletos, las aplicaciones en robots seriales muestran un comportamiento que podría cumplir con los requerimientos del sistema a controlar [25]. Los controladores GPI se han establecido como una técnica de control lineal eficiente que puede evitar el uso de observadores asintóticos y presenta robustez frente a perturbaciones clásicas (i.e., pasos, rampas y parábolas) [25]. Los controladores GPI se diseñan bajo el contexto del “rechazo activo de perturbaciones” en el cual se usan modelos simplificados de los sistemas y se estiman o rechazan de manera conjunta y aproximada dinámicas no modeladas, perturbaciones internas y externas del sistema. Estos controladores GPI que fungen como controladores lineales robustos para sistemas no lineales perturbados, rechazan de manera efectiva términos aditivos de la dinámica existente entre la entrada del sistema y la salida del mismo. Los controladores GPI incluyen de manera natural y embebida, un modelo polinomial en el tiempo, de las perturbaciones no lineales dependientes del estado y de aquellas perturbaciones exógenas sin estructura especial alguna. Este trabajo muestra el diseño de un controlador GPI para un exoesqueleto de marcha incorporado en un paciente con discapacidad motora total o parcial. El diseño de este controlador se realiza en un modelo dinámico de multicuerpo que conmuta simple y doble apoyo. Este modelo incorpora la trayectoria esperada con base en datos antropométricos a partir de la cual se determinan los torques de los actuadores. La interacción del paciente y el exoesqueleto incluye perturbaciones aleatorias las cuales deben ser rechazadas por el controlador proporcionando robustez al sistema de lazo cerrado. II. MODELO DE UN EXOESQUELETO DE MARCHA En la construcción del modelo se divide el cuerpo en los siguientes segmentos: Cabeza, tronco, brazo derecho e izquierdo, antebrazo derecho e izquierdo, mano derecha e izquierda, pierna o muslo derecho e izquierdo y antepierna derecha e izquierda. Se supone movimiento en el plano sagital y articulaciones como ejes de rotación perpendiculares al plano de movimiento. Las propiedades mecánicas de los segmentos del cuerpo como las longitudes, masas, centros de masa y momentos de Inercia usados en este modelo son tomados de la evaluación antropométrica realizada por Chandler [26]. La Figura 1a) muestra la cadena cinemática abierta formada en la fase de soporte simple para la cual se calcula la movilidad. La movilidad determina el mínimo número de actuadores requeridos para controlar la totalidad de las variables del sistema [27], [28]. Para simple apoyo se define la movilidad como Ms, la cual es igual a 5. La Figura 1b) muestra la cadena cinemática formada cuando el cuerpo se encuentra en doble apoyo, para este caso específico la movilidad es igual a 3 y está definida como Md. El cambio de movilidad en cada fase de la marcha lleva a concluir que las dinámicas de cada fase son diferentes, por lo cual se construye un modelo para cada tipo de apoyo [29]. Se construye un modelo del sistema multicuerpo en Simulink de Matlab®. Cada uno de los segmentos del cuerpo se representa por medio de bloques que reproducen los efectos de cuerpos rígidos. La Figura 2 muestra el modelo construido en SimMechanics para un sujeto con exoesqueleto. Aunque en los controladores GPI se utilizan los modelos no lineales y se realiza una linealización por realimentación, a continuación se ilustra el
    • proceso de linealización alrededor de un punto de operación. Con el fin de definir un punto de operación donde realizar la aproximación lineal se encuentra un punto de equilibrio dentro de la trayectoria de trabajo, para eso se define la estructura que tiene la representación en espacio de estado. Figura 2. Modelo construido en SimMechanics de un sujeto con exoesqueleto para marcha. Figura 1. a). Fase de apoyo simple b). Fase de apoyo doble. El significado de las variables de los modelos linealizados para cada tipo de apoyo se muestran en la Tabla I. x  Ax(t )  Bu(t ) y  Cx(t )  Du(t ) (1) (2) de diseñar observadores de estado. La Tabla II muestra el significado físico de cada variable de estado para el modelo de simple apoyo. El significado de las variables de estado para el modelo de doble apoyo se muestra en la Tabla III Tabla II VARIABLES DE ESTADO PARA SIMPLE APOYO Para este caso se consideran parámetros invariantes en el tiempo por lo que las matrices A, B, C, D son constantes, por otro lado el vector de estado tiene una representación física que puede ser medida fácilmente por lo cual se elimina la necesidad Tabla I ESTRUCTURA DE LOS MODELOS LINEALIZADOS Ya establecida la representación de estado con la cual se trabaja se define un punto de equilibrio cerca de la posición erguida del sujetoexoesqueleto para la fase de simple y doble apoyo. Por medio de la herramienta trim de Matlab® se encuentran los puntos de equilibrio donde se linealizará el sistema. La linealización del modelo se realiza con la herramienta linmod, la cual permite linelizar modelos fabricados en Simulink con bloques de SimMechanics.
    • Tabla III VARIABLES DE ESTADO PARA DOBLE APOYO III. CONTROL GPI DE UN EXOESQUELETO DE MARCHA Se diseña una estrategia de control basada en una estructura de control lineal para sistemas no lineales denominada Control Proporcional Integral Generalizado (GPI). El control GPI está basado en reconstructores integrales y realiza un rechazo activo de perturbaciones con integrales sucesivas. El número de integrales sucesivas se determinan de acuerdo al orden de un polinomio con el cual se puedan aproximar las perturbaciones a rechazar [30]. Esta estrategia de control se ha aplicado a sistemas con características físicas similares como robots planares de dos grados de libertad, para los cuales las perturbaciones externas se aproximan con un polinomio de segundo orden. Las aplicaciones de GPI para sistemas mecánicos multicuerpo han mostrado resultados con buen desempeño y alta robustez [25]. La estrategia de control GPI se apoya en la planitud diferencial del sistema linealizado, la cual extiende la propiedad estructural de controlabilidad propia de sistemas lineales al caso no lineal. La propiedad de planitud diferencial permite una total parametrización de las variables del sistema incluyendo estados, entradas y salidas en un número finito de variables independientes llamadas salidas planas y un número finito de sus derivadas. Las salidas planas y sus derivadas se determinan en función de las entradas y sus derivadas [31]. Para los modelos del exoesqueleto tratado se tiene una aproximación lineal obtenida del modelo en SimMechanics, la cual puede ser usada para definir una salida plana que se aproxime a la dinámica de la planta. Para tal fin se toma el modelo lineal obtenido en el proceso de linealización del modelo computacional, el cual está dado por la representación de estado de la ecuación, x  Ax(t )  Bu(t ), se realiza una extensión del significado físico de las variables de estado, de la siguiente forma 1  1             n  0nn I nn   n   0nn   1  (3)       , 1   ALow( n2 n )  1   BLow( nn )     n          n   n      donde las variables  representan los ángulos de las articulaciones, las variables  son los torques ALow contiene la mayor parte de la dinámica del sistema y la matriz BLow conde control, la matriz tiene el inverso de la matriz de inercia. A continuación se escribe en función de su salida plana ( ) de la forma 1      1   1  (4)  n      ALow( n2 n )      BLow( nn )      L ,          1  n   n           n    x(t )low  Alow x(t )  Blow   L , (5) donde x(t )low  [2 5 ]T , x(t )  [1 51 5 ]T y L está asociado a las perturbaciones endogenas, exogenas y las dinámicas no modeladas, las cuales se aproxima por un polinomio que tiene una forma de segundo orden. Dado que la matriz BLow está relacionada con la matriz de inercia es invertible y además es positiva definida, de la ecuación (5) se deriva la siguiente ley de control: 1   BLow  Alow x(t )  r (t )s 2  W  (t )  r (t )  . (6)   Las demás variables de la ecuación de control están dadas por  r1 (t )  , r (t )      rn (t )   
    • ahora, si se reemplazan las funciones de transfe- 1 (t )  ,  (t )      n (t )     w1 0 W    0 wi  0 rencia asociadas a los términos wi y se define ei  (i  ri )  i  1,, n , se obtiene s 0  ,   wn  s  k15 s5  k14 s 4  k13 s3  k12 s 2  k11 s  k10  e 1  s 3 (s  k15 )1 , 6 6  k 55 s5  k 54 s 4  k 53 s3  k 52 s 2  k 51 s  k 50  e 1  s 3 (s  k 55 )5 . Las anteriores ecuaciones llevan a obtener unos polinomios del error en lazo cerrado con el sistema desacoplado, que además pueden tender a cero, dependiendo de sus coeficientes y debido fundamentalmente a que se supone que las pertur- ki4 s 4  ki3 s 3  ki2 s 2  ki1s  ki0 s 3  s  ki5  i  1, , n baciones i tienen la forma de un polinomio de segundo orden. Como resultado de multiplicar donde n es el número de grados de libertad a controlar. Si se reemplaza la ecuación de control (6) en la ecuación (5), se obtiene que x(t )low  Alow x(t )   i 3 por el término s , el cual representa una derivada triple, resulta en que los efectos de las perturbaciones tienden a desaparecer. Los polinomios característicos del error de seguimiento son los siguientes s  1  Blow BLow   Alow x(t )  r (t ) s 2  W  (t )  r (t )     L   (7) Se extiende la anterior ecuación a su significado físico, se aplica transformada de Laplace y se simplifica obteniendo 1s 2   r1s 2   1  r1   L1          ,    W      n s 2   rn s 2   n  rn   Ln          (8) Se despeja la matriz de perturbaciones, se reescribe la ecuación matricial como un conjunto de ecuaciones algebraicas y se multiplica en ambos lados de cada ecuación por el denominador de wi que corresponda a cada ecuación de tal forma que s3 (s  k15 )  s 2 (1  r1 )  w1 (1  r1 )   s3 (s  k15 )1, s3 (s  kn5 )  s 2 (n  rn )  wn (n  rn )   s3 (s  kn5 )n , 6  k15 s5  k14 s 4  k13 s3  k12 s 2  k11 s  k10  e 1  0, s 6  kn5 s5  kn4 s 4  kn3s 3  kn2 s 2  kn1s  kn0  e n  0. Si se analiza el polinomio del error se puede concluir que las raíces de dichos polinomios de manera dominante determinan el comportamiento del sistema en lazo cerrado, lo cual dilucida la necesidad de asignar los coeficientes de cada polinomio para obtener los comportamientos deseados. Para asignar los coeficientes de los polinomios del error se iguala cada uno de los polinomios del error a un polinomio de segundo orden elevado al cubo. Este método de ubicación de polos permite asignar constantes de amortiguación frecuencias naturales i y las n que garanticen la estai bilidad del sistema y un desempeño aceptable.  2 pdi ( s)  s 2  2 ini s  ni  3   s6  ki5 s5  ki4 s 4  ki3s3  ki2 s 2  ki1s  ki0 , i  1,, n Con el objetivo de garantizar la estabilidad y obtener un desempeño aceptable se asignan las constantes mostradas en la Tabla IV.
    • Tabla IV CONSTANTES DE CONTROL 50N con una duración de 0, 25s . La respuesta del seguimiento de referencia muestra que existe un rechazo de perturbaciones efectivo. IV. EVALUACIÓN DE LOS CONTROLADORES GPI IV-A. Evaluación del seguimiento de trayectoria Con el objetivo de evaluar el seguimiento de referencia se genera una trayectoria de marcha para una fase de simple apoyo del pie derecho y su posterior paso al doble apoyo. En el proceso de generación de trayectoria se propone un movimiento suave del pie en balanceo, de tal forma que la velocidad y aceleración en el arranque y final del balanceo sean cero. Además de los movimientos del pie en balanceo se define que el movimiento de la cadera tiene un movimiento sinusoidal. La evolución de los eslabones del exoesqueleto se muestra en la Figura 3. Figura 4. Rechazo de perturbaciones. IV-C. Evaluación del cambio de fase de marcha Figura 3. Evolución de la trayectoria de marcha. Negro: Antepierna Izquierda, Magenta: Muslo Izquierdo, Verde: Muslo derecho, Rojo: Antepierna derecha. Se realiza una conmutación de los controladores en el cambio de tipo de apoyo. La conmutación de los controladores permite responder a la reducción de orden que sufre la dinámica del exoesqueleto en el paso de simple a doble apoyo. Se simula el comportamiento del sistema de control sobre el modelo computacional en el cual se integra un cambio de tipo de apoyo. Los resultados de la conmutación muestran que el sistema mantiene la estabilidad y persiste el seguimiento de la trayectoria de referencia. Entre los resultados de la simulación se destaca que el sistema responde al cambio de apoyo con señales acotadas por los valores usados en el diseño del controlador. La Figura 5 muestra el seguimiento de trayectoria. IV-B. Evaluación de robustez V. CONCLUSIONES Se realiza una simulación del seguimiento de una trayectoria de marcha para simple apoyo exponiendo el sistema a perturbaciones compuestas del movimiento libre de los brazos, ruido en la entrada y un impulso de 50N de fuerza aplicado en el centro de gravedad del torso de sujeto. En este trabajo se diseñó un controlador GPI para un sistema multivariable que permite estabilizar el sujeto con exoesqueleto. La estrategia de control propuessta permite realizar seguimiento de referencia y rechazo de perturbaciones. La Figura 4 muestra la respuesta de seguimiento de la referencia con rechazo de perturbaciones. En t  2s se realiza una perturbación tipo puso de La prealimentación de la señal de control con la segunda derivada de la referencia permite responder rápidamente a los cambios de referencia, con la condición de que la trayectoria sea derivable.
    • Esta condición evita que se presenten picos desmedidos en la señal de control. [7]. [8]. [9]. [10]. [11]. [12]. [13]. Figura 5. Cambio de apoyo. El diseño del sistema de control GPI basado en la aproximación lineal y con la evaluación del sistema de control en el modelo no lineal muestra la robustez que brinda el control GPI al sistema de lazo cerrado, además se realiza seguimiento de referencia con buen desempeño y rechazo activo de perturbaciones con señales de control acotadas. Trabajos futuros extendenrán el diseño del controlador y el exoesqueleto a trayectorias por fuera del plano sagital. [14]. [15]. [16]. [17]. REFERENCIAS [18]. [1]. J. G. Grundmann. A. Seireg. Design of a multitask exoskeletal walking device for paraplegics. In Biomechanics of Medical Devices, page 569 644, 1981. [2]. Herbertt Sira Ram´ırez; Sunil K. Agrawal. Differentially Flat System. Control Engineering Series, 2004. [3]. S.K. Agrawal, S.K. Banala, A. Fattah, V. Sangwan, V. Krishnamoorthy, J.P. Scholz, and Hsu Wei-Li. Assessment of motion of a swing leg and gait rehabilitation with a gravity balancing exoskeleton. Neural Systems and Rehabilitation Engineering, IEEE Transactions on, 15(3):410 –420, sept. 2007. [4]. J. Arcos, A. Tovar. Control ´Optimo lqr de un exoesqueleto de marcha. Revista INTEKHNIA Bogot´a, Colombia, 8, 2012. [5]. S.K. Banala, S.K. Agrawal, and J.P. Scholz. Active leg exoskeleton (alex) for gait rehabilitation of motorimpaired patients. In Rehabilitation Robotics, 2007. ICORR 2007. IEEE 10th International Conference on, pages 401 –407, june 2007. [6]. McConville JT Reynolds HM Young JW Chandler RF, Clauser CE. Investigation of inertial properties of the [19]. [20]. [21]. [22]. [23]. human body. In Us Department of Transportation, Report #DOT HS-801 430 Washington D.C., 1975. R. Ekkelenkamp, P. Veltink, S. Stramigioli, and H. van der Kooij. Evaluation of a virtual model control for the selective support of gait functions using an exoskeleton. In Rehabilitation Robotics, 2007. ICORR 2007. IEEE 10th International Conference on, pages 693 –699, june 2007. Ryan James Farris. Design of a Powered Lower-Limb Exoskeleton and Control for Gait Assistance in Paraplegics. PhD thesis, Vanderbilt University, 2012. A.S. Ghafari, A. Meghdari, and G.R. Vossoughi. Intelligent control of powered exoskeleton to assist paraplegic patients mobility using hybrid neuro-fuzzy anfis approach. In Robotics and Biomimetics, 2006. ROBIO ’06. IEEE International Conference on, pages 733 –738, dec 2006. V.M. Hernandez and H. Sira-Ramierz. Generalized proportional integral control of rigid robots. In Decision and Control, 2002, Proceedings of the 41st IEEE Conference on, volume 2, pages 2050 – 2055 vol.2, dec. 2002. Sang-Ho Hyon, Jun Morimoto, Takamitsu Matsubara, Tomoyuki Noda, and Mitsuo Kawato. Xor: Hybrid drive exoskeleton robot that can balance. In Intelligent Robots and Systems (IROS), 2011 IEEE/RSJ International Conference on, pages 3975 –3981, sept. 2011. Argo Medical Technologies Inc. http://rewalk.com/. 2012. H.Kazerooni.bleex.me.berkeley.edu/research/exoskeleton /elegs/. 2010. H. Kazerooni and Jenhwa Guo. Dynamics and control of human-robot interaction. In American Control Conference, 1993, pages 2398 –2403, june 1993. H. Kazerooni and S.L. Mahoney. Dynamics and control of robotic systems worn by humans. In Robotics and Automation, 1991. Proceedings., 1991 IEEE International Conference on, pages 2399 –2405 vol.3, apr 1991. B.J. Makinson. Research and development prototype for machine augmentation of human strength and endurance, Hardiman I project.General Electric Report S-71-1056, Schenectaby, NY, 1971. T. Matsubara, T. Noda, Sang-Ho Hyon, and J. Morimoto. An optimal control approach for hybrid actuator system. In Humanoid Robots (Humanoids), 2011 11th IEEE-RAS International Conference on, pages 300 –305, oct. 2011. Neil J. Mizen. Preliminary design of a full-scale, weareable, exoskeletal structure. In Preliminary Design of a full-scale, weareable, exoskeletal structure, 1963. N. Neckel, W. Wisman, and J. Hidler. Limb alignment and kinematics inside a lokomat robotic orthosis. In Engineering in Medicine and Biology Society, 2006. EMBS’06. 28th Annual International Conference of the IEEE, pages 2698 –2701, 30 2006-sept.3 2006. Robert L. Norton. Design of machinery: an introduction to the synthesis and analysis of mechanisms and machines. McGraw-Hill Higher Education, fifth edition, 2012. Hugo A. Quintero, Ryan J. Farris, and Michael Goldfarb. A method for the autonomous control of lower limb exoskeletons for persons with paraplegia. Journal of Medical Devices, 6(4):041003, 2012. Hebertt Sira-Ramirez; Alberto Luviano-Ju´arez; John Cortés Romero. Control lineal robusto de sistemas no lineales diferencialmente planos. Revista Iberoamericana de Automática e Informática Industrial., 8:14–28, 2011. MS; John R. Schnellenberger MS; Musa L. Audu PhD; Thomas C. Bulea MS; Richard Gaudio CO; Gilles Pinault MD; Scott Tashman PhD; Ronald J. Triolo PhD. Rudi Kobetic, MS; Curtis S. To. Development of hybrid
    • [24]. [25]. [26]. [27]. [28]. [29]. [30]. [31]. orthosis for standing, walking, and stair climbing after spinal cord injury. Journal of Rehabilitation Research and Development, 46(3):447 462, 2009. S. Safavi, A.S. Ghafari, and A. Meghdari. Design of an optimum torque actuator for augmenting lower extremity exoskeletons in biomechanical framework. In Robotics and Biomimetics (ROBIO), 2011 IEEE International Conference on, pages 1979 –1983, dec. 2011. Y. Sankai. Leading edge of cybernics: Robot suit hal. In SICE-ICASE, 2006. International Joint Conference, pages P–1 –P–2, oct. 2006. H. Sira-Ramirez. On the generalized pi control of some nonlinear mechanical systems. In American Control Conference, 2002. Proceedings of the 2002, volume 1, pages 839 – 844 vol.1, 2002. J.F. Veneman, R. Kruidhof, E.E.G. Hekman, R. Ekkelenkamp, E.H.F. Van Asseldonk, and H. van der Kooij. Design and evaluation of the lopes exoskeleton robot for interactive gait rehabilitation. Neural Systems andRehabilitation Engineering, IEEE Transactions on, 15(3):379 –386, sept. 2007. M Vukobratovic, D Hristic, and Z Stojiljkovic. Development of active anthropomorphic exoskeletons. Med Biol Eng, 12(1):66–80, 1974. Kenneth J. Waldron and Gary L. Kinzel. Kinematics, Dynamics, and Design of Machinery. wiley, New York, 1999. Xiuxia Yang, Zhang Yi, Zhiyong Yang, Lihua Gui, and Wenjin Gu. Human-machine intelligent robot system control based on study algorithm. In Industrial Technology, 2008. ICIT 2008. IEEE International Conference on, pages 1 –6, april 2008. Adam Zoss and Hami Kazerooni. Design of an electrically actuated lower extremity exoskeleton. Advanced Robotics, 20(9):967–988, 2006.
    • Detección y Seguimiento Facial en Niños Autistas con Bajo Nivel de Funcionamiento Face Detection and Face tracking in Autistics Children with Low Functioning Y. Castro, J.C. Bejarano, JD. Posada, J.A. Villanueva Department of Engineering, Universidad Autónoma Del Caribe –Barranquilla, Colombia. yurannycastro@gmail.com jcbj1292@gmail.com jdposa@gmail.com jairasir82@gmail.com Resumen- El presente artículo detalla el proceso de diseño e implementación de un sistema de detección y seguimiento facial capaz de localizar el rostro de niños autistas con bajo nivel de funcionamiento a través de una cámara de profundidad, que calculando la distancia y ángulo a un punto de referencia inicial, controla en tiempo real el movimiento de la cabeza de un modelo robótico hacia el sujeto implicado. El sistema fue desarrollado utilizando las librerías SDK de Kinect® de Microsoft, técnicas de visión artificial y el software de Desarrollo LabVIEW, y hace parte de un prototipo robótico orientado al apoyo terapéutico y diagnóstico de trastorno de espectro autista. Los resultados de las pruebas evidencian un buen comportamiento del sistema, por lo que se validará su funcionamiento en pacientes reales para incluirlo en el prototipo final. Abstract- This paper explains the process of design and implementation of a face detection and face tracking system able to locate the face of autism children with low functioning through a depth camera, that establishing the distance and angle relative to a reference point, controls in real-time the movement of the head of a robotic model to a specific person. The system was developed using the Microsoft KINECT® SDK library, Artificial Vision techniques and development environment LabVIEW and makes part of a robotic prototype oriented to therapeutic support and diagnostic of autism spectrum disorder. The results show a good system performance, so the next step will be validate its functioning with real patients and then add it on the final prototype. Palabras Claves— Autismo, Robótica social, Detección de rostro Seguimiento Facial, Sensor Kinect®. Keywords— Autism, Social Robotics, Face Detection Face Tracking, Kinect® sensor. I. INTRODUCCIÓN El ASD (Austism Spectrum Disorder) se presenta en 1 de cada 88 nacimientos [1] y se destaca principalmente por un déficit de interacción social y patrones restringidos de comportamientos e intereses. Un niño autista con bajo nivel de funcionalidad, cuenta con un coeficiente intelectual inferior a 70 y carece de habilidades para recordar algún tipo información contextual asociada a un estímulo [2]. Esencialmente los pacientes autistas, son más receptivos cuando las teorías de aprendizaje son implementadas vía tecnológica. Estudios previos [3], han concluido que estos pacientes presentan un alto nivel de aceptación hacia robots; autores como Robins Dautenhahn & Dubowski [4], evidencian un claro interés en estos y en dispositivos electrónicos de diversa naturaleza empleados como apoyo terapéutico, que buscan provocar un patrón de comportamiento repetitivo y secuencial para desarrollar alguna habilidad y obtener retroalimentación del comportamiento en el infante. Por esta razón, se diseñó un modelo robótico a través de las plataformas Tetrix y LEGO© Mindstorms NXT completamente adaptable como apoyo terapéutico y diagnóstico, capaz de interactuar de forma autónoma con los pacientes. Fig.1 Modelo robótico desarrollado para el diagnóstico y tratamiento de niños autistas con bajo nivel de funcionamiento Este prototipo inicial, incluye funciones y movimientos básicos predeterminados, un módulo de reconocimiento por voz y un sistema de Detección y Seguimiento Facial que dota al robot de comportamientos inteligentes. La principal característica del sistema que se propone, es que los datos son obtenidos a través de un sensor Kinect® para luego ser utilizados en un modelo robótico real, a diferencia de otros sistemas donde la información es usada en ambientes virtuales en los que normalmente son desarrolladas aplicaciones basadas en este sensor. El sistema de Face Detection and Tracking busca dotar al robot de la habilidad de captar la atención del sujeto implicado en el proceso terapéutico. Ésta, es la fase inicial en la búsqueda de establecer conexión emocional entre el robot y los infantes, que puede determinarse, por ejemplo, a partir de expresiones faciales en el sujeto. La detección y seguimiento facial brinda a los sistemas la posibilidad de integrar soluciones dinámicas en tiempo real de acuerdo a la posición en contexto del rostro de una persona. El principal objetivo del modelo que se propone es el diseño de un sistema de control capaz de determinar la ubicación y rotación en el espacio del rostro de niños autistas con bajo nivel de funcionamiento, y a partir de allí, calcular la posición a la que debe orientarse un
    • servomotor de LEGO® Mindstorms NXT ubicado en la cabeza del robot, lo que simulará el seguimiento de rostro por parte de éste. El sistema fue desarrollado con la librería SDK de Kinect® de Microsoft integrada al Entorno de Desarrollo Microsoft Visual Studio y al Software de Desarrollo LabVIEW. II. TRASTORNO DE ESPECTRO AUTISTA A. Definición del Trastorno El Trastorno de Espectro Autista (TEA) es una gama de trastornos complejos del neurodesarrollo que afecta a niños en edades tempranas [5]. Entre los más ocasionales está el denominado Autismo o ASD Clásico (la forma más grave de TEA), mientras que otras afecciones a lo largo del espectro incluyen una manifestación más leve conocida como Síndrome de Asperger, una extraña afección denominada Síndrome de Rett, el Trastorno de Desintegración Infantil y el Trastorno Generalizado del Desarrollo No Especificado generalmente conocido como PDD-NOS [5]. Una de las definiciones características del Autismo, es que es un déficit en la adquisición de lenguaje e interpretación del mundo que rodea al sujeto implicado con presencia de algunas dificultades cognitivas, quien lo padece, lo hace durante toda su vida y se manifiesta generalmente durante los tres primeros años. Los individuos con autismo han demostrado que su vínculo con el mundo exterior se manifiesta total o parcialmente distorsionado, por ello los especialistas además de establecer causas a nivel neurológico, genético, ambiental y psicológico van en búsqueda de tratamientos que reduzcan el nivel de abstracción con lo que perciben su entorno. B. Autismo de Bajo Nivel de Funcionamiento Las terapias como parte del proceso de rehabilitación de los infantes se fundamentan en el nivel de TEA que se padezca. Así, un niño autista con bajo nivel de funcionamiento se caracteriza principalmente por: Dificultad para establecer relaciones sociales. Retraso y alteraciones en la adquisición y el uso del habla y del lenguaje. Tendencia al empleo de un lenguaje no comunicativo. Insistencia obsesiva a mantenerse en mismos ambientes sin cambios. Repetir una alta gama de actividades ritualizadas y actividades de juego escasamente flexibles y poco imaginativas. Aparición en ocasiones de “habilidades especiales”, por ejemplo, buena memoria mecánica. Buen potencial cognitivo. Aparición de los primeros síntomas de la alteración desde el nacimiento. Esencialmente, el tratamiento en niños autistas va en búsqueda de la modificación de conducta y se utiliza técnicas basadas en teorías del aprendizaje como las principales herramientas de enseñanza [6]. Estas herramientas, giran en torno a la interacción íntima de los individuos con la fuente de control, quién otorga al infante retroalimentación de su comportamiento para desarrollar habilidades relacionadas con el desarrollo personal dentro de la sociedad. Así por ejemplo, el modelo terapéutico dirigido a niño autista con alto nivel de funcionamiento varía con respecto al de uno con bajo nivel. III. SENSOR KINECT® DE MICROSOFT En la actualidad, existen diversas aplicaciones basadas en el Sensor Kinect® de Microsoft utilizadas en propósitos clínicos. Bellmoe, Ptucha y Savakis en 2011, diseñaron un sistema de visualización interactiva en tiempo real guiada por expresiones faciales y la orientación del rosto de un observador humano, donde el sensor Kinect® detecta y sigue las articulaciones del sujeto, mientras una cámara RGB realiza un análisis facial más detallado; la visualización consiste en regiones activas que el observador puede manipular con gestos corporales y regiones aisladas que a su vez son estimuladas a través de la orientación de la cabeza y expresiones faciales [7]. En 2012 se desarrolló un sistema de Face Detection and Tracking teniendo en cuenta la información de color de rostros y su profundidad, lo que mejoró significativamente el rendimiento del algoritmo implementado en esta aplicación [8]. Más adelante durante ese mismo año y como versión más óptima de esta aplicación, se diseñó un sistema de seguimiento facial a través de redes neuronales artificiales que detecta no sólo las coordenadas del eje x y del eje y, sino también la orientación de un rostro, lo que permite determinar por ejemplo, si el sujeto está mirando de frente o de perfil especificando la ubicación de ojos, boca, entre otros [9]. “Baila conmigo” [10], es un proyecto que se basa en las necesidades de la Corporación Síndrome de Down en Bogotá, con la intención de desarrollar nuevas técnicas que trabajen la motricidad gruesa de los pacientes. “Baila Conmigo”, utiliza un sensor Kinect® para el reconocimiento de personas frente a una pantalla que lee sus movimientos y con esto se consigue que niños de entre 6 y 10 años que tengan esta discapacidad, continúen trabajando en la evolución de su motricidad a medida que realizan actividades que los divierten. Una de las aplicaciones más conocidas de la tecnología que ofrece Kinect®, es el 'Magic Mirror' de Intel [11]. Magic Mirror desarrollado por Dai Nippon Printing es una experiencia de compra virtual que utiliza un ávatar del cliente vestido con las prendas que éste desea probarse; una pantalla visualiza el avatar que sigue los movimientos del sujeto en tiempo real y cambia las dimensiones del cuerpo utilizando gestos. El objetivo de esta aplicación, es reducir los tiempos de prueba de las prendas de vestir para la comodidad de los clientes. Magic Mirror propone un sistema de espejo para los probadores, que combina un sensor Kinect®, una tablet, y una pantalla de 60″. IV. ROBÓTICA SOCIAL EN AUTISMO The International Federation of Robotics (IFR) establece dos tipos de servicios en robots que operan semi o totalmente automáticos: servicio humano (en actividades como guardia de personal y entretenimiento) y servicio de equipos (en labores como mantenimiento, reparación y limpieza), y las enfocan en una actividad; sin embargo no se especifica la interacción entre humanos y robots. En contraste Engelhardt, lo hace al definir los robots de servicios como herramientas inteligentes y programables que pueden sentir, pensar y actuar en beneficio de las capacidades humanas o extender la productividad [12]. Un robot de servicios, está orientado además al fortalecimiento de labores de aprendizaje y es capaz de interactuar ágilmente con un observador humano, lo que lo convertiría en un sistema dotado de habilidades sociales. La habilidad social en un robot requiere la presencia de algunas facultades específicas: “el robot, debe ser capaz de expresar, percibir emociones y comunicarse con diálogo de alto nivel” [12], establecer y mantener relaciones sociales, usar las pistas naturales (mirada, gestos, entre otras), y exhibir “personalidad”. Por último, el robot además, puede desarrollar competencias sociales [12]. El uso clínico de robots en terapias con niños autistas puede ser evidenciado ampliamente. Lund et al en 2009, utilizó un robot para obtener comportamientos repetitivos característicos del Espectro Autista: utilizó un método denominado “Modular Robotic Tiles” para identificar el comportamiento individual en 7 niños, donde 6 presentaban síntomas dentro del trastorno [3]; el programa tuvo una precisión del 88% en la identificación de los patrones de comportamiento en los 7 pacientes. Otros 6 estudios examinaron si un robot puede obtener el comportamiento prosocial entre un niño y
    • éste o con un tercero (ya sea el terapista, demás compañeros, o cualquier otro sujeto). Uno de los experimentos más recientes a cargo de Wainer et al., en 2010, evaluó el comportamiento de siete niños entre 8 y 14 años de edad con TEA de alto nivel de funcionamiento en una clase de robótica, donde los participantes tenían la oportunidad no sólo de interactuar con el robot a través de la visualización, sino que además podían programarlo y trabajar en pareja con otro infante que presentaba características similares. [3] Las respuestas afectivas de pacientes autistas que interactuaban con robots han sido variables, tal y como revelan los estudios de FeilSeifer y Mataric en 2011. Ellos midieron la reacción (respuesta positiva y negativa) de 8 niños en edades entre 5 y 10 años ante un comportamiento predefinido o aleatorio, y obtuvieron un alto nivel de respuesta individual hacia el robot [3]. “The clinical use of robots for individuals with Autism Spectrum Disorders: A critical review”, caracteriza de forma puntual métodos de aprendizaje empleados como apoyo terapéutico en los procesos de rehabilitación en pacientes autistas. Cada uno de ellos evidencia resultados satisfactorios que promueven el uso clínico de robots desde edades tempranas [3]. que permiten la creación de sistemas mecánicos robustos, sino porque es agradable a la vista de cualquier niño. Las últimas novedades en cuanto a las herramientas que permite manipular son: comunicación USB, Bluetooth, LCD más grande, microcontrolador de 32 bits, además de sensores más precisos [15]. El kit básico contiene la consola principal llamada bloque o ladrillo, 4 sensores, 3 servomotores y piezas para construir estructuras mecánicas. Estas piezas pueden acoplarse con piezas de otros productos LEGO®. En cuanto a TETRIX™, éste es un sistema metálico que incluye elementos en aluminio, engranajes y ruedas omnidireccionales, motores de alta potencia de Corriente Continua y servomotores duraderos [14]. Se utilizaron estas dos plataformas para el diseño y la construcción del modelo robótico. • Servomotor de LEGO® Mindstorms NXT El servomotor incluido en el kit es un actuador de alta precisión que posee un enconder interno con una sensibilidad de un grado por paso; parámetros como el ángulo y velocidad de rotación, pueden ser configurados desde el software que lo controle [15]. V. METODOLOGÍA DE DISEÑO A. Hardware 1) Microsoft KINECT® Este dispositivo cuenta con un proyector láser y dos sensores CMOS. El primero es un sensor monocromo que tiene como función captar los haces infrarrojos reflejados por cualquier objeto dentro de su rango de trabajo (con esto se obtienen los mapas de profundidad, primordiales para reconocimientos de personas y objetos en un espacio tridimensional) , mientras que el segundo, es una cámara RGB que capta las imágenes del entorno que son usadas para la interfaz de usuario; el sensor además, cuenta con un vector de 4 micrófonos (uno ubicado debajo y los otros tres en el otro) [13]. Fig. 3 Servomotor del LEGO® Mindstorms NXT El servomotor, es quien controla el movimiento de la cabeza y será el que reciba los parámetros de control necesarios para simular el seguimiento de rostro del paciente por parte del robot. 3) Especificaciones del sistema El equipo de cómputo utilizado para el desarrollo del sistema que se propone cuenta con las siguientes especificaciones: Fig. 2 Componentes internos principales del sensor Kinect® El sensor es conectado a un computador a través de USB. Las aplicaciones destinadas a Kinect® son realizadas mediante Kits de Desarrollo de Software (Software Development Kit o SDK) propios de Microsoft en el entorno de desarrollo Visual Studio; dentro de los lenguajes de programación más utilizados se destacan C++ y C#. La principal función de Kinect® en esta propuesta, es detectar y seguir el rostro de un niño autista con bajo nivel de funcionamiento en tiempo real y proveer mediante una aplicación previamente desarrollada, la información necesaria para poner en funcionamiento los controladores que serán implementados en la etapa de control. Es gracias a su robustez, facilidades de diseño y a su SDK, que se eligió este sensor como la mejor opción por encima de otros dispositivos convencionales. 2) TETRIX™ y LEGO® Mindstorms NXT La plataforma LEGO® Mindstorms NXT supone una alternativa interesante, divertida y apropiada para la ocasión, debido a que no solo está constituida por un conjunto de piezas fáciles de ensamblar • • • • Procesador Intel Pentium Dual-Core 3.2 GHz. Memoria RAM de 4Gb. 32 bits. Sistema Operativo Windows 7 Ultimate. B. Software 1) SDK para Microsoft Windows El SDK de Kinect® cuenta con una variedad de funciones donde se destaca la comprensión profunda del ser humano que permite realizar acciones como Seguimiento Facial y de Esqueleto, control de gestos, reconocimiento de voz, entre otros [16]. Se utilizó la librería Face Tracking destinada a la detección y seguimiento de rostro y está disponible desde la versión 1.5 del SDK; esta librería necesita la imagen obtenida de la cámara RGB, la trama de profundidad y el esqueleto del sujeto para detectar su rostro. Una vez identificados estos parámetros, pueden llevarse a cabo eventos como dibujar una máscara sobre el rostro del usuario y obtener su ángulo de rotación y ubicación sobre los tres ejes tomando como referencia el sistema de coordenadas del sensor [17].
    • 2) LabVIEW LabVIEW, es un lenguaje y entorno de programación gráfico que permite el desarrollo de aplicaciones a partir de diagramas de bloques. National Instruments ha potencializado la programación de la plataforma LEGO® a través de Toolkits; gracias a este añadido, es posible programar la consola principal desde el entorno de programación gráfico característico de LabVIEW, haciendo más ágil y dinámica la comprensión del algoritmo a implementar (a diferencia de otros lenguajes de programación basados en código), por lo que se convierte en la mejor opción para interactuar con todas las funciones propias del robot [18]. El sistema de control fue desarrollado a través de diseñador de sistemas difusos (Fuzzy system designer), disponible en el toolkit de diseño de control PID y lógica difusa; éste tomara los datos provenientes de la aplicación hecha en Visual Studio junto al SDK de Kinect®, entregando la acción de control correspondiente al servomotor que sostiene la cabeza del robot. necesarias para el seguimiento facial que permite precisar el ángulo θ obtenido de la traslación de la cabeza del sujeto en el eje “x” y “z”, y además el ángulo β, proveniente de la rotación de su cabeza sobre el eje “y” según el sistema de coordenadas propio de Kinect®. C. Etapas de Diseño Fig. 5 Diagrama de algoritmo de detección seguimiento. 2) Controlador de posición del servomotor Luego de obtener ambas cifras, los controladores difusos obtienen su entrada a partir el error del sistema, es decir, la diferencia entre la referencia (Los ángulos θ y β) y la lectura del enconder del servomotor manipulado, y envían como salida hacia el motor la potencia a la que éste debe moverse. Se diseñaron dos controladores ambos idénticos en sus reglas y funciones de membresía en la salida, la diferencia radica en el rango de error en sus funciones de entrada como puede apreciarse en las figuras 6a y 6b. Fig. 4 Diagrama de bloques del sistema El sistema (prototipo inicial) se dividió en 3 fases: un algoritmo de seguimiento de rostro, un controlador de posición del servomotor y un algoritmo de integración de las dos primeras fases a través del protocolo UDP (User Datagram Protocol). 1) Algoritmo de seguimiento de rostro El algoritmo que se propone consiste en la localización del rostro en los ejes “x” y “z” en el espacio cartesiano, y seguido a esto, se procede a calcular el ángulo de rotación según la perspectiva del sensor a través de la ecuación 1. Se desarrolló un algoritmo en C# utilizando las librerías SDK de Kinect®. Fig. 6a Funciones de membresía de entrada para el ángulo de traslación θ Ecuación 1. Cálculo del ángulo de rotación sin , La primera labor que debe cumplir el sensor es encontrar el esqueleto del sujeto en el espacio cartesiano, y una vez detectado, es obtenida la posición de una articulación determinada o del esqueleto completo dentro del área de trabajo de Kinect®; la librería de seguimiento de rostro provee las herramientas necesarias para cifrar las distancias en el plano cartesiano, por lo que se trabajó con las mediciones del eje “x” y “z” (aunque no se trabaje con el eje “y” para la traslación, es necesario mantener una distancia prudente sobre este eje en el plano para garantizar una correcta medición). Una vez detectado el esqueleto son obtenidas las tramas de información Fig. 6b Funciones de membresía de entrada para el ángulo de rotación β La figura 7 muestra las funciones de membresía de la salida junto a su rango de trabajo que representa la potencia a la que debe ser activado el motor. Se escogieron rangos bajos para darle una mejor respuesta al sistema ante cambios rápidos. En las figuras 6a y 6b pueden observarse que en la entrada la función de membresía central es más angosta que las demás, esto se debe a que la potencia mínima para activar el motor es aproximadamente ±4.5 (lo que puede variar
    • de acuerdo al peso que sostenga el motor) y debido a que esta se relaciona directamente con la función de membresía central de la salida, se decidió hacer más estrecho su rango de acción con el propósito de alcanzar la potencia mínima al detectar el error más bajo (±1 grado). Tanto el error como la salida provista por el controlador difuso son multiplicados por una ganancia determinada a manera de sintonización, ésta puede variar de acuerdo a factores como las especificaciones técnicas del procesador a utilizar. Fig. 8 Comportamiento del controlador ante cambios manuales de Set Point Fig. 7 Función de membresía de la salida del sistema 3) Diseño del Algoritmo de Integración Se diseñó un algoritmo, donde a través de protocolo UDP, se envían y reciben los datos obtenidos del software de desarrollo SDK en Visual Studio hacia LabVIEW. El algoritmo de seguimiento de rostro tiene su etapa de emisión de los ángulos hacia el algoritmo de control en LabVIEW, donde la etapa de recepción toma los datos para ser manipulados en el software, permitiendo la integración de datos de ambas aplicaciones. El protocolo UDP pertenece a la capa de transporte del modelo TCP/IP y es la versión simplificada de TCP (Transmission Control Protocol) que no presenta control de flujo, fidelidad o corrección de errores en él envío de datos, en cambio, se convierte en un protocolo rápido, ideal para aplicaciones con baja transmisión de datos y sin retorno (Comunicación Simplex), útil en comunicaciones que deben ser en tiempo real [19]. La línea continua, representa el Set Point manipulado desde LabVIEW, mientras que la línea punteada representa el comportamiento del controlador. El eje x visualiza los ángulos de rotación y el eje y las muestras que son tomadas durante un intervalo determinado de tiempo. Es así como a través de la figura anterior queda evidenciada la eficiencia del controlador ante cambios manuales de consigna. 2. La segunda prueba, consistió en movimientos periódicos del sujeto implicado dentro del rango de visión de Kinect®. Una vez detectado y seguido el rostro con ayuda del sensor y del algoritmo en C# se llevó a cabo la implementación del controlador, ahora utilizando como Set Point los ángulos correspondientes a la traslación del sujeto y a la rotación de la cabeza de este, obtenidos por el algoritmo de detección. La figura 9 ilustra el comportamiento del controlador ante cambios de posición del rostro del sujeto, mientras que la figura 10 evidencia su rendimiento, esta vez con los ángulos de rotación. VI. RESULTADOS Inicialmente, las pruebas fueron desarrolladas en todo tipo de personas, demostrando la flexibilidad de uso del sistema. Se dispuso de un entorno controlado, que simuló condiciones reales de uso. Las pruebas en niños autistas con bajo nivel de funcionamiento se hallan en curso y se esperan óptimos resultados debido a que las realizadas en otros sujetos fueron exitosas. Las pruebas realizadas fueron divididas de la siguiente forma: 1. A través de LabVIEW se evaluó el comportamiento del controlador implementado, al determinar su capacidad de seguir fielmente un determinado Set Point. La figura 8 ilustra el comportamiento del controlador. Fig. 9 Rendimiento del controlador con Set Point tomado de los dos ejes de traslación
    • técnicas apropiadas que posibiliten Eye Detection and Tracking, lo que mejoraría significativamente las habilidades sociales del robot. RECONOCIMIENTOS Fig. 10 Rendimiento del controlador con Set Point tomado de la rotación de la cabeza Para las dos figuras anteriormente mencionadas (Fig. 9 y 10), la línea continua evidencia el cambio en el Set Point que debe seguir el controlador mientras que la línea punteada representa la respuesta de éste. El eje y visualiza los ángulos rotación a los que debe girar el servomotor de acuerdo a la ubicación facial del sujeto implicado en el rango de visión del Kinect®. El eje x representa el intervalo de tiempo durante el desarrollo de la prueba. Es posible observar en algunos casos un retardo en la reacción del controlador con respecto a la referencia debido a factores de potencia en el manejo del servomotor; al trabajar en rangos muy pequeños, es posible que en determinados momentos la fuerza que antes si podía mover el sistema mecánico dentro del motor no sea capaz de hacerlo después por factores físicos como la inercia durante el arranque o la fricción entre los mecanismos internos, por lo es necesario un error mayor que permita incrementar su potencia de salida para recuperarse y alcanzar nuevamente la referencia. Así mismo ante cambios bruscos de posición, el comportamiento del controlador es óptimo. Esto finalmente es traducido en un correcto giro del servomotor ubicado en la cabeza del robot, lo que permitió emular de forma eficiente el seguimiento del rostro por parte de éste Desarrollar un proyecto como el que se pretende dar a conocer a través del presente documento, no es tarea sencilla, y no habría sido posible sin el arduo trabajo de Leonardo Quiroz Bolivar (Estudiante de Ingeniería Mecánica, X Semestre), Fabio Fonseca Arguelles (Estudiante de Ingeniería Electrónica y Telecomunicaciones X Semestre), Kelly Pacheco Fontalvo (Estudiante de Ingeniería Electrónica y Telecomunicaciones X Semestre) y Daniel Rodríguez Martínez (Estudiante de Ingeniería Electrónica y Telecomunicaciones X Semestre), quienes diseñaron e implementaron la estructura física del robot, las funciones y movimientos básicos predeterminados y el módulo de reconocimiento por voz, respectivamente. A todos ellos, gracias por el esfuerzo y labor realizada, sin su ayuda, el Sistema de Detección y Seguimiento para niños Autistas con Bajo Nivel de Funcionamiento implementado en un modelo robótico funcional, no habría cumplido su principal objetivo. REFERENCIAS [1] About Autism. (2012) Autism Society. http://www.autism-society.org/about-autism/ [2] Sally Bigham, Jill Boucher, Andrew Mayes, Sophie Anns, “Assessing Recollection and Familiarity in Autistic Spectrum Disorders: Methods and Findings,” Journal of Autism and Developmental Disorders, vol. 40, pp. 878-889, Jul. 2010. [3] Joshua J. Diehl, Lauren M. Schmitt, Michael Villano and Charles R. Crowell, “The clinical use of robots for individuals with Autism Spectrum Disorders: A critical review,” Esleiver: Research in Autism Spectrum Disorders, vol. 6, pp. 249–262, Jan-Mar. 2012. [4] B. Robins, K. Dautenhahn, & J. Dubowski, “Does appearance matter in the interaction of children with autism with a humanoid robot Interaction Studies?” Interaction Studies, vol. 7, pp. 509-542, 2006. [5] Hoja de datos de Autismo. (2012) National Institute of Neurological Disorders and Stroke. [Online] Available: http://espanol.ninds.nih.gov/trastornos/autismo.htm [6] J. Fuentes-Biggi et al, “Guía de buena práctica para el tratamiento de los trastornos del espectro autista,” Rev Nuerol, vol. 43, pp. 425-438, 2006. [7] Bellmore Collin, Ptucha Raymond, Savakis Andreas, “Interactive Display using depth and RGB sensors for face and gesture control,” in Western New York Image Processing Workshop. 2011. p. 5-8. [8] Yang Fie et al, “Robust face tracking with a consumer depth camera,” in 19th IEEE International Conference on Image Processing. Orlando, FL, 2012. p. 561-564. [9] Achmad Bañza, Firdausy Kartika, “Neural Network-based Face Pose Tracking for Interactive Face Recognition System,” in International Journal on Advanced Science, Engineering and Information Technology, vol. 2, No. 1. pp. 105-108, 2012. VII. CONCLUSIONES Los sistemas de detección y seguimiento facial que hacen parte de robots utilizados para modelar comportamiento, son una tendencia actual en terapias dirigidas a pacientes con diversas patologías. Estos sistemas permiten controlar el movimiento de la cabeza del robot de manera natural (al imitar el principio humano), lo que permite sentar las bases de interacción de estos con los pacientes. La implementación del prototipo inicial presentado en el documento, demostró que la orientación del servomotor debe encontrarse en el rango de visión del sensor que corresponde a 57°, y que fuera de este podrían presentarse fallas en el sistema; además de esto, además de esto, se debe resaltar que el sistema implementado será lo suficientemente confiable si se utiliza un equipo de cómputo con buenas prestaciones, sobre todo para la manipulación del sensor Kinect®, ya que de lo contrario se presentaran retardos o Lags durante la ejecución de los programas destinados al sistema; es durante este lapso que el controlador no actualizaría sus valores de entradas y salidas lo que traduce en un mal desempeño representado por fuertes oscilaciones en su respuesta. Los resultados publicados evidencian resultados satisfactorios, por lo que el siguiente paso es realizar las pruebas correspondientes en los niños autistas con bajo nivel de funcionamiento. Si los resultados son igual de satisfactorios se validará su funcionamiento para la integración con los demás módulos del robot. Una vez cumplido el objetivo inmediatamente anterior, uno de los nuevos retos, será poder detectar emociones en los infantes a través de la ubicación de sus rasgos faciales y que además puedan incluirse [Online] Available: [10] Un videojuego, nueva terapia para niños con síndrome de Down. (2013) COLPRENSA. [Online] Available: http://www.eluniversal.com.co/cartagena/vida-sana/un-videojuegonueva-terapia-para-ninos-con-sindrome-de-down-115535 [11] Magic Mirror: Gesture Controlled Parametric Body Modeling. (2013) Intel. [Online] Available: http://www.intel.com/content/www/us/en/research/intel-labs-research-atintel-magic-mirror-demo-video.html [12] Frank Hegel, Claudia Muhl, Britta Wrede, Martina Hielscher-Fastabend, Gerhard Sagerer, “Understanding Social Robots,” in Advances in Computer-Human Interactions, pp. 169-174, Feb. 2009. [13] San Román Ignacio, Villanueva Arantzazu. Estimación de la posición de la cabeza en tiempo real con Kinect. Pamplona, Pamplona: Universidad pública de Navarra, pp. 4, 2012.
    • [14] Calvo Isidro, Perianez Gorka, “Uso conjunto de la plataforma LEGO MINDSTORMS NXT y metodologías PBL en Informática Industrial,” in Ikastorratza, e-Revista de didáctica, No. 6. pp. 3, 2010. [15] Yang Rouchen, “Complex Behavior from a Simple Rule: Demonstration with Lego Mindstorms NXT Kit,” Trabajo de grado (opta) Columbus: The Ohio State University. Department of Electrical and Computer Engineering. pp. 12, 2013. [16] Product Features. (2013) Microsoft Kinect for Windows. [Online] Available: http://www.microsoft.com/enus/Kinectforwindows/discover/features.aspx [17] Face Tracking. (2013) Microsoft Developer Network. [Online] Available: http://msdn.microsoft.com/en-us/library/jj130970.aspx [18] NI LabVIEW para LEGO® MINDSTORMS®. (2013) National Instruments. [Online] Available: http://www.ni.com/academic/mindstorms/esa/ [19] Lajara José, Pelegrí José. LabVIEW Entorno gráfico de programación. 1ra ed. Mexico D.F: Alfaomega, 2007. p. 4.
    • Modelo Para la Aplicación de la Norma IEC611313 en un Sistema de Manufactura Flexible Model for Implementation of IEC61131-3 Standard in Flexible Manufacturing System Oscar Mauricio Arévalo Rodríguez, Álvaro Antonio Patiño Universidad de la Salle, Bogotá, Colombia Oscarmarevlalo10@unisalle.edu.co alapatino@unisalle.edu.co RESUMEN: Este trabajo describe un modelo de programación para Controladores Lógicos Programables (PLC) y su implementación, basado en la norma IEC 61131-3. El modelo fue construido usando las teorías de máquinas de estado y redes de Petri, donde para su implementación se realizó la traducción a lenguajes de programación establecidos por la norma IEC 61131-3, utilizando como caso de estudio un FMS (Flexible Manufacturing System), el cual cuenta con seis estaciones controladas por seis diferentes PLC’s. Para la implementación del modelo se utilizaron los paquetes de Software de Rockwell Automation, realizando pruebas de funcionalidad en cada estación apoyándose en sistemas de supervisión. PALABRAS CLAVE: Programador Lógico Programable, SCADA (Supervisory Control And Data Acquisition), IEC 61131-3, Sistema Flexible de Manufactura. ABSTRACT: This paper described a PLC (Programmable Logic Controller) program model and its implementation, based on the IEC 61131-3 Standard. The Model was built using the State Machine Theory and Petri nets, the transformation into IEC 61131-3 Programming language was made in the application part using a FMS (Flexible Manufacturing system) as a case of study, which has six work stations controlled by six different PLC’s. For the Model implementation, Rockwell Automation software was used, making functionality test on each work station whit the aid of a SCADA system. un modelo estructurado, con el fin de satisfacer todos los requisitos planteados, y hacer que estos modelos se adapten a los lenguajes establecidos en la norma. El modelo propuesto fue basado en dos teorías en el campo de los eventos discretos, buscando definir las fases para la implementación. Uno de estas es la teoría de control de supervisores la cual se encarga de observar los acontecimientos que ocurren en la planta y actuar en caso de alguna irregularidad [1], mientras que la otra abarca la lógica secuencial del programa y en general del proceso, estas teorías se detallan mejor en [2], esta última se modela mediante Redes de Petri. Se implementó en primer lugar la lógica de Interrupciones, esto con el objetivo de evitar eventos no deseados para después si poder implementar la lógica de control, la cual establece el orden de los eventos. En la siguiente sección del artículo se presenta el marco teórico, explicando el funcionamiento del FMS, y también se hace una breve introducción a la norma IEC 61131-3. En la tercera sección se presentan algunos de los trabajos relacionados con el tema, en la cuarta sección se explica el Modelo utilizado para la programación de los PLC’s. En la quinta sección se explica la manera de implementación del modelo basado en la norma y presentando como caso de estudio a una de las estaciones del FMS, Finalmente, la quinta sección se presenta la emulación y los resultados encontrados evaluando la funcionalidad del sistema, mediante la implementación en los PLC’s. II. MARCO TEORICO KEY WORDS: Programmable Logic Controller (PLC). SCADA (Supervisory Control And Data Acquisition), IEC 611313, Flexible Manufacturing System (FMS). I. INTRODUCCION La normalización de los lenguajes de programación para PLC’s y su sintaxis, trae consigo muchas ventajas, tales como: manejar una misma estructura de programación o la reutilización de código sin necesidad de restructuración de los algoritmos de programación. Dado que la norma no estable una metodología para ser implementada, se propone la realización de Para la realización del modelo es necesario entender algunos conceptos referentes a la norma, y también otros conceptos referentes a las Redes de Petri y Maquinas de Estados, los cuales se utilizaron en la implementación del modelo. Otro aspecto que se debe comprender es el del funcionamiento del FMS utilizado como ejemplo para la aplicación del modelo. a) Teoría de Control Supervisorio La teoría de Control Supervisorio, es un enfoque
    • general o técnica de calculo que se le da a los sistemas de Control de Eventos Discretos, las especificaciones de control y la síntesis automática del proceso a controlar; y así, generar lo estados eventos deseados [3]. El objetivo principal es el de evitar que ocurran eventos que no han sido previstos y que por consiguiente no tienen una acción común a seguir, y por lo tanto causar retrasos en el proceso. b) Estándar IEC 61131-3 La norma IEC 61131-3 vio a luz su primera versión en 1993 y una segunda versión en el 2003, este estándar define los lenguajes de programación para controladores Lógicos Programables, así como su sintaxis, y otros aspectos como los tipos de datos, estructuras, etc. Dentro de los cinco lenguajes establecidos por la norma, se encuentran dos lenguajes textuales como son el texto estructurado (ET) y la lista de instrucciones (IL), además de dos lenguajes gráficos, que son el Diagrama Ladder (LD) y el Diagrama de Bloques de función (FBD) [4]. Además de estos leguajes, la norma también establece un quinto lenguaje llamado SFC, por sus siglas en inglés ( Secuential Function Chart), que es más un lenguaje para estructurar el código, envuelve secuencias de acciones, pero en donde la programación interna de cada acción, se realiza en otros lenguajes de programación. El SFC define la estructura general de transiciones del programa [4]. b) Bloques Funcionales y las piezas traídas desde el centro de mecanizado o fresa; la estación de Manufactura consta de un manipulador para el transporte de las piezas desde y hacia la banda y el torno, el cual es el encargado del mecanizado de las piezas; La estación de Procesos, que realiza un tratamiento químico a las piezas ya mecanizadas; La estación de Control de Calidad, que es la que realiza una selección de las piezas que cumplen con el margen de error mínimo permitido tanto de torno como de fresa; La estación de Ensamble Hidráulico que realiza el ensamble de las dos piezas; También se cuenta con un manipulador, RV-2A, que se encarga de retirar las piezas mecanizadas, y de colocar los pallets en la banda según sea el pedido de la estación Central, esta última funciona como un maestro de las anteriores, supervisando y controlando muchas de las acciones principales de los módulos. d) Redes de Petri y Maquinas de Estado Las Máquinas de estado son modelos que representan el comportamiento de un sistema con entradas y salidas, en las cuales las salidas dependen, no solamente de las señales de entrada actuales, sino también de las señales anteriores. Las Maquinas de estados se grafican mediante diagramas de Estados, los cuales muestran las entradas y salidas que intervienen en el modelo, así como las condiciones y los eventos que ocurren cuando se pasa de un estado a otro. [5] Una Red de Petri es una representación matemática o gráfica de un sistema a eventos discretos, en el cual se puede describir la topología de un sistema distribuido, paralelo o concurrente. Una red de Petri se compone de lugares, transiciones, arcos dirigidos y marcas o fichas, que se interconectan entre sí para la generación del modelo del sistema. Una descripción más amplia de las redes de Petri y sus reglas de implementación se describe en [6] III. TRABAJOS RELACIONADOS Los Bloques Funcionales son una poderosa herramienta de programación, que permite una vez son definidos, ser usados una y otra vez en diferentes programas y en distintos proyectos, lo cual lo hace altamente reutilizable. Los Bloques Funcionales o Add-Ons Instructions como se les conoce dentro de la plataforma de programación de Rockwell, están definidos dentro de la norma IEC-61131.3, en la sección que define los POU (Unidades de Organización del Programa) [4], Los Add-Ons Instruction también permiten la protección de la propiedad Intelectual de los programadores, mediante la encriptación de los mismos para no permitir ver ni modificar su contenido a terceros, además también son una solución para simplificar la representación de un programa y solo mostrar el estado de las variables más importantes. c) FMS (Sistema Flexible de Manufactura) Como Caso de estudio para la implementación del modelo la norma IEC 61131-3, se utilizó el Sistema de Manufactura Flexible (FMS), que se encuentra en el laboratorio de Robótica de la Universidad de la Salle el cual consta de cinco módulos, los cuales interactúan mediante una banda transportadora, que lleva los pallets las piezas a mecanizar en el torno. El FMS cuenta con un módulo de Alimentación que es el que entrega el material en bruto Existen muchos trabajos en sistemas de manufactura discreta referentes a la aplicación de la norma IEC 61131-3, e. g. [2] donde se realiza una implementación con modelos basados en redes de Petri y control supervisorio. Además, presenta un modelo general de programación donde se realiza priorización de eventos basado en la observación de las señales I/O. Una implementación basada en Redes de Petri, es presentada por Basile et al [7], en este modelo tanto la parte de control supervisorio como la parte secuencial, es modelada mediante redes de Petri, presentándose un modelo global del sistema basando en supervisorios de RdP (Redes de Petri). Otros trabajos se han basado en recopilaciones de los avances realizados en el área, Shin et al en [8] hace una recopilación de los avances concernientes al desarrollo de los lenguages Ladder y RdP en cuanto al diseño de metodologías en el campo del control distribuido se refiere, además de resaltar la flexibilidad y facilidad de implementación de las RdP sobre el lenguaje Ladder. Este trabajo propone un modelo de programación de PLC´s para un FMS utilizando RdP, el cual es ampliamente utilizado en sistemas de manufactura. Gasper et. al (2005) propone un modelo basados en RdP, el cual no presenta una implementación en donde interactúen varios PLC’s, solamente presenta la simulación lo que no permite tener resultados relevantes para una posible implementación. El modelo presentado es basado en sistemas
    • supervisorios e RdP lo que permite tener independencia en la parte de control secuencial y de seguridad de cada estación de FMS. Basile et al. Presenta un modelo netamente basado en redes de Petri, lo cual no permite la independencia de los sistemas secuenciales y de seguridad del sistema. máquinas de estado, ya que estas son fáciles de implementar en un software de programación de PLC. Posteriormente estas Máquinas de Estado se pasan a código de programación PLC haciendo uso del Lenguaje Ladder, el cual es uno de los más utilizados por los programadores de PLC, debido a lo fácil y rápido que es crear una lógica de programación en este lenguaje. III. MODELO a. Modelo General: El modelo General de Programación, se muestra en la figura 1, se puede observar como el modelo se divide en dos partes principales y una secundaria, la parte secundaria es la comunicación entre PLC’s , la cual es realizada mediante Tareas por eventos, al contrario del resto de la programación, la cual se realiza mediante tareas continuas, esto dado que en la comunicación no se requiere de un envío continuo de información por parte de las estaciones, sino que en lugar de esto la información transmitida entre PLC’s, se realiza solamente en el instante requerido por cada módulo con el fin de evitar congestión en la red. De la misma manera el lenguaje de programación escogido para la parte de comunicación es el Texto Estructurado (ST), este lenguaje se escogió debido a que es un lenguaje apropiado para la manipulación de datos, y al ser esta una parte critica del proceso un lenguaje de alto nivel es más sencillo de modificar y por eso más apropiado, sin ser la selección de este lenguaje una restricción del modelo. Todos los PLC’s en la parte de la Lógica Secuencial son programados mediante subrutinas en SFC, a diferencia del módulo Central, el cual será programado mediante Bloques funcionales, y lenguaje Ladder, esto debido a que la estación central no funciona de manera secuencial, en lugar de eso su programación depende en gran medida de la información enviada por las demás estaciones. Antes de que la lógica secuencial sea iniciada las entradas y salidas del sistema son supervisadas en esta parte del modelo el cual verifica que todo esté en orden como se muestra en la figura 1. c. Implementación de la Lógica secuencial del Controlador Dado que esta lógica es más compleja que la Lógica de Interrupciones, no es factible realizar esta parte del modelo mediante máquinas de estado, por consiguiente las redes de Petri son una estructura ideal para la lógica secuencial de la programación, Las redes de Petri ofrecen una gran ventaja a la hora de implementar el modelo dentro de la norma, debido a las similitudes entre estas, Grafcet y el SFC (Secuential Function Chart) establecido dentro de la norma, lo que hace que el traspaso desde las RdP a SFC se haga de manera directa con solo redibujar el modelo, además que muchos de las normas aplicadas a las redes de Petri son también aplicadas en SFC. La Lógica secuencial cumple un rol diferente a la lógica de Interrupción, ya que en lugar de bloquear o permitir la acción de un elemento dentro del sistema, activa los eventos que se van a ejecutar cambiando el estado actual del proceso, y con ello la activación o desactivación de los actuadores de manera secuencial, según la lógica de programación. Estas dos partes del modelo se interconectan mediante marcas, que son enviadas desde la lógica de interrupciones, hasta la lógica secuencial, estas marcas se colocan como un fusible dentro del SFC, que se abrirá en caso de que un evento inesperado ocurra. c. Comunicación La comunicación entre los distintos módulos es una parte fundamental del proceso, ya que de esta depende que haya un entendimiento compacto entre todos los PLC’s. Es por eso que se ha implementado la labor de enviar y recibir datos de manera independiente a los demás procesos del PLC, esto gracias a las tareas por eventos descritas en la norma IEC 61131-3, en la sección de Elementos Comunes: Elementos de Configuración. Una tarea por eventos puede contener un conjunto de programas y bloques funcionales, y se activa solamente cuando ocurre el evento para el cual fue diseñada [9]. Fig. 1: Modelo general. b. Implementación de la lógica de Interrupciones El modelo de las interrupciones es realizado mediante Esta tarea de control del tráfico de datos entre PLC’s se activara cuando uno, llegue un dato proveniente de otro PLC, o dos, sea el mismo PLC quien quiera enviar datos hacia otra estación del sistema. Ej. El número de pallets colocados por el robot Melfa en la banda transportadora dependerá de la información enviada por parte del módulo Central.
    • IV. IMPLEMENTACION Para presentar una aproximación a la implementación del modelo, se escogió a la estación de Alimentación, y más específicamente a la sección encargada de distribuir las paletas que llevan el material en bruto dentro del módulo. La estación de alimentación se compone de 5 actuadores (L1 a L5), como se muestra en la figura 2, cuya rutina depende del tipo de pallet que llegue a la estación, enviado por el MELFA RV 2A si el pallet requiere una pieza de torno, se activa el cilindro L3 para empujar las paletas hacia el vagón, posteriormente el cilindro L1 empuja la paleta hacia el final del vagón donde el cilindro L5 deja caer el material para la pieza de torno, y finalmente el cilindro L4 agarra la paleta y la deposita en el pallet, actuando en conjunto con el cilindro vertical y las pinzas; Para un pallet de fresa, en lugar del cilindro L5, el que actúa es el cilindro L2 para depositar los cubos mecanizados. En este ejemplo se visualizara las secciones III.A y III.B del modelo. En la primera parte se realizara la programación de la lógica de interrupciones, para esto se tomarán dos cilindros que intervienen en el proceso como lo son L1, L5 y el cilindro vertical de la pinza, los cuales están directamente relacionados dentro de la secuencia normal del módulo. Se implementa una máquina de estados simple como la que se muestra en la figura 3. Asumiendo S0 como el estado en el cual el cilindro L1 se encuentra desactivado y S1 el estado en el cual el cilindro se encuentra activado. Este sistema de Interrupciones, asegura que el cilindro L1 no pueda ser activado, mientras el cilindro vertical este abajo o mientras el cilindro L5 este desactivado, lo que ocasionarían una colisión en el módulo. Fig. 2: Diagrama estación de alimentación. Fig. 3. Máquina de Estado Cilindro L1. Se establece a B0 como el estado del cilindro L5 y a B1 como el estado del cilindro vertical, los cuales deberán estar en ciertos estados B00 y B10 para que L1 pueda desplazarse hacia el final del vagón. Estas Máquinas de estado serán implementados mediante bloques funcionales (Add-Ons) como se muestra en la figura 4, esto debido a que los Add-Ons son muy útiles en rutinas de programación donde existen acciones redundantes, ya que estos pueden ser importados a otros PLC’s, así sean de diferentes Fabricantes. En el bloque mostrado en la figura 4, se pueden observar las entradas de la lógica de Interrupciones, las cuales tienen que activarse o desactivarse para pasar de un estado al otro dentro del modelo. B00 representa el estado en el cual el cual L5 se encuentra activado y por consiguiente en B01 L5 esta desactivado. En B10 el cilindro vertical se encuentra arriba, mientras que en B11 se encuentra abajo. Las salidas EAR21 y EAL1, son las marcas que servirán de bloqueo dentro de la rutina principal del programa, para evitar las posibles colisiones. La lógica interna del Add-Onn de supervisión, se muestra en la figura 5. Fig.4 Add-Onn del Cilindro Vertical.
    • Fig.5: Lógica Interna del Add-Onn. en los puntos donde es probable que esto ocurra. En cuanto a la lógica secuencial se implementó una red de Petri Para el módulo de Alimentación como se muestra en la figura 6. En la Red de Petri del Módulo de Alimentación se puede observar cómo tan pronto se detecta la presencia de un pallet en la banda arranca el proceso, acto seguido se determina si la codificación del pallet pertenece a Torno o a un cubo mecanizado, posteriormente se inicia con el proceso de activación y desactivación de los Actuadores. Otro aspecto que se debe tener en cuenta en esta parte secuencial, es el error que ocurre en el sistema cuando pasa un tiempo de 3s sin que se cumpla la condición, este es un tiempo prudente para que todos los cilindros lleguen a su final de carrera en el módulo, otra manera de incurrir en la acción de error será mediante la activación del Paro de Emergencia del Módulo. La rutina concluye, cuando el cilindro rotativo L6 se encuentra de nuevo sobre el modulo después de haber depositado cilindro o un cubo sobre el Pallet. Obsérvese que se han colocado las marcas del ejemplo anterior, con el objetivo de evitar que el proceso continúe si las marcas no están activas, otra manera de utilizar las interrupciones es la de enviar a otro estado como un paro de emergencia pero en el cual el operador pueda verificar inmediatamente cual es el error por el cual el proceso no continua normalmente. También se observa en la figura el envió y la recepción de datos en tres puntos clave del sistema entre el modulo y central, en el estado inicial, que indica que el modulo está en espera de una pieza, cuando arranca la rutina y cuando el proceso ha llegado a su fin. Estos datos son procesados primero por la tarea de comunicación. V. SIMULACION Y RESULTADOS Para la validación del modelo se utilizó la plataforma de Software del Fabricante Rockwell Automation, RSLogix 5000, el cual ofrece la facilidad de simulación de toda la programación, mediante un PLC virtual (RS Logyx Emulate 5000) [10], lo que facilitó la tarea de programación al no dependerfisicamente de un PLC, sin embargo al momento de la implementación final y para comprobar que efectivamente se puede implementar el programa en un PLC real, los programas fueron descargados en seis PLC’s Compaclogix referencia 5323 E-QB1, los cuales representaban a los seis módulos del FMS, junto con un Variador de Frecuencia referencia PowerFlex 40-E conectado a un motor trifásico para simular la banda transportadora en el sistema. Fig.6 Red de Petri del módulo de alimentación. Dentro de esta lógica interna se puede observar el uso de marcas para las transiciones entre estados (TransFlag y TransFlag1), una vez se cumplen los requerimientos de los 4 sensores de final de carrera que se encuentran en el módulo, además de esto se puede observar cómo al final de la rutina se activan las salidas del Add-Onn una vez el estado S1 se cumple. Las marcas habilitadas servirán para asegurar que el sistema no sufra ninguna colisión Con el objetivo de simular las entradas del sistema, inducidas por un operario y también por los Pallets que llegan a cada estación, se implementó un sistema de supervisión haciendo uso del Programa para la realización de sistemas SCADA de Rockwell, llamado Factory Talk View (Machine Edition) y mediante el uso de Panel Views Plus 600, las cuales servían como interfaz HMI entre el sistema de supervisión Interactivo y el operario. La simulación de las diferentes estaciones se muestra en la figura 7.
    • De la misma manera, haciendo uso del Factory Talk View, pero en esta ocasión de su edición Site, para implementar sistemas SCADA a un nivel aun mayor que el de las panel View, se implementaron los supervisorios completos de los seis Módulos, los cuales se pueden observar en las figuras 8 y 9, en donde se representan los principales elementos de cada estación, mediante una interfaz gráfica que muestra como cada módulo va realizando su rutina según el modelo planteado en las anteriores fases, e implementado mediante SFC y Bloques Funcionales . Estos sistemas SCADA ayudan a tener una visión más precisa de lo que sería la aplicación real del Modelo propuesto dentro de los módulos del FMS. Los movimientos de los actuadores son simulados mediante temporizadores, en el caso de las salidas análogas como las del robot Hidráulico estas se simulan mediante osciladores. De la misma manera se puede observar en los supervisorios la comunicación existente entre los 6 PLC’s , mediante el uso de Displays que muestran la información de otros PLC’s como es el caso de las estaciones Central y de Ensamble Hidráulico. En el SCADA de Central (Figura 8), se muestra como el usuario puede introducir el número de piezas a ensamblar, y también el estado de cada estación según el color de las balizas: (Verde: Listo, Amarillo: En Proceso y Rojo: En Paro), de esta manera se podía observar que la comunicación entre las distintas estaciones se estaba llevando acabo bien. Esto se comprobó activando simultáneamente todas las estaciones (Estado crítico), y observando que el flujo de datos no presentaba ninguna demora. Fig.7 Simulación en el Factory Talk View de los Panel View. Fig.8 SCADA Central. Fig.9 SCADA Alimentación. Dentro del Sistema de Supervisión del robot Melfa RV2A, se lleva un registro del número de Pallets despachados y del número de Ensambles recogidos por el robot, esto también ayudó a la comprobación del modelo, ya que sin importar la cantidad de ensambles solicitados por central, el sistema no presentaba confusiones, y además de esto si se presentaban dos eventos al mismo tiempo, por ejemplo que en el Melfa llegaran piezas de ensamble para retirar, mientras este se encontraba despachando un pedido de central, el robot terminaba de realizar el pedido, para después comenzar con el retiro de los ensambles listos de la banda. En cuanto a el control supervisorio se refiere, mediante el forzamiento de las entradas en el RSLogix, se comprobó que el sistema no realizaba ciertas rutinas mientras algunos sensores o actuadores no estaban generando la señal correcta En una implementación real estas anomalías podrían deberse a fallas técnicas de los actuadores o sensores involucrados, y los resultados podrían mostrarse en el número de paros no planeados del sistema. VI. CONCLUSIONES El Lenguaje de programación SFC, especificado en la norma IEC-61131-3, es muy útil combinado con otros lenguajes de programación si los procesos que se quieren controlar son secuenciales, como en el caso de la mayoría de módulos del FMS, si el proceso no es tan secuencial como en el caso del módulo de Central es muy útil la utilización de otros lenguajes
    • para programar su estructura principal. Los modelos de programación basados en Redes de Petri y Grafcet, son muy útiles en la programación de procesos industriales, dada su similitud con el SFC definido en la norma, ya que la mayoría de leyes que se establecen en los nodos y en las acciones de las redes de Petri y Grafcet también son aplicables en el SFC. Este artículo fue elaborado con la finalidad de mostrar un modelo funcional aplicando la norma IEC-61131-3, para la implementación de modelos de sistemas en tiempo discreto. En sistemas industriales se usan compiladores para pasar de Redes de Petri a SFC, y para la construcción misma de la red de Petri. VII REFERENCIAS [1] M. E. C. Berrio, Artist, Diseño de Codigo PLC para control Supervisorio Local bajo un enfoque Holarquico. [Art]. Universidad Nacional de Colombia, 2007. [2] G. Music, D. Gradisar y D. Matko, «IEC 61131-3 Compliant Control Code Generation fron Discrete Event Models,» IEEE, 2005. [3] C. Cassndras y S. Lafortune, «Introduction to Discrete Event Systems,» United Stes of America, 1999, pp. 61-66. [4] K.-H. Jhon y M. Tiegelkamp, IEC 61131-3: Programming Industrial Automation Systems, Springer, 2010. [5] «Mauinas de Estado,» 2012. [En línea]. Available: http://es.wikipedia.org/wiki/M%C3%A1quina_de_estados. [6] G. Music y D. Matko, «Petri net control of systems under discreteevent supervision.,» de ECC'03 European Control Conference, Cambridge, 2003. [7] F. Basile, P. Chiacchio y D. Teta, «IEC 61131-3 Based Implementation of PN Supervisors,» de DIIIE, Universita di Salerno, Fisciano, Italy, 2006. [8] P. Sen Shih y M. Chu Zhou, «Ladder Diagram and Petri-Net-Based Discrete-Event Control Design Methods,» IEEE Transaction and Systems, vol. 4, nº 4, 2004. [9] F. M. Martin, «Automatas Programables: Introduccion al estandar IEC 61131-3,» de Entorno Integrados de Automatizacion, 2006. [10] Logix5000 Controllers Common Procedures. [Art]. allan-Bradley.
    • Diseño SCADA para una Autoclave basado en la Norma IEC 61131 Design an Autoclave SCADA based on IEC61131 Germán Alejandro Piñeros Bernal, Álvaro Antonio Patiño Programa de Ingeniería en Automatización, Universidad de la Salle Bogotá D. C., Colombia. gpineros24@unisalle.edu.co alapatino@unisalle.edu.co  Resumen—El sistema de supervisión de control y adquisición de datos permite la gestión del proceso de esterilización de productos enlatados o en envases de vidrio, mejorando el proceso para controlar la presión y la temperatura dentro de la autoclave de forma local o remota, gracias a una interface gráfica que comunica al usuario con la autoclave y la caldera. A través de la aplicación de la norma IEC 61131-3, se optimiza la programación del proceso con el lenguaje ―SFC‖, es por esto que se llevó a cabo las etapas del proceso de esterilización con subrutinas, i. e. para el control de las variables análogas como la temperatura, la presión y el nivel, se crea una misma subrutina y así controlar cada variable. El diseño de la red industrial se realizó por medio del software IAB el cual permite generar la configuración de los equipos, con el fin de integrar los controladores con las redes de instrumentación DeviceNet. Abstract-The monitoring system control and data acquisition allows the management of the sterilization process of canned or in glass improving the process to control the pressure and temperature within the autoclave locally or remotely. A graphical user interface through which the user communicates with the autoclave and the boiler. Through the application of IEC 61131 is optimized with process programming language "SFC" is why it was carried out the steps of the sterilization process with subroutines. For example, for similar control of variables such as temperature, pressure and level, is created and thus control subroutine, each variable. The industrial network design was done by the IAB software which can generate the configuration of the equipment, in order to integrate the drivers with instrumentation DeviceNet networks. Índice de Términos—Autoclave, IEC 61131, SCADA, Redes industriales. Key terms-Autoclave, Networking. IEC 61131, SCADA, Industrial I. INTRODUCCIÓN El proceso de esterilización por vapor a presión se lleva a cabo en una autoclave, la figura 1 presenta la manera que ingresa el vapor saturado, a una presión de 15 PSI medida a través del manómetro lo que permite que la cámara alcance una temperatura de 121ºC controlada mediante el termostato. El tiempo de esterilización usualmente es de 15 minutos, sin embargo, en algunas oportunidades, dadas las características del material del envase y el producto a esterilizar, es necesario variar el tiempo de esterilización. Cuando se utiliza este método es importante controlar en la autoclave la relación entre la temperatura, la presión y el tiempo de exposición, ya que éstos son factores críticos en el proceso. Sólo cuando el vapor se coloca bajo presión, es cuando su temperatura aumenta por encima de los 100 ºC y esto permite alcanzar las temperaturas de esterilización entre los 116 ºC y los 121 °C. Entre las ventajas de este método de esterilización tenemos que no deja residuos, las autoclaves modernas son sencillas de manejar y es un método rápido de esterilización. Éste es el método de elección para esterilizar materiales termoestables y no sensibles a la humedad como medios de cultivo, cultivos de microorganismos para descartar, lencería, uniformes, instrumentos quirúrgicos, etc. Entre sus desventajas están que no permite la esterilización de materiales sensibles al calor y materiales no miscibles con el agua como es el caso de polvos, aceites y grasas. [1]
    • ideales para los tanques en espacios confinados, pero con el rango adecuado para el tamaño de la autoclave debe estar entre 0 a 25 PSI.[4] Los lazos de color morado número 4 en la figura 2 son el desagüe tanto de vapor como de agua que están conectados al punto de condensados para la reutilización del agua después de cada ciclo de esterilización. P&ID AUTOCLAVE VPI 4 SE_TAPA T VPT TEMP_1 3 V_VENTEO V_INTASUP VSR ENTRADA DE AIRE V_INTA_1 ENTRADA DE VAPOR N V_INTAINF S_NIVEL VINTV2 V_INTV1 VVB1 VVB3 CONDENSADOS VVB2 P 2 PRESION_1 AUTOCLAVE V_INTWSUP Figura 1. Proceso de esterilización por vapor a presión ENTRADA DE AGUA V_INTWINI II. METODOLOGÍA PROPUESTA PARA LA PROGRAMACIÓN DE UNA AUTOCLAVE A. Fase de revisión El proyecto consiste en la implementación de un sistema de supervisión y control, de un proceso de esterilización con calor húmedo, con el objetivo de garantizar una temperatura uniforme al interior de la autoclave y a su vez comunicar la caldera que suministra el vapor para que funcione la autoclave. En la actualidad el sistema es utilizado para esterilizar diferentes productos enlatados; en la Planta Piloto de Operaciones Unitarias de ingeniería de alimentos. B. Diagrama de instrumentos y tuberías de la autoclave. En la figura 2 se explica como van conectados cada uno de los lazos de control para cada variable en la autoclave como son: Nivel de agua dentro de la autoclave, el cual se encuentra de color verde número 1 en el gráfico, esté lazo tiene un sensor de tipo Bypass (color amarillo en el gráfico) que va montado en paralelo al tanque con un transmisor de señal 420mA, cerrando el lazo con la entrada análoga al PLC. [2], [10] El siguiente lazo de control es el de temperatura que esta de color rojo en la figura 2, está constituido por un sensor PT100, un transmisor 4-20mA, y un módulo RTD para la comunicación de los datos entre el PLC y el sensor. La respuesta del sensor de temperatura la recibe el controlador para que esté a su vez sea el que controle la apertura de la válvula proporcional de vapor, la cual actúa controlando el flujo de vapor. [3], [10]. Por último, el lazo de control de presión dentro de la autoclave de color azul en el gráfico, el cual se regula de forma paralela al de la temperatura debido a la ley de los gases 1 V_INTWINF VDI VPF 4 DRENAJE CONDENSADOS Figura 2. P&ID de la autoclave. C. Diagrama de instrumentos y tuberías de la caldera El P&ID de la caldera se puede ver en la figura 3 y esta constituido por tres variables de entrada, a) combustible de color rojo número 1 en la figura está constituido por entrada de ACPM, b) aire número 2 de color verde para la combustión dentro de la caldera, y c) agua número 3 de color azul para ser transformada en vapor saturado que es la variable de salida de la autoclave número 4 en la figura para así poder suministrar de energía la autoclave.[10] VAPOR 4 A AUTOCLAVE CALDERA DE TAMBOR 3 AGUA 1 ACPM 2 AIRE Figura 3. P&ID de la caldera
    • D. Fases de programación de la autoclave E. Fase de operaciones preliminares La aplicación de la norma IEC 61131-3 se ve reflejada en el método que se utilizó para automatizar la autoclave de acuerdo a los bloques funcionales[5] para cada etapa del proceso de esterilización, esté consiste en tres etapas en la figura 4 se especifica cada una de las etapas o bloques funcionales, donde la primera etapa es la de operaciones preliminares número 1 en la figura, el segundo bloque funcional es la etapa de esterilización número 2 en la figura y por último la etapa de enfriamiento número 3 en la figura. En la figura 6, se muestra el diagrama de bloques para la programación secuencial del sistema que verifica que algunas electroválvulas estén cerradas por seguridad antes de empezar la etapa de esterilización, luego se ingresa agua hasta la mitad de la altura en la autoclave para después precalentar hasta los 60°C. Luego se colocan dentro de la autoclave todos los envases de vidrio o enlatados a esterilizar, para así después verificar que efectivamente se cerró la autoclave por medio del sensor de la tapa. INICIO OPERACIONES PRELIMINARES AUTOMATIZACIÓN AUTOCLAVE REVISIÓN VÁLVULAS ADICIONAR AGUA OPERACIONES PRELIMINARES start:=1; VPT:=0; VPI:=0; VPF:=0; VSR:=0; VDI:=0; SE_TAPA:=1; V_INTWINF:=1; V_INTWINI:=1; 1 NO PROCESO DE ESTERILIZACIÓN 2 SNIVEL=50% ENFRIAMIENTO AUMENTO DE TEMPERATURA ETAPA 1 3 Figura 4. Fases de cada una de las etapas del proceso de esterilización. En la figura 5 se puede observar el comportamiento de la temperatura y la presión con respecto al tiempo dentro del proceso de esterilización en cada una de las etapas programadas en los bloques funcionales para la etapa de operaciones preliminares o calentamiento H en la gráfica, para la segunda etapa de esterilización S en la gráfica y por último la tercera etapa de enfriamiento C. Figura 5. Estado de la temperatura y la presión con respecto al tiempo. V_INTWINF:=0; V_INTV1:=1; V_INTV2:=1; V_INTAINF:=1; VVB1:=1; VVB2:=1; VVB3:=1;, NO TEMP1:=60; []; ^ SENS_TAPA:=1; PROCESO DE ESTERILIZACIÓN Figura 6. Diagrama de bloques de la Fase 1 de operaciones preliminares. F. Fase de esterilización. La segunda fase en la figura 7, una vez se haya cerrado la autoclave el operario debe ingresar el SetPoint de temperatura y el tiempo que debe durar la autoclave con esa temperatura, los cuales se deben digitar de acuerdo al tipo de producto enlatado a esterilizar, una vez digitado los valores comienza el proceso de elevación de la temperatura o calentamiento abriendo las válvulas de entrada de vapor, y aire para que aumente la presión interior en un menor tiempo y por ende la temperatura también aumente en un menor tiempo, en el momento en que ya ha llegado a la temperatura de esterilización comienza a transcurrir el tiempo que se debe mantener la temperatura para esterilizar el número de productos enlatados ingresados en la autoclave.
    • Elevación de la temperatura. INICIO ENFRIAMIENTO VVB1:=0; VVB2:=0; VVB3:=0; V_INTV1:=0; V_INTV2:=0; Verificación de válvulas Sens_tapa=1 TEMP_1:=60; NO SELECCIÓN SETPOINT Y TIEMPO V_INTV1:=0; SNIVEL:=?; TEMP_1:=?; TEMP=120°c TIEMPO=15MIN SI 1 V_INTAINF:=1; NO TEMP_1:=120; PRESION_1:=20; MENORQUE Válvulas para agua VSR:=1; V_INTWINI:=1; V_INTWSUP:=1; V_INTASUP:=1; 2 SI SI MAYORQUE V_INTAINF:=0; TEMP_1:=SETPOINT; NO PRESION_1:=20; VSR:=1; TIEMPO:=15; MENORQUE V_INTASUP:=0; VSR:=1; SI SI MAYORQUE Figura 7. Diagrama de bloques de la fase de esterilización. G. Fase de enfriamiento. La tercera fase en la figura 8 se muestra el proceso de la autoclave para llevar a cabo el enfriamiento de la autoclave como de los envases enlatados o de vidrio. El proceso comienza cuando se cierran las válvulas de entrada de vapor y las de aire, y al mismo tiempo se abren las válvulas de purga y de rebosadero para empezar a despresurizar la autoclave. Además se abren las válvulas de entrada de agua para empezar a disminuir la temperatura de forma más rápida al interior de la autoclave, a medida que va bajando el nivel de la temperatura se va controlando también el nivel de presión, puesto que el vapor se condensa cuando se disminuye la temperatura genera agua lo cual hace subir el nivel al interior de la autoclave, por esta razón es necesario regular la apertura de la válvula de rebosadero y así desfogar agua hasta el punto en que la presión se vuelva cero PSI y la temperatura pueda llegar a la temperatura ambiente ±25°Celsius, en ese momento ya se puede volver a abrir la autoclave para verificar el estado de los productos y su posterior análisis de laboratorio.[5] VSR:=1; SI TIEMPO:=15; VSR:=1; 2 NO 1 Figura 8. Etapa de enfriamiento de la autoclave. H. Programación de la caldera. La programación de la caldera se realizó de manera secuencial, en la figura 9 se muestra cómo se trabajó en el programa para enviar un dato al PLC de la autoclave y corroborar que de esta forma empieza a trabajar con la anergia del vapor suministrado de lo contrario la autoclave no puede empezar la fase de operaciones previas. INICIO CALDERA ACTIVACIÓN DE VALVULAS V_COMBUSTIBLE:=ON; V_AIRE:=ON; V_AGUA:=ON; NO NIVEL:=50%; SI MANTIENE NIVEL V_AGUA:=OFF; NO TEMPERATUR A:=180°C; PRESIÓN:=25p si; SI ENVIAR VAPOR A CALDERA Figura 9. Diagrama de bloques de la caldera
    • I. Integración de software. Este proyecto se realizó con herramientas de trabajo de la empresa Rockwell Automation como se puede observar en la figura 10 son: en la programación del Controlador PLC el software Rslogix 5000, supervisorio Factory Talk View, conexión entre el PLC y los dispositivos de la red Rslinx clasic, y la simulación Emulate 5000. Para el diseño de la red EtherNet y la DeviceNet en el programa Integrate Architect Builder (IAB) y el software Rslogix Architect además de la integración de las Tag´s del proyecto. Figura 11. Diseño de la red entre la autoclave y la caldera. Figura 10. Diseño de la integración del software de Rockwell Automation J. Diseño de la red. El diseño que se muestra en la figura 11 está basado bajo unos estándares de comunicación industrial ya establecidos para la comunicación de los datos de cada una de las variables medidas dentro del proceso de esterilización, esto hace que el proceso de selección tanto de elementos primarios como los finales de control sean más sencillos de conseguir en el mercado, además de conectar bajo planos normalizados en el momento de hacer la red física. En la figura 12 se puede observar cómo están conectadas en la red Devicenet todas las señales de los instrumentos de medición y control final, esta red fue diseñada en el programa IAB donde se colocaron todos los componentes de la misma. Todos los instrumentos de sensado tienen el mismo protocolo de comunicaciones que es Devicenet, y entre el PLC y el computador personal es a través de Ethernet vista en la figura 13 también diseñada en el software IAB y enlazado con el programa Rslogix Architect para la referencia de la programación de las Tag’s de cada instrumento dentro de la red EtherNet. Un elemento adicional además del PC para poder observar el comportamiento de las variables en tiempo real fueron las Panel View comunicada también a través de Ethernet al Switch de comunicaciones obteniendo mayor supervisión de las variables en el proceso tanto de la autoclave como el de la caldera.[7], [9] Figura 12. Red Devicenet de instrumentación Figura 13. Red Ethernet de instrumentos de control K. El supervisorio de la autoclave y la caldera El supervisorio [8] que se encuentra en la figura 14 se realizó en el Programa Factory Talk de la SiteEdction, el cual nos ayudó a poder generar de manera más fácil la interacción entre el operario y la automatización de la autoclave dando animación a los objetos y así poder controlar todas las entradas y salidas del PLC, ofreciendo un entorno más amigable para el operador y el manejo del proceso de cada una de las etapas de esterilización de los productos enlatados. El
    • enfoque que se le dio al supervisorio está bajo normas [6] para que el operario pueda llegar a entender de forma intuitiva el proceso, y no se canse después de haber trabajado varias horas y además pueda dar solución a algún error de forma inmediata. De izquierda a derecha en la figura 14 se observan los controles y los datos que debe suministrar el operario a la autoclave para la etapa de calentamiento y esterilización de los productos, y en la parte derecha se observa el comportamiento de cada una de las variables, temperatura, presión y nivel, en el centro podemos observar cómo están distribuidas cada una de las válvulas y los sensores de la autoclave. Figura 14. Esquema del supervisorio de la autoclave Para el supervisorio de la caldera que se encuentra en la figura 14 se tuvo en cuenta de acuerdo a la programación y la función de cada una de las variables a controlar la distribución dentro de la ventana dando prioridad a la alimentación de combustible y al nivel de agua dentro de la misma. El operario tiene en la parte inferior izquierda los botones de encendido y paro de emergencia de la caldera, e inmediatamente puede observar el comportamiento de cada una de las válvulas de ingreso de agua, combustible y aire, en el momento en que llega el nivel de agua al 50% se emite una señal de encendido que verifica que empieza a enviar vapor a la autoclave.[8] Figura 14. Supervisorio de la caldera III. CONCLUSIONES La norma IEC 61131 es la adecuada para programar un proceso de producción industrial debido a que estandariza formas de programación como lo son los bloques de funciones o Addon. Estos bloques funcionales optimizan la reutilización de código para cualquier aplicación lo único que se debe realizar es adaptar el bloque para el proceso específico a controlar. En el proyecto se utilizó un bloque para controlar el nivel de agua dentro de la autoclave y en la caldera, además temperatura y presión dentro de la autoclave. La comunicación de los dos procesos, caldera y autoclave se pudo realizar mediante la creación de una red, dejando el PLC de la caldera como maestro y el PLC de la autoclave como esclavo y de esta forma garantizar que la autoclave solo pueda trabajar si la caldera ya le ha suministrado la fuente de energía para realizar el proceso de esterilización. La utilización del software de Rockwell Automation ayudó a realizar los planos de control en una planta de procesos de forma más rápida teniendo en cuenta, numero de instrumentos de medición a utilizar, numero de PLC´s en la red, asignar las direcciones IP de cada uno de los instrumentos y al mismo tiempo las Tag´s para la referencia en los planos de conexión a través de la integración del software Rslogix Architec e IAB el cual imprime un informe completo acerca de toda la red que se creó con Tag´s que se le asignaron en la programación del proyecto realizado en Rslogix 5000. Estas herramientas ayudan a economizar tiempo en el momento de la planeación, diseño y realización del montaje de los equipos en la planta, además pueden generar listado de costos de los materiales a utilizar en el proyecto. REFERENCIAS W. H. Severnes, H. E. Degler, J. C. Miles, ―Energía mediante vapor, aire o gas‖, 1ra ed. vol. 1, Ed. REVERTË S. A, 2007, pp. 126–164. [2] Kobold Messing GmbH, Operating Instruction for mini bypass level indicator. 2nd ed. Vol 1. Ed. Kobold Messing GmbH, 2012, pp. 1–17. [3] Creus Solé, A. (2011). Instrumentación Industrial (Octava ed., Vol. I). México, ciudad de México, México: Alfa omega Grupo Editor, S. A. de C. V. [4] ANSI_ISA S5.X, diagramas P&ID ―Norma ISA S5.1,‖ IEEE Trans. Electrón Devices, vol. ED-11, pp. 34–39, Jul. 1992. [5] Karl/Heinz john, ―IEC programming Industrial Automation system,‖ Concepts and programming languages, requirements for programming systems, 2nd Ed. vol. 1, pp. 9–389, July 2006. [6] Comité europeo de normalización, ―Ergonómicas requirements os visual display terminals,‖. vol. 44, no. 4, pp. 5–73, Apr. 2001. [7] E. H. Miller, ―A note on reflector arrays (Periodical style—Accepted for publication),‖ IEEE Trans. Antennas Propagate., to be published. [8] A. Rodríguez Penin, ―Sistemas SCADA‖, Guia de Diseño de HMI´s, 1era ed. Vol. 1, Ed. MARCOMBO, S. A. 2006, pp. 93-146. [9] A. Rodríguez Penin, ―Comunicaciones Industriales‖, Bus de campo PROFIBUS, 1era ed. Vol. 1, Ed. MARCOMBO, S. A. 2006, pp. 215230. [10] A. Creus Solé, ―Simulación y control de procesos por ordenador‖, Elementos finales de control, 2 da ed. Vol. 1, Ed. MARCOMBO, S. A. 2007, pp. 225-243. [1]
    • DISEÑO Y MANUFACTURA DE UN ROBOT PENDULAR SUSPENDIDO DE 4 GDL, PARA UTILIZARLO DENTRO DE UN APLICATIVO DE REALIDAD VIRTUAL AUMENTADA CON COLECCIONES DE MUSEOGRAFIA Y TELECONTROL POR INTERNET DESIGN AND MANUFACTURE OF PENDULUM SUSPENDED ROBOTIC ARM OF 4 DOF, FOR USE IN A ENHANCE VIRTUAL REALITY APPLICATION WITH REMOTE MUSEOGRAPHY COLLECTIONS ONLINE AND INTERNET CONTROL Méndez M. Luis Miguel Department of Mechanical and Mechatronics Engineering Universidad Nacional de Colombia Bogotá D.C.,Colombia lmmendezm@unal.edu.co Pantoja R. Cesar Augusto Department of Electrical and Electronic Engineering Universidad Nacional de Colombia Bogotá D.C., Colombia capantojar@unal.edu.co Abstract—This paper presents the design, manufacture, control and implementation of a robot pendulum suspended from 4 degrees of freedom, used to control the position and display a high-definition camera within the project "Theater of Memory virtual Worlds". The hardware is simulated in a virtual environment J3D-VRML 2.0, which includes an algorithm to avoid collisions between the camera and the object also has a user interface that includes representation of the robot to make supervision and control using a client-server through internet with commercial joystick and viewing the video output of the camera from the scene digitally reconstructed museum through multicasting system. Index Terms—Client-server, multicasting, Collision. I. RESUMEN El presente artículo presenta el desarrollo del proceso de diseño, manufactura, control y aplicación, de un robot pendular suspendido de 4 grados de libertad, utilizado para controlar la posición y visualización de una cámara de alta definición dentro del proyecto “Teatro de la Memoria en Mundos Virtuales.” El hardware es simulado en un ambiente virtual J3D –VRML 2.0, el cual incluye un algoritmo para evitar colisiones entre la cámara y el objeto, además cuenta con una interfase al usuario que incluye la representación del robot para Uribe M. Bernardo Stetic Research Institute Universidad Nacional de Colombia Bogotá D.C.,Colombia buribem@unal.edu.co permitir su control mediante una aplicación cliente-servidor a través de internet usando varios tipos de joystick comerciales y la visualización del video capturado junto con la composición de una escena museológica reconstruida digitalmente, mediante un sistema multicasting. II. INTRODUCCIÓN Se han aplicado técnicas de estudio virtual 3D en el tiempo real a la multimedia, trabajos de arte y en la postproducción de cine y video [1]. Por otro lado, se han desarrollado técnicas de control del movimiento de cámaras desde ambientes virtuales para uso en medicina, en laboratorios y centro de trabajo virtual [2]. En la aplicación del estudio virtual llevada a cabo para la visualización de colecciones de museografía a través de internet vía stream, (p.e. realidad aumentada para la visualización de objetos de exhibición), se combinan las dos técnicas anteriores para trabajar en una herramienta inmersita de visualización en la realidad aumentada de objetos de la exhibición museográfica. La aplicación del estudio virtual es parte del despliegue de tres mundos, plegados en: un "Teatro de Memoria en Mundos Virtuales” [3] que consiste de un conjunto de ambientes WRL
    • y X3D de la visualización de la colección de un museo. El primer despliegue o mundo 1 incluye un motor de búsqueda en ambiente gráfico, del universo de la colección exhibida. El segundo despliegue o mundo 2 incluye una galería virtual para seleccionar la visualización de objetos 3D fotografiados. En el despliegue del mundo 3D, un objeto de la exhibición se selecciona para inspección íntima dentro del ambiente virtual que usa video en vivo y que a través del control de iluminación y del movimiento de una cámara por un robot pendular, pone en pantalla la imagen filmada real de los objetos 3D al usar las técnicas del estudio virtual. No es muy común el uso de técnicas de estudio virtual y video en vivo para la visualización de exhibiciones reales en aplicaciones sobre la web o a nivel multimedia. Con el progreso actual en el hardware y el software para video digital de alta definición, la implementación de una aplicación de alto perfil con las técnicas del estudio virtual se hizo alcanzable e interesante como proyecto de investigación. Así las colecciones restringidas y las exhibiciones específicas se convierten en accesibles al público general. Por ejemplo, colecciones que no son tan populares como aquéllos que incluyen objetos extraordinario o íconos especiales. Las herramientas de visualización de estudio virtual de este tipo de exhibiciones, realizadas por demanda, pueden trabajar como una librería abierta a la comunidad permanentemente para investigar, criticar y opinar. La visualización usando técnicas de estudio virtual de los ambientes virtuales puede ayudar a mejore la experiencia impopular de algunas exhibiciones y museos. III. LA IMPLEMENTACION DEL ESTUDIO VIRTUAL III-A El diseño del Robot y el control de los movimientos del podio de la cámara: Un robot de cuatro cuerpos fue desarrollado para controlar el movimiento de una cámara Sony DSR PDX - 10 handycam, estos se utilizaron en la experimentación del estudio virtual como se observa en la figura No.1. Como punto de partida se consideraron las siguientes restricciones de diseño:  Navegación y movimiento lento y suave para una visualización contínua y libre de vibraciones del objeto.     Campo de observación de 360º rodeando el hemisferio superior del objeto. Acercamiento con restricción de la cámara al objeto, permitiendo el uso de lentes de acercamiento. Simplicidad en diseño aplicando DFM/A. Los componentes del robot deben ser de fácil transporte y ensamble, adaptándose a diferentes locaciones del museo (las colecciones). Figura 1. Experimentación del Estudio real y Virtual: Prototipo de robot soportando la cámara. El diseño mecánico se desarrolló con el uso del software CAD SOLID EDGE V16 y por las condiciones de velocidad baja, se realizó un diseño estático de los cuerpos del robot. Para las articulaciones, se sobredimensionó la condición estática de torque máximo y se calcularon los ejes considerando condición de esfuerzos por debajo de la mitad del esfuerzo de fluencia. Para la selección de motores se utilizó esta información, con la que se eligieron motores con reductores planetarios acoplados a reductores sin fin corona con autobloqueo, los cuales permiten eliminar el uso de frenos magnéticos o dispositivos similares. Posterior a esta actividad, se trabajo en disminuir el torque con el uso de contrapesos en el cuerpo correspondiente y trabajando en el controlador el balance estático y dinámico. Según algunas de las bases explicadas en la referencia [10]. La figura No. 2 muestra la estructura final del robot, después de los ajustes que se diseñaron en las condiciones de ensamble y en la selección de los reductores y motoreductores, sus acoples a los ejes y la optimización posterior a vibraciones y juego de los sistemas sin fin corona que se lograron conseguir en el mercado local. El software CAM Unigraphics fue usado para fabricar los componentes de aluminio, así también las fijaciones para estas piezas, las cuales son las platinas laterales estructurales de los diferentes cuerpos. También se utilizó para la fabricación de los soportes y alojamientos de los rodamientos de los ejes y de los dados de tracción entre el eje y el siguiente cuerpo que se encuentra fijo al eje.
    • movimiento del antebrazo y la muñeca se seleccionaron motores DC de poco peso y alto torque de MAXON MOTORS y para el movimiento del brazo y la rotación principal se buscaron motores usados en el mercado local DC y baja velocidad. Las condiciones finales logradas en cada articulación fueron:     Figura 2. Cuerpos del robot que controla la posición de la cámara.   Cuerpo Nº 0: Estructura de soporte superior. Cuerpo Nº 1 (Hombro). Posición fija en x, y y z, con rotación vertical en el eje principal.  Articulación principal: articulación rotacional alrededor del eje vertical.  Cuerpo Nº 2: Brazo.  Segunda articulación: articulación pendular simple alrededor de un eje horizontal fijo en el cuerpo Nº1.  Cuerpo Nº 3 Antebrazo.  Tercera articulación: Articulación de revolución pendular en serie alrededor de un eje horizontal fijo en el cuerpo Nº 2, pendular relativa.  Cuerpo Nº 4 muñeca  Cuarta articulación: rotación relativa al eje longitudinal de la muñeca, esta articulación hace de soporte final de la cámara HD. Para fabricar las demás piezas, se utilizaron máquinas herramientas convencionales, se dispuso de un torno paralelo y una fresa universal para mecanizar los ejes y diversas piezas de acero o para premaquinar y reducir el costo en las máquinas CNC. El uso de herramientas CAM se aplicó en un Centro del Mecanizado Vertical Leadwell V20 en el campus de la Universidad Nacional de Colombia en Bogotá, en el Laboratorio de Mecatrónica del Departamento de Ingeniería Mecánica y Mecatrónica. Para el control de movimiento de la aplicación, los elementos seleccionados fueron de dos tipos, para el La articulación principal (Rotación vertical): motor de 24V DC con reductor planetario de relación 16:1 y encoder de 500 PPV. Se utiliza un reductor sin fin corona 24:1 Con autobloqueo. Segunda Articulación (pendular principal): motor de 24V DC con redactor planetario de relación 16:1 y encoder de 500 PPV. Se utiliza un reductor sin fin corona 30:1 con autobloqueo. Tercera articulación (pendular relativa): Manejado por: Motor 24V DC con encoder de 500 PPV Reductor planetario: relación. Se utiliza un reductor sin fin corona 60:1 Con autobloqueo. Cuarta Articulación (rotación relativa): Manejado por: 24V DC con encoder de 500 PPV con reductor 6.3:1. El Control de movimiento del robot es hecho con una CPU de 32 bits @100MHz, que trabaja para coordinar el movimiento de cada una de las articulaciones compuestas de un servomotor DC para proporcionar un movimiento completamente envolvente de la pieza de colección del museo en su exploración. (Unidad de control usada: DSP eZdsp F2808). Hay tres módulos: El módulo de control de motores, en el cual se producen las señales de PWM, dirección del giro y velocidad de cada articulación. El módulo de comunicaciones, donde una interfaz RS232 provee comunicación bidireccional y sincronización entre los mundos virtual y real a través de un servidor IBM, el cual obtiene las órdenes de movimiento de las estaciones clientes y devuelve la retroalimentación de las posiciones a los mismos. Cálculo de las posiciones: Se lleva a cabo un calculo de las posiciones de cada articulación en grados a partir de sus posiciones absolutas. Generador de trayectorias: la implementación de los algoritmos de control lineal de movimiento del podio robótico para la cámara incluyen una estructura de sistema de doble referencia, donde el movimiento suave y continuo es un requisito básico de la visualización del video de la cámara real. El generador de trayectoria proporciona la señal de control requerida para ese fin. Figura No. 3. La posición es calculada y enviada a la aplicación java 3D para la sincronización entre los mundos real y virtual.
    • responderá ubicándose en ese punto de vista sobre el objeto de la exhibición en el estudio real. La construcción del podio robótico virtual involucra la indexación de la geometría en un arreglo que trabaja con un conjunto de valores de puntos de una matriz. Así, la simulación y el procesamiento de la posición en coordenadas XYZ de información para cada cuerpo del robot son reducidas sin tener un cambio en las coordenadas del objeto en el ambiente virtual. Una clase de objeto llamada Podio calcula la posición de la cámara y los vectores de orientación para definir el punto de vista de la cámara virtual en la aplicación y retroalimenta el movimiento al modelo real. El modelo virtual del robot también contiene las dimensiones reales del robot como valores constantes que ayudan con el funcionamiento de las capacidades y sincronización con el robot real. Figura 3. Trayectorias de movimiento exploradas ω velocidad angular, θ posición, α aceleración y j impulso y La estructura de doble referencia del control. La señales de control son amplificadas por módulos servoamplificadores Z12ADDC, los cuales manejan directamente los motores,, eliminando IV. JAVA 3D Y EL AMBIENTE VIRTUAL La simulación del movimiento de la cámara real y su video en vivo 2D de superficie fueron embebidos dentro de un ambiente grafico como un solo grupo, en el que están la escena 3D virtual unida a la visualización DV de la cámara que ha tenido una extracción aparte del fondo por Croma-key en una etapa anterior en un mezclador de video. En el ambiente virtual confluyen todos estos elementos adicionando en tiempo real las condiciones actuales del control del podio robótico. Los elementos gráficos confluyentes son: La grilla: ayuda a definir las condiciones de la escena en el ambiente virtual. Contiene una simulación de la posición real de la exhibición, tamaño y escala que será visualizada por el usuario. También incluye algunos almacenados WRL/X3D para ser importados en la implementación. La superficie 2D captura de video real: se sincroniza con la posición real de la cámara. La salida de DV en vivo de la cámara real se convierte a una imagen 2D con textura en RGB. La superficie 2D incluye una extracción chroma-key del objeto de la exhibición. El modelo virtual del podio robótico soporte de la cámara: incluye capacidades virtuales mecánicas sincronizadas con el podio robótico soporte de la cámara, manteniendo proporciones dimensionales. El usuario puede seleccionar un punto de vista del podio virtual y el podio robótico real Figura 4. Mando que Ve la Interfaz. Java 3D componentes de árbol de Escena. IV-A Comportamiento de la escena de control e interacción del ambiente La interacción del usuario con el ambiente requiere de modificaciones en tiempo real que se compilan a la vez. Así, la implementación de la aplicación incluye una clase extra PodioBehavior objeto de referencia de la escena, definido como la simulación del podio robótico. El objeto Transformgroup es también una clase de referencia. Los datos calculados para el objeto podio sincronizan la cámara y podio virtuales con los comandos de navegación del usuario. En esta clase también se incluyen los puntos de vista predefinidos y el campo de operación para la implementación, esto asiste al usuario para el movimiento real de la cámara y la navegación del podio sobre el objeto de la exhibición. Ver figura No. 4.
    • IV-B La IHM en Java 3D La interfaz hombre maquina incluye ventanas de despliegue del punto de vista grandes y pequeñas y un mapa de datos con información del mundo 3D. Los despliegues del campo de operación del robot simulado y el punto de vista de la cámara virtual son sincronizados para ayudar al usuario con el control de navegación a través de un joystick. La simulación de la navegación también incluye la herramienta gráfica de grilla para la operación del robot real. Un rasgo especial incluye la navegación automática de la cámara desde cinco puntos de vista virtuales predefinidos. Sin embargo, la interfaz fue diseñada para permitir la navegación desde puntos de vista arbitrarios. El modelo del robot virtual incluye cuatro controles de navegación en 5 tipos de joystick distintos, que corresponden a los cuatro ángulos de navegación y direcciones de los puntos de vista de los cuatro cuerpos articulados (X, Y, Z). IV-C Implementación del Software de Colisión Uno de los objetivos del proyecto consiste en evitar colisiones, choques, impactos, entre los objetos analizados (que pueden ser piezas frágiles como jarrones, fósiles, etc.) y el brazo robótico que transporta la cámara de video, ya que, como es obvio podría dañar la pieza analizada. Por tal motivo se procede a desarrollar una aplicación que impida cualquier colisión. Como se puede observar en la Figura No. 5 lo que se pretende es rodear al elemento a analizar con una semiesfera creada por software, la idea es que la cámara (ubicada en P2) además del extremo P1 no ingresen al espacio ocupado por dicha semiesfera. Gracias a elementos electrónicos (tales como encoders) presentes en la aplicación conocemos con exactitud la posición de las extremidades del podio, conocemos los ángulos α y β (ver Figura 5) que generan estos al desplazarse. Estos ángulos se obtienen de la cantidad de rotaciones que hacen los motores al ser encendidos, donde dichas rotaciones se interpretan como desplazamientos angulares. Entonces, teniendo los ángulos generados por el podio y las longitudes L1 y L2, por simple geometría resulta sencillo calcular las posiciones de los puntos P1 y P2 y a nivel de software se restringe a que lugares del espacio (no ocupado por la semiesfera) se le permite el movimiento al brazo robótico. Lo anterior se logra primero que todo definiendo un plano en el espacio ocupado por la semiesfera y al conocer las posiciones de los puntos P1 y P2 se realiza una validación para verificar si los puntos P1 y P2 están dentro, en contacto o fuera de la semiesfera, y posterior a esto a nivel de software se decide si se detiene o no el movimiento del brazo robótico. De igual manera se pretende evitar que el podio choque con las paredes de la superficie que envuelve el escenario, en este caso se procede a generar no una semiesfera si no un cono y se emplea el mismo racionamiento anterior con la salvedad de ser dos superficies geométricas distintas pero en esencia el mismo análisis y solución. Visualización con respecto a los movimientos del Joystick, es una cadena de texto codificada que separa cada evento o movimiento por un carácter especial, esta cadena es decodificada en el Nodo Central y envía las ordenes de movimiento al podio, los 3 motores principales dependen de los 3 ejes del Joysti ck. Fi gura 5. Cu ando la cámar a se encue ntre fuera del área prohib ida, la esfera aparecerá de color verde Figura No. 6, de lo contrario aparecerá de color rojo cada vez que el podio choque con la esfera Figura No. 7. Figura 6
    • de Visualización, los eventos generados del Driver son codificados y enviados directamente por la red Multicast al Nodo Central sin que tenga ningún contacto con las estructuras y escenas locales, posteriormente con la retroalimentación del Nodo Central se verán los cambios en el sistema generados por los eventos provenientes del Joystick. El tipo de dato que se envía desde el Nodo de Visualización con respecto a los movimientos del Joystick, es una cadena de texto codificada que separa cada evento o movimiento por un carácter especial, esta cadena es decodificada en el Nodo Central y envía las ordenes de movimiento al podio, los 3 motores principales dependen de los 3 ejes del Joystick. V-B Servidor: Este contiene una única clase: Server.java. Esta se encarga de recibir las conexiones entrantes de la clase cliente y de esta forma recibe y envía datos hacia el cliente. VI. SOFTWARE MULTIMEDIA Y MULTICASTING. Figura 7 V. APLICACIÓN CLIENTE-SERVIDOR La Aplicación desarrollada contiene dos módulos: Cliente y Servidor. El primero contiene los métodos necesarios para recibir los datos generados por el Joystick y posterior a esto enviar dichos datos hacia el servidor gracias a la dirección IP de este último. El segundo módulo llamado Servidor se encarga de recibir los datos enviados por el cliente y posterior a esto dichos datos son enviados a través del puerto serial hacia la DSP la cual es la encargada de controlar el Podio y por ende la cámara de video (ver Figura 8). Figura 8. V-A Cliente: Este contiene dos clases, Main.java y Client.java, la primera establece la conexión y contiene todo el código necesario para recibir y enviar los datos del joystick, mientras que la segunda se encarga de crear el socket cliente. Control del Joystick : funciona como un módulo independiente dentro del Cliente La aplicación consta de un nodo central que está instalado en un ordenador servidor y éste a su vez está conectado directamente con el podio robótico y la cámara, éste recibe la información de navegación del sistema de por medio de la tarjeta DSP y activa la luces dinámicas y el sistema de control de colisión MR software. Figura 7. El video obtenido de la cámara es transmitido a los usuarios de los nodos, que a su vez interactúan con él. También se incorporó un módulo de chat, de manera que los usuarios puedan estar en contacto unos con otros. El vídeo capturado es transformado a un formato RGB y se presenta como una superficie de la tela 3D integrado en un entorno J3D 3D. La composición Z incluye la conversión a una escena J3D VRML / Escena X3D. La señal de vídeo de la cámara montada en el brazo robótico es capturada directamente por la tarjeta importadora de vídeo Flux 3550, la cual está conectada al Video Mixer SE 800, con funciones de extracción de fondo y chroma-key. El video no se muestra directamente, Se transforma primero Frame por Frame y píxel por píxel para el proceso de extracción de fondo (JMF), que elimina el verde del fondo producido por el mezclador de vídeo y deja un fondo transparente. entonces el vídeo resultante se incrusta en la escena 3D y asi se completa el VRML/X3D. Para la extracción del fondo verde, se utilizó una decodificación del vídeo frame por frame, así cada trama se transmite con los datos de posición del podio y así el procesamiento no necesita ser hecho en los nodos R. De esta manera la composición final Z es la que se envía. Por esa razón, el Flux Digital 3550 Rapids Stream Software no se utilizó. en su lugar un módulo especial en la aplicación central lee directamente el vídeo del puerto local y la aplicación JOrta envía el vídeo por grupos de frames de acuerdo con la aplicación multicasting del cliente.
    • Este sistema en el que varios usuarios puedan ver escenas 3D y operar el control remoto del brazo robótico, requiere varios tipos de funciones del servidor, conectados en una red IP multicasting para que todos los usuarios pueden recibir toda la información. [7]  Módulo de control con Joystick: Cuenta con la posibilidad de conectar hasta 5 tipos diferentes de joystick a través de USB, tambien proporciona todas las funciones de comunicación y control.  Los eventos creados por el joystick en el PC remoto crean un string que se envía directamente al nodo servidor y de ahí al brazo robótico a través del puerto serial RS232.  Módulo de conexión de puerto serie para el envío de datos. Tan pronto como el brazo robótico es activado, un string de realimentación se envía de vuelta por el puerto RS232 hacia el servidor (nodo s) con los ángulos respectivos a las posiciones de cada articulación.  La recepción de nuevos String de realimentación y la decodificación desde el puerto serie.  Cada dato recibido desde el DSP, se envía a la escena virtual y actualiza la posición del podio virtual en el PC remoto.  La pantalla GUI. incluye 2 escenas 3D: La operación del podio robótico y el punto de vista de la cámara, que son sincronizados en tiempo real con la posición recibida.  El quinto módulo corre paralelo al flujo de datos de los últimos 4 módulos e interactúa con la tarjeta de vídeo y su tratamiento para extraer el fondo. El stream resultante se muestra en la escena principal del usuario, ya que corresponde a un Objeto 3D (siempre situado en el centro de la escena 3d.) estático y por lo tanto se forma la composición final. Figura 7. Diagrama de la arquitectura multicasting con 2 servidores, uno para el video Workstation IBM Z pro, otro para el Telecontrol Blade IBM HS22 y 3 aplicaciones clientes . VII. RESULTADOS El trabajo sobre las herramientas del estudio virtual se ha enfocado en el diseño, desarrollo y sincronización de los diferentes componentes de hardware y software para construir una inmersión de la percepción en un ambiente de estudio virtual. El desarrollo de los contenidos 3D incluyen escenas virtuales en X3D y WRL, así como la visualización de DV en vivo. El prototipo del estudio virtual desarrollado es una herramienta para la visualización de realidad aumentada dentro de locaciones de museos. Del control y visualización remotos en un ambiente distribuido para el “Teatro de Memoria”, se recopilaron importantes datos para el desarrollo de aplicaciones. CONCLUSIONES La implementación de ambientes de inmersión 3D del estudio virtual como una herramienta de realidad aumentada para la visualización en el lugar o remota de colecciones museográficas demandan un alto perfil del hardware y del software utilizado para ello, si el objetivo es una visualización de alta calidad. Pero si una herramienta compacta es desarrollada, la herramienta de realidad aumentada para las colecciones de museo, en sitio o remota, puede ayudar a transformar la experiencia en el museo. El desarrollo de este proyecto ha involucrado un trabajo interdisciplinario muy interesante desde la mecánica, la eléctrica, la electrónica, las ciencias de la computación, hasta la aplicación del estudio virtual en vivo, lo que era al principio un desafío muy alto, los límites del estudio están abiertos para trabajar en la generación de trayectoria con técnicas diferentes, la optimización del diseño mecánico, otro tipos de robots, teleoperación y visualización, reducción de las limitaciones del software respecto al espacio de trabajo y espacios de trabajo predefinidos según las pieza en observación. Este trabajo también puede usarse para técnicas de supervisión en producción CAD/CAM, vigilancia, fábricas del futuro, medicina, y otras diversas disciplinas de las ciencias y la ingeniería. REFERENCIAS [1] B. Uribe et Alt, “A Theatre of Memory in Virtual Worlds” International Conference Virtual Worlds, Springer, 2000. [2] B, Johnson, “Beyond On-line Collections: Putting Objects to work”, Museums and the Web 2004 International Conference, Archives & Museums Informatics, www.archimuse.com .
    • [3] T, Cinotti , et alt, “Evaluating context –Aware Mobile Applications in Museums: Experience from the MUSE Project, ICHIM 03 . [4] W, Thomas, et Alt, “Actual/Virtual Visits: what are the Links?”, Museums and the Web 2005. [5] A Sardella, Video Distribution in a Hybrid Multicast Unicast World , Juniper Networks, Inc 2005. [12] S ,Rusinkeiewicz, et Alt, “Real Time 3D Model Acquisition” Proceedings of ACM Siggraph 2002. [6] J.Fernández, Multicast Información Tecnológica, CISCO, Enterasys Networks 2007. [15] Benford, S, et alt, “Fragmented Boundaries: Mixing Realities by Replaying Virtual Worlds in Real Spaces”, University of Nottingham, U.K. 2001. [7] V.Darlagiannis and N.Georganas, Virtual Collaboration and Media Sharing using COSMOS, School Of Information Technology and Engineering University of Ottawa, 2010. [8] Park e Inoue , “Real Image Based Virtual Studio”, 1 International Conference Virtual Worlds, Springer, 1998 . [9] T. Kanade et Alt , “Digitizing a varying 3D Event as is and in Real time; in “ Mixed Reality: Merging Real and Virtual Worlds”, Springer, 1999. [10] W.P Cockshot, et Alt, “Interactive 3D Studio for TV, The Michela ngelo Project, University of Glasgow ,2000; Park, S W et Alt; “Real Time Camera Calibration for Virtual Studio”, Academic Press , 2000 . [11] T ,Fukuya, et Alt, “An Effective Interaction Tool for performance in the Virtual Studio”, Studio Systems, 2003. [13] R Craig, J, “ Introduction to Robotics Mechanics and Control”, Addison Wesly Longman, 1989. [14] Kelly, “ Control de Movimientos Manipuladores”, Prentice Hall 2003. de Robots [16] Burgard, W. The Interactive Museum Tour-Guide Robot. in American Association of Artificial Intelligence '98, Madison, Wisconsin, 1998. [17] Kanade et Alt , “Digitizing a varying 3D Event as is and in Real time;in “ Mixed Reality: Merging Real and Virtual Worlds”, Springer, 1999. [18] Benford, S, Understanding and Constructing shared spaces with mixed –reality bounda-ries, ACM transactions on Volume 5 Issue3, Sept.1998 Pages 185 Computer-Human Interaction (TOCHI) .
    • Evaluación del Desempeño de un Controlador MPC para Una Planta Multivariable de Tanques Interactuantes Mario A. Zuñiga M., Pedro L. Rivera W., Francisco Franco Departamento de Electrónica y Telecomunicaciones, Ingeniería en Automática Industrial, Universidad del Cauca Popayán, Colombia mazuniga@unicauca.edu.co leonr@unicauca.edu.co fobando@unicauca.edu.co Abstract - En este trabajo, se expone el estudio, diseño y evaluación de desempeño de la técnica de control predictivo (MPC) frente a un PID multivariable para un proceso MIMO con control de nivel en un sistema de tanques interactuantes no lineales. Para el estudio se hace uso de la Planta Multivariable no lineal del Laboratorio de Procesos de la Universidad del Cauca. I. forma que cuando se busca encestar en el baloncesto, gracias a un entrenamiento previo, se obtiene un modelo mental que relaciona fuerza del tiro con trayectoria de la bola, y de acuerdo a la distancia entre el punto de tiro a la cesta, se calcula cuanta fuerza se necesita en el lanzamiento, imaginando repetidos lanzamientos ajustando la fuerza. En la fig. 1 se muestra un diagrama básico de un algoritmo MPC. INTRODUCCIÓN El control predictivo tiene como objetivo resolver de forma efectiva, problemas de control y automatización de procesos industriales que se caractericen por presentar un comportamiento dinámico complicado, multivariable, y/o inestable [1]. Una de las propiedades más atractivas del MPC es su formulación abierta, que permite la incorporación de distintos tipos de modelos de predicción, sean lineales o no lineales, monovariables o multivariables, y la consideración de restricciones sobre las señales del sistema En este artículo se expone el estudio y diseño de la técnica de control predictivo, para la primera parte, se habla sobre los conceptos y lineamentos de la técnica de control MPC, posteriormente se explica brevemente la planta multivariable caso de estudio. En una tercera parte, se tiene una descripción del diseño del controlador MPC para el modelo computacional de la planta caso estudio para después, analizar el comportamiento y el desempeño del controlador sobre el modelo de la planta teniendo como referencia la estrategia de control PID multivariable con desacoplador. II. CONTROL PREDICTIVO MPC En líneas generales, el MPC es un algoritmo de control en tiempo discreto que consiste en encontrar la variación del esfuerzo de control que pueda hacer mínimo el error futuro en un proceso controlado, haciendo uso de un modelo del mismo [2]. Viéndolo de una manera más clara, este tipo de controlador hace uso de un modelo del comportamiento del proceso para poder pronosticar cuál será la reacción del proceso ante la acción que se planea ejecutar [3]. Utiliza esta información para ajustar las acciones hasta encontrar una que sea satisfactoria, de igual Fig. 1 Diagrama de flujo de un controlador predictivo básico Para facilitar la aproximación al entendimiento del algoritmo MPC, se pueden resaltar los siguientes conceptos importantes para entender la composición y funcionamiento del mismo: modelo de predicción, horizonte de predicción, función de coste, sintonización y restricciones.
    • A. Modelo de Predicción y Horizonte de Predicción Para predecir el comportamiento futuro de un proceso ante una variación en el esfuerzo de control, se debe contar con un modelo de comportamiento del proceso. El MPC cuenta con una formulación abierta que permite trabajar con modelos de predicción, lineales, no lineales, monovariables, multivariables, y la consideración de restricciones sobre las señales del sistema [4]. Los modelos lineales son los más utilizados [5], gracias a que muchas no linealidades pueden ser tratadas de manera efectiva por la incertidumbre del modelo y restricciones de la ley de control. Un modelo lineal en espacio de estados observa en el tiempo las transformaciones que suceden al interior de un proceso, y no solo la relación entrada a salida. El método divide un modelo de orden n, en n ecuaciones de orden uno, cada una llamada, ecuación de estado. El uso de un modelo de predicción basado en espacio de estados supone como ventaja la flexibilidad para trabajar con sistemas MIMO debido a que de esta manera el caso MIMO se reduce a un caso SISO, baja carga computacional en las predicciones, son ampliamente usados y desarrollados en círculos académicos y facilidad para análisis de estabilidad. Al usar un modelo de espacio de estados para calcular predicción en n-pasos por delante, la forma general de la ecuación seria de la forma: Control [6], la cual será la utilizada en este caso de estudio que incluye un término de penalización de incumplimiento de restricciones y un término de ajuste integral como se puede ver en la ecuación (2) a continuación. ( ∑ |∑ ( ( | |) ( ∑| ∑| ) ( ( | |) ( ))| ( ) )| ( ))| (2) Donde se han adicionado términos como el cual introduce la penalización de violación de restricciones, y | ( ( | |) ( ))| es usado para priorizar la atención a una de las variables de entrada sobre otras en caso de que se tengan más señales de entradas que de salidas. C. Sintonización y Restricciones [ ] (1) En la ecuación (1) se encuentra una combinación lineal de todos los estados y las entradas del sistema, donde x indica los estados, y denota las salidas del proceso a controlar, u representa las entradas del proceso o salidas del controlador, A, B, C definen el modelo de espacio de estados, n es el número de estados y el subíndice k indica el instante de tiempo. Se comprende que la sintonización es el mejor aliado de una especificación de rendimiento deseado. Si se logra obtener la función de costo adecuada, la sintonización puede asegurar la estabilidad y los requerimientos del proceso, gracias a que por definición, la sintonización es la optimización de la función de costo para el caso particular del proceso. Una vez se ha diseñado el controlador, la sintonización consiste en hallar valores numéricos para las matrices de ponderación de las salidas futuras y de las variaciones de esfuerzos de Se podría pensar en alguien que quiere cruzar la calle. No es suficiente con que pueda verse en la calle los carros u obstáculos en ese instante de tiempo entre la persona y el otro lado de la calle. Es importante hacer una especie de cálculo mental desde el tiempo actual al tiempo necesario para cruzar la calle (horizonte de predicción), esto para saber si la trayectoria de la persona al cruzar la calle no se intercepta con la trayectoria de algún carro. De esta forma, la elección de este tiempo es vital debido a que un horizonte muy estrecho puede causar ser atropellado en el tramo de calle que no ha sido previsto o tornarse indeciso al encontrar nuevos obstáculos en la calle y tener que cambiar de manera brusca la acción que se ejecuta, y un horizonte muy amplio es inútil además de lograr que la persona tome acciones de una forma más tardía. control , es decir, poniendo diferente ponderación en el rendimiento en lazos diferentes en función de su importancia puede lograrse mayor sensibilidad en uno u otro lazo y también puede lograrse dar una mayor importancia a la velocidad de cambio de la variable controlada o a la suavidad de la acción de control. B. Función de Coste No existen metodologías universalmente aceptadas o seguidas al momento de hacer una sintonización en un controlador predictivo, pero se propone el siguiente procedimiento. La función de coste de un controlador es una función matemática que contiene todos los criterios que tiene en cuenta el controlador al momento de elegir la acción de control. Cada autor agrega términos o modifica la ecuación de acuerdo a las necesidades de su proceso, un ejemplo de esto es la función de costo utilizada por el software Matlab en el bloque de Simulink “Model Predictive Control” del Toolbox Model Predictive Para el caso MIMO [7] hay que considerar que y son vectores o conjuntos de coeficientes del tamaño del número de variables manipuladas y controladas respectivamente, usualmente la sintonización en estos casos empieza definiendo valores por defecto a todos los coeficientes y mediante pruebas se determina si aumentar o disminuir los coeficientes buscando siempre un comportamiento deseado. Buscar el balance de estabilidad con velocidad de respuesta, cambiando los coeficientes de y de una manera simultánea hasta que uno o todos los lazos tengan el comportamiento de estabilidad y velocidad de respuesta deseados.
    • Buscar el balance entre los lazos de control, cuando estos están interactuando entre sí, puede haber un lazo con una respuesta no satisfactoria, en este caso se cambian solo los coeficientes de y asociados, teniendo en cuenta a su vez la respuesta de los otros lazos. En cuanto a instrumentación, se cuenta con dos medidores de flujo, dos medidores de nivel, dos motobombas y dos variadores de frecuencia. Para una descripción más detallada de los componentes e instrumentos de la misma, ver [8]. √ Una de las principales ventajas del MPC es su capacidad para el manejo de restricciones en línea de una manera sistemática. Las restricciones son el conjunto de los valores de entradas, salidas, estados o esfuerzos de control que son prohibidos para el proceso debido a que estos pueden generar funcionamientos indeseados tales como destrucción o mal funcionamiento del proceso o de la instrumentación del mismo, e inestabilidad. También comprende los valores de las variables manipuladas o controladas que el proceso no es capaz de alcanzar o cualquier otra restricción posible. III. MODELO DE LA PLANTA CASO DE ESTUDIO El presente trabajo se desarrolla para la Planta Multivariable del Laboratorio de Procesos de la Universidad del Cauca. Se escogió esta planta debido a que es una planta MIMO con dos sistemas hidráulicos interconectados y dos tanques que presentan no-linealidades, el tipo de procesos para los cuales fue diseñado el control predictivo en sus inicios y donde se puede apreciar sus ventajas en cuanto a metodología de diseño y flexibilidad para manejar criterios y restricciones. La planta multivariable de tanques interactuantes es un sistema compuesto por seis tanques y un sistema de tuberías que conecta los diferentes tanques entre sí, de esta manera se puede asumir que la planta es un circuito hidráulico dividido en dos lazos como se puede observar en la figura 2, cada uno de estos lazos está compuesto por tres tanques interconectados mediante tuberías y una motobomba [8]. Es importante aclarar que en este proyecto el control se realiza en los tanques 1 y 2, de esta forma la altura para el tanque 1 (h1) está dada por la ecuación (3) y para el tanque 2 (h2) está definida por la ecuación (4) y estas a su vez son dependientes del tanque 3 (ecuación (5)) y tanque 4 (ecuación (6)). √ √ √ ( √ ( √ (3) ( ) ) (5) ) (6) Dónde: : Caudal de entrada proveniente de la motobomba. : Caudal de entrada proveniente del tanque superior. : Área del tanque analizado . : Altura del líquido en el tanque . : Área del orificio de salida del fluido del tanque . : Coeficiente de descarga del fluido del tanque de área variable . : Gravedad en . IV. CONTROL MPC PARA LA PLANTA MULTIVARIABLE CASO DE ESTUDIO La filosofía del control predictivo está orientada al desarrollo ágil, por ende el diseño se ha modularizado. El diseño consiste básicamente en hacer un modelo predictivo que represente el comportamiento de la planta, elegir el tipo de control mediante la elección de los términos de la ecuación de costo y la optimización, y realizar la sintonización de los pesos de dichos términos para la puesta a punto del sistema. A. Análisis del proceso Este análisis consiste básicamente en encontrar los parámetros iniciales para el diseño del controlador predictivo mediante el análisis del comportamiento intrínseco del proceso, más específicamente los rangos, transientes, tiempo de reacción, entre otros. TABLA I RANGOS VARIABLES DEL PROCESO Variable Unidades h1 [0 , 0.3] m h2 [0 , 0.3] m Q1 Fig. 2 Diagrama general Planta Multivariable [9] Rango [1.812484977515029e-04 , 5.345367314759430e-04] m3/s Q2 [1.822998164148790e-04 , 6.346016084544000e-04] m3/s
    • Es importante aclarar, que los rangos especificados en la tabla 1 para las variables de control, son rangos que obedecen a las capacidades físicas de la planta, por lo tanto los valores usados de Q1 y Q2 para los cálculos, así como los resultantes para h1 y h2, que se encuentren fuera de estos rangos, no representan un significado real, de esta forma, dichos valores deben ser usados como restricciones duras para el optimizador del algoritmo de control. Para la presente planta, en lazo abierto el máximo transiente es de 40 segundos. Además el transiente para llegar a sus máximos valores posibles toma entre 10 y 30 segundos. El tiempo de reacción de la planta es el tiempo en el que se nota un cambio apreciable en la variable controlada, este es medido desde el tiempo en el que se realiza un cambio en la variable manipulada. Para el presente caso, el tiempo de reacción es muy rápido, transcurren aproximadamente 19 ms entre el cambio de consigna y su reflejo en el nivel de los tanques. El valor del máximo transiente es vital para elegir el horizonte de predicción, ya que se espera que se calcule el comportamiento de la planta durante todo el transiente con el objetivo de asegurar que no aparezca ninguna dinámica importante de improvisto en la planta mientras se llega al estado estacionario, así el algoritmo de optimización puede calcular el esfuerzo de control para hacer la planta estable. Por otra parte, el tiempo típico del transiente en combinación con el tiempo de reacción de la planta da una idea de cuánto tiempo se necesita entre cambios de la variable manipulada para ser capaz de compensar cambios inesperados en la variable controlada. Teniendo en cuenta lo anterior, el valor del intervalo de control se ha fijado a 2 segundos, debido a que este tiempo de respuesta permite al controlador actuar de manera suficientemente oportuna respecto de los transientes del proceso de los cuales se habló, además de que permite usar de manera adecuada el algoritmo del controlador al darle tiempo suficiente para llevar a cabo los cálculos matemáticos necesarios. Siguiendo el mismo análisis, el horizonte de predicción tiene un valor de 150 intervalos de control, esto significa que el controlador estima el comportamiento futuro de los 150 intervalos siguientes al momento actual, se eligió este valor ya que este tiempo es superior a la duración de la gran mayoría de los transientes de la planta. Un valor superior de este parámetro no mejora significativamente el desempeño de la predicción del comportamiento futuro, de hecho lo empeora al hacer que el peso de los puntos calculados en el transiente sea más bajo que el peso calculado para el estado estacionario, lo que suaviza la respuesta del controlador haciéndolo más lento y por ende incrementa de gran manera el tiempo de ejecución del algoritmo al tener que hacer cálculos más grandes. Por último, se ha elegido un horizonte de control de 4 instantes para que el controlador calcule 4 movidas de predicción, esto para que sea capaz de comparar más de una movida de predicción sin hacer un gasto computacional muy grande en la optimización para varios puntos, los parámetros anteriormente detallados se encuentran en la tabla 2. B. Modelo de predicción para el controlador Fig. 3 Controlador MPC El controlador predictivo puede manejar una gran variedad de modelos de predicción como se indicó anteriormente. El hecho de utilizar una aproximación obtenida de la linealización del modelo en espacio de estados, ofrece ventajas en lo que respecta a la carga computacional y a la fácil identificación de dicho modelo a través de algoritmos de identificación de caja negra, además de identificar paramétricamente un modelo aproximado en un punto de operación mediante algoritmos de linealización. TABLA 3 PUNTO DE OPERACIÓN DE LA LINEALIZACIÓN Variable Punto de operación h1(m) 0.1039 h2 (m) 0,1482 Q1(m3/s) 3,7075465512e-04 Q2(m3/s) 3,2783518656e-04 TABLA II PARÁMETROS HALLADOS MEDIANTE EL ANÁLISIS DE LA PLANTA Parámetro Valor Unidades Intervalo de control 1 Segundos Horizonte de predicción 150 Instantes de muestreo Horizonte de control 4 Instantes de muestreo (7)
    • De lo anterior, se podría decir que es común usar modelos de espacios de estados linealizados para puntos de operación y por lo tanto, a partir de los modelos de la planta establecidos se decidió usar un modelo de predicción basado en espacio de estados. Posteriormente se cablea el modelo como se muestra en la figura 3 para poder usar el linealizador de la herramienta MPC toolbox de Matlab. anteriormente, esto gracias a la interfaz de simulación de la herramienta de control predictivo de Matlab. Se llegó a unos valores finales, los cuales presentaban un comportamiento estable que brindo las mejores características de velocidad de respuesta y absorción de incertidumbre de la planta. Estos valores se pueden apreciar en las ecuaciones (8) a (10). [ Mediante la herramienta de simulación Simulink, se realiza la simulación del diagrama de bloques de la figura 3 con el punto de operación especificado en la tabla 3 y se obtuvo un modelo discreto en espacio de estados expresado en la ecuación (7). ] ] [ [ ( ) ( ) ] ( ) C. Montaje del controlador y sintonización Una vez establecidos los parámetros de tiempo y la estructura del controlador MPC diseñado, se procede al montaje del mismo para realizar su configuración y sintonización. Se realiza mediante la herramienta MPC design toolbox de la plataforma Matlab. Cuando Matlab termina la ejecución del asistente de construcción del objeto MPC, nos encontramos con una interfaz que nos muestra el resultado de la linealización del modelo, que es el representado por la ecuación (7). D. Sintonización Se tiene que el control predictivo funciona mediante la optimización en torno a una ecuación de costo, expresada por la ecuación 2 más exactamente. Al crear un controlador predictivo en Matlab, los valores que permiten la sintonización del mismo son:  El pesaje de rata de cambio del esfuerzo de control, representado por , y como “Rate weight” en el interfaz de sintonización de Matlab. Un valor pequeño indica que el controlador va a cambiar de manera rápida el valor del esfuerzo de control, mientras un valor alto implica que el controlador hace ajustes conservadores y pequeños. DESEMPEÑO CONTROLADOR PREDICTIVO La evaluación y análisis del desempeño del controlador MPC se confronta con la técnica de control PID multivariable con control desacoplado existente en la planta caso de estudio. El control PID es una técnica de control que se basa fundamentalmente en el control del lazo a través de la aplicación de tres señales: proporcional, integral y derivativo y se refieren a las acciones de control tomadas usualmente sobre el error. La sintonización de parámetros corresponde a la selección de los valores para , y del controlador, a continuación en la figura 4 podemos observar el diagrama de control del mismo y en la tabla 4 se encuentran detallados los parámetros del mismo. Para mayor detalle recurrir a [8]. Los pesos de salida se encuentran representados como , y en la interfaz de sintonización de Matlab como “Output weight”, son los encargados de definir la importancia relativa del error en el pesaje, indicando así la precisión con la que se debe seguir la consigna.  V.  Los pesos en la entrada, representados por y en la interfaz de sintonización de Matlab como “Input weight”, permiten tomar en cuenta desviaciones que se dan en la variable manipulada y variaciones de sus valores nominales. Para encontrar los pesos óptimos, es necesario escoger una configuración para la cual los comportamientos de la consigna del tanque 1 y 2 estén en el rango medio de las posibilidades básicas. La configuración seleccionada es la configuración de diseño, en este caso, el punto de operación ya mencionado anteriormente. Se inicializa con los valores de pesaje por defecto y se modifican hasta llegar a un comportamiento deseado. La metodología de sintonización utilizada es a prueba y error, teniendo en cuenta la metodología propuesta Fig. 4 Controlador PID TABLA 4 PARAMETROS CONTROLADOR PID (s/ ) (s) (s) Controlador PID 1 Controlador PID 2 Las características de respuesta dinámica de un sistema pueden ser evaluadas con precisión utilizando una serie de medidas útiles en el dominio del tiempo. Estas medidas incluyen: el tiempo de subida, el tiempo de establecimiento, y las medidas integrales de error. El tiempo de subida ( ), se define como el tiempo desde el cambio de referencia o consigna en el punto de ajuste hasta que la variable controlada alcanza el nuevo punto de ajuste o consigna. El tiempo de establecimiento ( ), se define como el tiempo que el sistema necesita para alcanzar un "casi constante" valor, por lo general ± 5 % de su valor final. Otra forma de evaluar el desempeño de un controlador es el criterio de la integral del error al cuadrado (ISE). La ecuación de este
    • criterio está dada por: (11) ( ) ∫ valor de consigna setpoint h1 y setpoint h2 respectivamente sin error en estado estacionario adicional a que presenta una señal sin sobre impulsó y proporcionalmente un pequeño error en el transitorio. Se realiza una serie de experimentos con diferentes configuraciones (Tabla 4) y tipos de consigna (Tabla 5). TABLA 4 CONFIGURACIONES DE VALVULAS MANUALES Apertura de Válvulas manuales (%) Nombre de la configuración LV101-3 LV101-5 LV102-3 LV102-5 Configuración Abierta 100 100 100 100 Configuración PID 60 40 60 40 Configuración Aleatoria 100 60 100 100 TABLA 5 TIPOS DE CONSIGNAS 0.18 A. Seguimiento de consigna Se busca evaluación del desempeño de los controladores en el seguimiento de consigna evaluando y confrontando los tiempos de subida, tiempos de estabilización y errores cuadrático (ISE) para las configuraciones de la tabla 4 y los tipos de consigna de la tabla 5 de los dos controladores. A continuación en la Fig. 4 y 5, se representaran las respuestas obtenidas por cada controlador más exactamente una por técnica de control. A continuación una gráfica donde se confronta el desempeño del controlador MPC diseñado frente al PID multivariable mediante el índice de tiempo de estabilización para el seguimiento de consignas. 2 MPC 1,5 PID 1 0,5 0 Abierta PID ALTAS 0.15 MEDIAS Altas BAJAS 0.14 ALTAS 0.11 MEDIAS Medias De la fig. 5 se puede resumir que el controlador PID presenta un buen funcionamiento, aunque existe un sobre impulso en h1 y h2, estas se estabilizan en su valor de consigna setpoint h1 y setpoint h2 respectivamente sin error en estado estacionario. BAJAS 0.09 ALTAS h2 0.06 MEDIAS h1 Bajas Fig. 5 Respuesta controlador PID para la configuración Abierta y consignas bajas. BAJAS Valor de las consignas (m) Tiempo estabilizacion (s) Tipo de consignas Aleatoria Fig. 6 Tiempo de estabilización para seguimiento de consigna. De los resultados obtenidos se pueden concluir algunos aspectos importantes como:  Fig. 4 Respuesta controlador MPC para la configuración Abierta y consignas bajas. De la fig. 4 se puede deducir que la respuesta del controlador MPC en el seguimiento de consigna con la configuración abierta para consignas bajas presenta un buen comportamiento, nótese que las dos variable controladas h1 y h2 se estabilizan en su Promediando los valores, el controlador MPC diseñado tiene un tiempo de estabilización menor que el PID multivariable, esto gracias al algoritmo de control predictivo, más específicamente al algoritmo de optimización.  Es de notar, la dependencia del tipo de configuración para el desempeño del controlador MPC con respecto al tiempo de estabilización, así a menor porcentaje de apertura de las válvulas manuales (configuración PID) mayor tiempo de estabilización y con un mayor porcentaje de apertura (configuración Abierta) menor tiempo de estabilización, esto gracias a que se altera el tao del sistema.
    •  El desempeño del controlador MPC con respecto al tiempo de estabilización es dependiente del tipo de consigna, de esta forma a mayor valor de consigna menor tiempo de estabilización, esto puede ser debido a que para un error grande la acción de control es mayor y cuando el error es pequeño la acción de control es igual. El criterio de la integral del error al cuadrado (ISE), indica la desviación integral acumulativa de la variable controlada al setpoint o consigna, de tal forma que un valor pequeño es deseado. Teniendo en cuenta lo anterior podemos inferir de la figura 8.  El controlador MPC diseñado presenta un mejor desempeño frente al PID multivariable para el seguimiento de consigna, sustentable en el menor tiempo de estabilización, tiempo de subida y señal sin sobre impulso.  El criterio de error cuadrático ISE es proporcional al valor de consigna, es decir a mayor valor de consigna más error va existir debido a que el ISE calcula el área entre las variables controladas h1 y h2 y sus consignas respectivas setpoint h1 y setpoint h2. Tiempo subida (s) Los Tiempos de subida del controlador MPC diseñado y el PID multivariable para seguimiento de consigna, se pueden ver en la Figura 7. 400 MPC 300 PID 200 B. Compensación de lazos de control 100 ALTAS MEDIAS BAJAS ALTAS MEDIAS BAJAS ALTAS MEDIAS BAJAS 0 Abierta PID Aleatoria Fig. 7 Tiempo de subida para seguimiento de consigna. De lo anterior se podría decir que el desempeño del controlador MPC diseñado frente al PID multivariable con respecto al tiempo de subida es: h1 inicial h2 inicial h1 final h2 final 0.13 0.07 0.13 0.1 0.13 0.07 Se analizara la variable de control que sufre el cambio de consigna (para la primera fase h2 y en la segunda fase h1) mediante el tiempo de estabilización y tiempo de subida, y para evaluar el efecto de un lazo sobre el otro se utilizara el criterio ISE evaluándolo en el lazo de control que no cambia por cada fase (para la primera fase h1 y para la segunda fase h2). PID Tiempo Estabilizacion (s) MPC 0,002 Abierta 0,0015 0,001 PID Aleatoria ALTAS MEDIAS BAJAS ALTAS MEDIAS BAJAS ALTAS MEDIAS 0,0005 BAJAS Error (m^2) Experimento Segunda Fase h2 final h1 final 0.1 2 1,8 1,6 1,4 1,2 1 0,8 0,6 0,4 0,2 0 Valores de consigna (m) h2 inicial El desempeño del controlador MPC diseñado frente al PID multivariable también es confrontado mediante el criterio de error ISE. Los datos obtenidos por el seguimiento de consigna del ISE pueden ser vistos en la Figura 8. Experimento Primera Fase 0.07 El tiempo de subida de la respuesta del controlador MPC diseñado es inversamente proporcional al porcentaje de apertura de las válvulas manuales y directamente proporcionales al valor de las consignas. TABLA 6 COMPENSACIÓN DE LAZOS El controlador MPC diseñado tiene un tiempo de subida menor que el PID multivariable, esto gracias al algoritmo de control predictivo, que selecciona el valor del esfuerzo de control proporcional al error, de tal forma que un esfuerzo de control grande para un error grande.  Se establece un setpoint inicial para las dos variables, después se varía la consigna de una de ellas, se observa el cambio en la otra y viceversa. Para más detalle ver la Tabla 6. h1 inicial  En esta sección se busca evaluar el desempeño del controlador MPC diseñado y el controlador PID multivariable ante cambios de setpoint en las variables controladas. Abierta PID Aleatoria Fig. 8 Integral de error cuadrática para seguimiento de consigna. 0 MPC h2 PID h2 MPC h1 PID h1 Primera Fase Segunda Fase Fig. 9 Tiempo de estabilización para compensación de lazos de control
    • Tiempo subida (s) De la gráfica se puede decir que el MPC diseñado tiene un mejor desempeño que el PID multivariable en lo que respecta a tiempo de estabilización para toda configuración ante variaciones de consignas, gracias a su algoritmo predictivo y multivariable que se anticipa a los cambios y permite generar acciones de control óptimas para los dos lazos de control. 0,002 0,0015 Abierta PID Aleatoria 0,001 responder ante un cambio o disturbio primero se debe ver representado este en la planta. C. Disturbios externos Los disturbios externos para este caso, son los introducidos por las electroválvulas (FY101-2 para el Tanque 1 y FY102-2 para el Tanque 2). Se busca observar el comportamiento y respuesta del controlador MPC y el controlador PID multivariable ante este tipo de disturbio mediante y para ello se plantea el siguiente experimento. Se realiza la apertura de la electroválvula FY101-2 y posteriormente después de que el sistema se estabilice se introduce un segundo disturbio mediante la apertura de la electroválvula FY102-2, esto se realizara para las configuraciones dadas por la Tabla 1. 0,0005 0 MPC h2 PID h2 MPC h1 Primera Fase PID h1 Segunda Fase Fig. 11 Tiempo de subida para compensación de lazos de control. En la siguiente figura se podrá apreciar gráficamente los tiempos de estabilización del controlador MPC diseñado frente al PID multivariable. De la gráfica anterior podemos inferir: El Controlador MPC diseñado alcanza el valor de consigna de forma rápida ante cambios de consignas en cualquiera de las dos variables controladas, y no permite que este tipo de disturbio se propague en el lazo constante.  Promediando, el tiempo de subida del PID multivariable es más del triple del controlador MPC diseñado. PID 0,01 Aleatoria 0,008 0,006 0,004 0,002 Como se dijo anteriormente, el criterio de error ISE se utilizara para determinar el efecto generado por el cambio de consigna de un lazo de control en la variable controlada del otro. Para evidenciar esto, en la figura 12 se puede notar estos efectos. 0 MPC h1 PID h1 Error (m^2) MPC h2 PID h2 Disturbio FY101-2 Disturbio FY102-2 Fig. 13 Tiempo de estabilización para disturbios externos. Abierta De la gráfica se puede decir: PID 0,002  0,0015 El MPC diseñado logra menos tiempo en estabilizarse o recuperarse después de un disturbio externo en cualquiera de los lazos de control que el PID multivariable. Aleatoria 0,001 Para ver los tiempos de subida evaluados en los experimentos correspondientes a la respuesta ante disturbios externos la figura 14 0,0005 MPC h2 PID h2 Primera Fase MPC h1 PID h1 Segunda Fase Fig. 12 Integral de error cuadrática para seguimiento de consigna. De la gráfica representada en la figura 12 podemos inferir: El MPC compensa perfectamente las variaciones que sufre la variable de control ante cambios de consigna en el lazo opuesto, su algoritmo predictivo permite anticiparse y actuar rápidamente, mientras el controlador PID aunque realiza su trabajo permite que el disturbio generado por el cambio de consigna se propague a el otro lazo de control, lo cual es debido a su naturaleza de control feetback que para Tiempo subida(s) 0,015 0  Abierta 0,012 Tiempo Estabillizacion (s)  0,014 Abierta PID 0,01 Aleatoria 0,005 0 MPC h1 PID h1 Disturbio FY101-2 MPC h2 PID h2 Disturbio FY102-2 Fig. 14 Tiempo de subida para disturbios externos.
    • De la gráfica anterior podemos decir:  Promediando, el Controlador MPC diseñado tarda menos de la cuarta parte en alcanzar el valor de consigna que el tiempo que le toma al PID multivariable después de ser afectados por un disturbio externo en cualquiera de los lazos de control. correctamente ante disturbios internos, permitiendo un control sobre todo el rango de funcionamiento del modelo computacional de la planta multivariable caso de estudio. VI.  El controlador predictivo ofrece como ventaja sobre el PID un desempeño superior, un diseño modularizado que hace fácil su puesta a punto y una gran versatilidad al incluir criterios de desempeño y restricciones.  La normalización de las señales ayuda de gran manera en el proceso de sintonización debido a que las escalas numéricas de entradas y salidas se hacen similares.  El esquema de control predictivo del controlador MPC diseñado permite un mejor desempeño que el PID multivariable ante disturbios internos, disturbios externos seguimiento de consigna y compensación de lazos de control.  El efecto de cambio de consigna o disturbios externos en un lazo de control se propaga sobre el otro lazo de control si no es seleccionada una buena técnica de control. En la figura 15 se grafican los ISE del controlador MPC diseñado y el PID multivariable ante los disturbios externos. Error (m^2) 0,014 Abierta 0,012 PID 0,01 CONCLUSIONES Aleatoria 0,008 0,006 0,004 0,002 0 MPC h1 PID h1 Disturbio FY101-2 MPC h2 PID h2 Disturbio FY102-2 Fig. 15 Grafica de la integral de error cuadrática para disturbios externos. Como se dijo anteriormente, el criterio de la integral del error al cuadrado (ISE), indica la desviación integral acumulativa de la variable controlada al setpoint o consigna, de tal forma que un valor pequeño es deseado. Según esto se podría decir:  La respuesta del controlador MPC diseñado a los disturbios externos es deseada, compensa perfectamente las variaciones que sufre la variable de control directamente afectada e implementa acciones de control para que este disturbio no se vea reflejado en el otro lazo de control. Esto es sustentable por la gráfica anterior, donde es notable la diferencia del valor del ISE del MPC diseñado frente al PID multivariable y también por las técnicas de control, donde el MPC pronostica “n” estados y selecciona el mejor, mientras el PID debe esperar a que se propague el disturbio. D. Disturbios internos Los disturbios internos para nuestro caso de estudio son las válvulas manuales (LV101-3, LV101-5, LV102-3 y LV102-5) como se explica en capítulos anteriores. Teniendo en cuenta esto, la respuesta del controlador MPC y el controlado PID multivariable ante disturbios internos ya fue evaluado en el transcurso del presente capitulo, en el seguimiento de consigna, compensación de lazos y respuesta a disturbios externos, gracias a que para todos estos experimentos se evaluación el desempeño en diferentes configuraciones de válvulas manuales que se especifican en la Tabla 1. De una forma general, utilizando los datos ya obtenidos durante todo este capítulo se podría concluir:  El controlador MPC diseñado es muy superior al PID multivariable, presenta un buen desempeño para todas las configuraciones evaluadas y por lo tanto responde BIBLIOGRAFIA [1] CLARKE David, HALLDROSSON Ulfur. Adaptive Predictive Control, ROBOTICS AND AUTOMATION, CONTROL SYSTEMS, VOL X [en línea]. <http://www.eolss.net/Sample-Chapters/C18/E6-4315-04.pdf> [citado en 11 de febrero de 2013]. [2] CANNON Mark, KOUVARITAKIS Basil. Nonlinear Predictive Control, theory and practice. London, Institution of Engineering and Technology (2008) 3-5 p, Control engineering series No.61. ISBN: 085296-984-8. [3] ROSSITER Jonh. Model Based Predictive Control: a practical approach, CRC PRESS (2005) 1-3 p, Control series. ISBN: 0-20358568-2. [4] CANNON,KOUVARITAKIS.Op.Cit.,4p. [5] GONZÁLEZ TAMAYO Juan Pablo. Análisis de la energía de la señal de control y el error a sistemas linealizados implementando GPC y DMC. Manizales (2005). Trabajo de grado (Magister en Automatización Industrial). Universidad Nacional de Colombia, sede Manizales. Departamento de Ingeniería Eléctrica, Electrónica y de Computación. Disponible en la Biblioteca Digital de la Universidad Nacional: <http://www.bdigital.unal.edu.co/1994>. [6] MATHWORKS. Optimization problem. Documentation Center, Model Predictive Control Toolbox. [en línea]. http://www.mathworks.com/help/mpc/ug/optimization-problem.html [citado en 11 de febrero de 2013]. [7] ROSSITER. Op.Cit., 101 p. [8] AGUILAR AGUILAR, Andrea Carolina, CASTRO URRESTA, Oscar Camilo. Controlador PID para la Planta Multivariable del Laboratorio de Control de Procesos. Trabajo de grado (Ingeniero en automática industrial). Popayán: Universidad del Cauca. Facultad de Ingeniería Electrónica y Telecomunicaciones. Departamento de Electrónica Instrumentación y Control, 2012.
    • Design and Implementation of a Machine for the Production of Potato Chips Diseño e Implementación de una Máquina para la Producción de Papas Chips Leonardo Alberto Ciendua, Jonathan Jair Díaz, Luis Fernando Morales, Chiara Seidel Schlenker3, Álvaro Antonio Patiño4, Jairo Orlando Montoya5 Programa de Ingeniería en Automatización, Universidad de la Salle Bogotá, Colombia schiara11@unisalle.edu.co3; alapatino@unisalle.edu.co4; jamontoya@unisalle.edu.co5 Abstract- The following project shows the development and implementation of a machine to automatize the production process of potato chips, departing on the fact that there are small industries based on the product that has rustic manufacturing methods, being sometimes inefficient representing riks for the operator such like: burns with oil, cut by the handling of sharp implements, among others. For this reason a machine was designed and implemented composed by three stages of production: peeled, sliced and fried, controlled by PLC (Programmable Logic Controller). For the integration of each of its sections it was necessary made adjustments of the initial design, modifying the structural and electronic design. Finally, to validate the efficiency of the automated machine, there were performed tests of functionality and time of execution. chips, por lo que se realizó un prototipo de pequeñas escala considerando cada parte del proceso. Una primera etapa es el proceso de pelado de papa, done se encontró que las técnicas más comunes son el pelado mecánico basado en fuerzas rotacionales [1] [2]. Como se muestra en la Figura 1, la primera opción a nivel industrial se lleva a cabo por medio de rodillos abrasivos que retiran la cáscara de la papa mientras que esta es impulsada por un tornillo sinfín a través de estos. Key Words: Machine Design, Grafcet, PLC (Programmable Logic Controller), Agroindustrial Processes Resumen- El siguiente proyecto presenta el desarrollo e implementación de una máquina para automatizar el proceso de producción de papas chips, partiendo del hecho que existen industrias pequeñas basadas en dicho producto y que poseen métodos de manufactura rústicos y poco eficientes que en ocasiones representan riesgos para los operarios, tales como: quemaduras con aceite, cortadas por el manejo de implementos afilados, entre otros. Es por esta razón que se diseñó e implementó una máquina compuesta por tres etapas de producción: pelado, tajado y freído, controladas por medio de un PLC (Programmable Logic Controller). Para la integración de cada una de sus apartes se realizaron ajustes del diseño inicial, modificando la parte estructural y el diseño electrónico. Finalmente, para validar el desempeño de la máquina automatizada, se realizaron pruebas de funcionamiento y tiempo de ejecución. Palabras Clave: Diseño de máquina, Grafcet, PLC (Programmable Logic Controller), Procesos agroindustriales. I. INTRODUCCIÓN Este artículo presenta el diseño e implementación de una máquina para automatizar el proceso de producción de papas Fig. 1 Pelado de papa por rodillos abrasivos. [3] En lo concerniente al tajado, se evidencia dos métodos: Por centrífuga y a presión. En la Figura 2.a se muestra un recipiente que normalmente posee dos cuchillas en su interior que giran a altas velocidades, que impulsan la papa hacia dichas cuchillas sacando de esta forma las rebanadas a la siguiente etapa [4]. Por otra parte, como se ve en la Figura 2.b en el tajado a presión, la papa se ubican en una base lineal para someterla luego a una presión que la obliga a pasar por una malla. Cabe resaltar que este método es usado con mayor frecuencia en la producción de papas a la francesa [4]. En este tipo de tajado es importante tener en cuenta la dureza y el tipo de papa que pretende usarse para garantizar que el mecanismo funcione de forma adecuada.
    • De igual forma, durante la producción de estas papas, la parte crítica radica en el tajado puesto que juegan las propiedades físicas de la materia prima como lo es el coeficiente de fricción, la cantidad de almidón de la papa, entre otras [5]. Partiendo de lo que se analizó en las etapas anteriores, se realizó la compra de los materiales necesarios para la construcción de la máquina. Fase 5: Ensamble y primeras pruebas. Se realizó el ensamble de las diferentes piezas y la construcción de la máquina para así ejecutar en primera instancia pruebas del funcionamiento mecánico del mismo, asegurando que cada sistema cumpliera a cabalidad con su función. (a) (b) Fase 6: Programación del PLC, conexión de sensores y diseño electrónico. Fig. 2 Tajadores de papa [6] [7]. Para el freído, suele usarse un recipiente con aceite en su interior junto con un sistema ya sea a gas o eléctrico que eleve la temperatura del aceite a niveles adecuados para freir la papa. En esta etapa se desarrolló la programación e implementación del sistema de control de la máquina y se llevó a cabo la estructuración de la etapa de potencia para los motores y la resistencia eléctrica. Fase 7: Ensamble de los sistemas. La estandarización de lenguajes para PLC, permite realizar la programación basado en la norma IEC 61131, articulando de manera adecuada la metodología GRAFCET con el ambiente de programación ofrecido por el fabricante [8]. Se integra el sistema electrónico a la máquina y se realizan pruebas finales para garantizar que el conjunto funcionara de forma correcta. Fase 8: Presentación final. II. METODOLOGÍA Se socializan los resultados obtenidos ante la comunidad académica de la Universidad,. Se diseña un plan de trabajo por fases. A continuación se describen estas fases: III. Fase 1: Lluvia de ideas. Durante esta etapa se realizó una discusión sobre el tema a tratar, evaluando ventajas y desventajas de cada una de las alternativas propuestas para los procesos de pelado, tajado y freído de la papa. DISEÑO Y ANÁLISIS DE LA MÁQUINA Para fines de diseño, se dividió el proceso en tres etapas: pelado, tajado y freído de la papa. La figura 3, muestra estas etapas.. Fase 2: Evaluación de los materiales. En esta sección se evaluó el posible material a utilizar en la elaboración de la máquina, teniendo en cuenta las propiedades tanto físicas como químicas del mismo. Se tuvo en cuenta que el material debía ser inerte y no causar daños a la papa. También se realizaron cálculos de fuerzas y esfuerzos a los que estaría sometido la máquina con el fin de prever posibles fallas. Fase 3: Diseño electrónico y selección de motores. Se determinó las que variables se debían controlar, con el fin de seleccionar los sensores y controladores lógicos programables (PLC’s) correspondientes. Además se realizó la selección de los motores que llevaría la máquina partiendo de los parámetros de diseño estipulados. Fase 4: Adquisición de materiales. Fig. 3 Bosquejo inicial del diseño. 1. Etapa de Pelado Se evaluó el funcionamiento de la sección de pelado con tres papas en un solo ciclo. El estimado de esta prueba fue de tres minutos para obtener las papas peladas. En un primer momento la velocidad del motor de giro fue un problema dado que hacía que la estructura se moviese de forma inadecuada,
    • lo cual puede ocasionar un accidente; de esta forma, la velocidad del motor se tuvo que reducir para disminuir la vibración de la estructura. Esta reducción de velocidad no afecto el tiempo de pelado de la papa ni la efectividad del proceso. Una vez el producto es pelado, se conduce a la siguiente etapa del proceso que es el tajado por medio de una banda transportadora. La figura 4, muestra las fuerzas que actúan sobre los pernos empelados para la fijación del conjunto. nominales que se requieren para el cálculo de la velocidad mínima que el sistema requería para el pelado de papas [10]. TABLA I VALORES DE CONSTANTES PARA EL CÁLCULO DEL MOTOR [10] Voltajes nominales del motor Voltaje del sistema 120 120/208 240 480 Monofásico Trifásico 115 115 230 115 200 230 460 600 575 2 4 6 8 10 Velocidad sincrónica (rpm) 3600 1800 1200 900 720 12 600 Número de polos Velocidad a plena carga*(rpm) 3450 1725 1140 850 690 575 *Aproximadamente 95% de la velocidad síncrona (deslizamiento nominal) Fig. 4 Fuerzas En la peladora La fuerza ejercida por la peladora fue de 50N, pero como se encontraba sujeta en cada uno de sus dos extremos la fuerza se dividió, por lo tanto el perno a (Pa) y el perno b (Pb) está sometidos a una fuerza de 25N. Es así que la reacción en el perno a (Pa) y en el perno b (Pb) fue: ∑ ∑ La figura 5 muestra el motor seleccionado que se caracteriza con 120V, monofásico con un total de 4 polos, lo que quiere decir que su velocidad a plena carga fue de 1725 rpm, más que suficiente. (1) ( ) ( ) (2) (3) (4) Por lo tanto los pernos que se emplearon fueron de ¼ in de rosca gruesa UNC, porque poseen un área de esfuerzo de tensión de 0.0318 . Además se empleó arandelas de presión, con el fin hacer presión para que no se aflojara el tornillo. Estas arandelas previenen la caída de precarga una vez que el torque es aplicado. Fig. 5 Acople del motor a la peladora. La velocidad síncrona de este motor se pudo determinar por tabla y/o empleando las ecuaciones 5 y 6: Selección motor Para la parte de pelado fue necesario seleccionar un motor con la potencia suficiente para hacer girar un disco y a su vez mover máximo tres papas (500 g) a gran velocidad. Con base en estos requerimientos se comparan las características de motores de inducción. En la Tabla 1 se presenta los valores (5) ( ) (6) Donde era el número la frecuencia de la red eléctrica y el número de polos. era
    • Además se determinó que el motor era de tipo polo sombreado, porque solo tenía un devanado, que era el devanado principal o de marcha. La reacción para el arranque se produce por la presencia de una banda de cobre alrededor de un lado de cada polo. La banda, con baja resistencia, “sombrea” el polo y produce un campo magnético rotatorio para arrancar el motor. Un aspecto importante de este tipo de motores y que se menciona en el libro, es que son de baja eficiencia y tienen un par torsional de arranque muy pequeño. La regulación de velocidad es mala, y debe enfriarse con ventilador durante su funcionamiento normal. La curva de operación de este tipo de motor se da a conocer en la figura 6: Para el corte de las papas, se diseñó una base rectangular, donde se acopló un sistema de láminas afiladas de 2 cm de altura y 21 cm de largo en acero inoxidable, separadas 2.3 mm cada una por medio de arandelas. Se tuvo en cuenta la masa requerida en una cuchilla, con el fin de calcular la fuerza ejercida de cada una sobre el área de contacto. Para el modelado del sistema es importante tener en cuenta la velocidad y fuerza baja el vástago del cilindro, así como la masa que este ejerce. La fuerza hacia arriba y hacia abajo ejercida por la masa de la papa, al momento de ser cortadas, es decir cuando el vástago del cilindro tiene un mínimo contacto con el alimento, inmediatamente resulta una fuerza hacia arriba junto con un esfuerzo cortante en la misma dirección, que dará como resultado el corte de las papas; sin embargo, para saber el esfuerzo se hace necesario conocer la porosidad en la papa (ecuación 10) que se puede calcular mediante dos tipos de densidad: la densidad aparente (ecuación 8) y la densidad real (ecuación 9). La densidad aparente es la que comúnmente se conoce como la relación del peso sobre el volumen. Para la densidad real, una probeta con capacidad de 1000 mL se llenó con agua hasta 500 mL, en esta se introdujo un tubérculo de peso conocido, el volumen de agua desplazado es igual al volumen real de la papa [11]. Finalmente se utilizaron los datos obtenidos para aplicarlos. ( ) (8) ( ) Fig. 6 Curva de operación de motor. (Modificada) [10]. (9) Otra característica de este motor era que al interrumpir el flujo de corriente este seguía girando, esto se debe a que se diseñó para que girara después de interrumpir la corriente. El tiempo para detenerse dependió de la inercia y de la fricción. ( ) (10) El esfuerzo de corte se calcula mediante la ecuación 2. Etapa de Tajado ( El sistema de tajado funciona mediante la fuerza de empuje causado por un cilindro doble efecto, es así que mediante la ecuación 7, se determinó cual debía ser la magnitud de la fuerza para cortar en rodajas una papa. (7) Donde F es la fuerza, A es el Área y p presión. La fuerza F se halló mediante un ensayo que consistió en pasar un bisturí simulando las cuchillas en una papa ubicada en la superficie de una balanza digital. Se observó que la magnitud de la fuerza es 2.5Kg, es decir, 24.5 N aproximadamente. Se consideraron algunas variables, como lo son el caudal requerido para el cilindro. La presión estándar del cilindro que normalmente son 6 Bar. También, a la masa que se le adapto al vástago para que alcance a sujetar la totalidad de las papas. ) ( ) ( ( (11) ) ) (12) Se consideró el área de contacto de las cuchillas sobre cada papa. Y de esta manera saber que fuerza se genera hacia arriba y hacia abajo en consecuencia de la masa de la papa. Durante esta etapa es importante saber el coeficiente de fricción dada en la papa por las cuchillas y viceversa. De esta forma, en la Tabla 2 pueden referenciarse las unidades tomadas en cuenta para los cálculos junto con sus respectivas unidades. TABLA II VARIABLES PARA EL CÁLCULO DE LA TAJADORA Variable Valor Unidades Fuerza del Pistón F(t) N
    • Masa del Vástago 0.4 g Masa del acople al pistón 1.1 Kg Masa de la papa 250 g Coeficiente de fricción de la papa 0.8 Und. Densidad de la papa 1187 Kg/m3 47 N 25 N 3 El cilindro doble efecto, tiene un vástago de media pulgada de diámetro, y un recorrido de 7 cm. La plataforma instalada tiene una dimensión de 9cm de largo, 5 cm de ancho y 2cm de grosor. En la figura 9 se puede apreciar el conjunto de cuchillas, su medida es igual a la plataforma acoplado al vástago del cilindro con el fin de que cubra en su totalidad la superficie de cuchillas y asi aprovechar en su totalidad el área total de tajado. m/s Fuerza al hacer contacto con las papas Fuerza durante el corte de papa Velocidad de corte En la figura 7 se observa un esquema del cilindro neumático de impacto mueve el vástago a una velocidad (5 m/s), se ha utilizado para forzar a las papas previamente peladas por en medio de las cuchillas. Fig. 9 Acople de cuchillas en la tajadora. Fig. 7 Esquema del cilindro para la tajadora Las principales variables que se consideraron en la selección del cilindro neumático son la fuerza del cilindro, la carga, y el consumo de aire y velocidad del pistón. Para este caso, se usó un cilindro de doble efecto, estos cilindros desarrollan trabajo neumático tanto en la carrera de avance como en la de retroceso, sin embargo la fuerza en distinta en cada uno de los movimientos, porque el aire comprimido en el movimiento de avance actúa sobre toda la superficie del embolo, lo que lo hace apropiado para lo que se necesita debido a la gran cantidad de fuerza que se necesitó. En el retroceso solamente lo hace sobre la superficie útil, que resulta de restar a la superficie del embolo la del vástago. La figura 8 muestra el cilindro a utilizar en el sistema de tajado. Aunque el cilindro posee una fuerza de empuje de más de 1100 N. no se logró tajar las papas definidamente. Esto se debe a que los cálculos anteriormente ilustrados se hicieron estimulando una sola cuchilla. Sin embargo al ser varias cuchillas, así sea separadas 2 mm entre ellas, se atascan. Al cilindro hacer impacto con las papas, estas empiezan a pasar suavemente entre las cuchillas. Pero las cuchillas a medida que se van cortando se van abriendo aumentando su volumen. Esto hace que se sobren las cuchillas y se tenga un atasque que por más fuerza que se le aplique no logra superar. Esto hace que la el sistema necesite de una elevada presión para cumplir satisfactoriamente con el objetivo, sin embargo es imposible debido a que normalmente la presión obtenida en un compresor es de 6 bares. 3. Etapa de Freído Esta etapa básicamente consta de un contenedor de acero, una rejilla para el freído de las papas en acero inoxidable y una resistencia de inmersión la cual calentará el aceite, según se ve en la Figura 10. Fig. 10 Sistema de Freído. Fig. 8. Sistema de Tajado. Cabe resaltar que durante el freído, se manejarán temperaturas entre el rango de 200°C hasta 210°, los cuales se esperan garanticen una cocción uniforme del producto. Por otra parte, las papas chips se obtendrán por inmersión profunda en aceite
    • caliente; para lo cual se hace necesario precalentar el líquido antes de éstas ingresar en él. Así pues, para que este proceso en específico sea satisfactorio se tuvieron en cuenta factores como el tipo de aceite a usar, el espesor de la papa junto con su geometría, la textura, el tiempo de freído y la forma que proporcionara la mayor transferencia de calor entre cada uno de los componentes del sistema. [16] En primera instancia, partiendo del punto que el freído es un mecanismo de cocción en el cual se llevan a cabo transferencias de calor de la resistencia al aceite, del aceite a la papa y a su vez al ambiente, se tomó como fuente principal de calor la resistencia de inmersión anteriormente mencionada, garantizando que dichas pérdidas producidas al ambiente se recuperaran de forma instantánea; así que cabe aclarar que exclusivamente para este diseño la fuente de calor más efectiva eléctrica. Del mismo modo, para garantizar los tiempos de cocción se tomó provecho de la humedad presente en la papa, puesto que partiendo del punto de ebullición de esta (90°C aprox.) se puede garantizar un freído mucho más rápido y eficiente; siendo esta la referencia para la selección de los intervalos mencionados anteriormente. Al superar la temperatura del aceite dicho punto de ebullición es donde hace presencia el burbujeo en el aceite aumentando la temperatura en la papa favoreciendo esta turbulencia la transferencia de calor al alimento. Por último, la geometría de las papas chips las hacen propensas a absorber cantidades considerables de aceite (aproximadamente 40% frente al 13% de las papas a francesa) gracias a la forma ovalada o circular de su superficie; es por ello que la selección del tipo de aceite a usar se ve limitado por esta particularidad de las papas chips, haciéndose necesario usar un aceite que presente baja viscosidad, disminuyendo así el volumen necesario para llevar a cabo el proceso. IV. SENSORES, ACTUADORES Y CONTROL DE LA MÁQUINA prima. La banda transportadora lleva las papas hacia la etapa de tajado, arrojándolas directamente en las cuchillas, en un estimado de tiempo de un minuto. Pasado este tiempo se acciona el pistón empujando las papas por a través de las cuchillas, pasando a la etapa de freído a través de una superficie inclinada. Ya en la etapa de freído se toma entre tres y cinco minutos para dejar el producto terminado listo; pasado este tiempo, la rejilla sale del aceite, depositando las papas en una superficie plana, listas para una siguiente etapa como el empacado por ejemplo, pero esto no se contempló dentro del diseño. Partiendo de la anterior descripción del proceso, se evidenció la necesidad de contar como mínimo con los actuadores y sensores mostrados en la Tabla III y IV respectivamente. TABLA III ACTUADORES Actuador Etapa Ubicación Motor 1 Parte inferior de la estructura. Encargado de generar fuerza centrífuga Pelado Motor 2 Parte superior de la estructura. Efectúa elevación de la peladora Banda Transportador a Motor 3 Parte Superior de la estructura de la banda. Tajadora Electroválvula 5/2 Parte inferior de la estructura. Activa cilindro doble efecto Cilindro Doble Efecto Ubicado en la parte superior de la estructura. Encargado de ejercer fuerza a la papa para tajarla Electroválvula 5/2 Parte inferior de la estructura Cilindro Doble efecto Parte lateral de la estructura. Encargado de giro de la rejilla para retirar las papas del proceso Freidora El proceso en sí se simplificó al máximo intentando utilizar la menor cantidad posible de actuadores y sensores para así simplificar el control de la máquina. Básicamente lo que se usaron finales de carrera, un sensor de temperatura junto con motores y electroválvulas como actuadores. Teniendo en cuenta las consideraciones anteriores, como primera medida el operario tendrá que depositar las papas dentro de la peladora y así encender la máquina. Una vez encendida, la resistencia se prenderá hasta llevar el aceite a una temperatura de 210°C aproximadamente. Cuando se llegue a dicha temperatura, se accionará la peladora, la cual demora entre 2 y 3 minutos en pelar una cantidad de tres papas; al tiempo que se activa la peladora, lo hace la banda transportadora. Ya terminado el pelado de las papas, la peladora se inclina para depositar en la banda la materia Descripción TABLA IV SENSORES Sensor Etapa Descripción Ubicación Parte superior de la estructura. Aviso de cuando la peladora depositó la materia prima en la
    • Final de Carrera banda. Pelado Final de Carrera Parte inferior de la estructura. Da aviso de cuando la peladora retornó después de depositar las papas. Banda Transportador a N/A N/A Final de Carrera en donde todos los sistemas se detienen cuando se acciona el paro de emergencia. A la altura de las cuchilla. Da aviso de cuando el pistón efectúa el tajado Tajadora Final de Carrera Freidora PT100 Parte superior de la estructura. Aviso de cuando las papas salieron de producción Interior del recipiente. Control de temperatura Cabe resaltar que se seleccionó una PT100, dado que además de poseer una cápsula metálica que permite sumergir el dispositivo en el líquido; tiene una respuesta relativamente lineal dentro de los rangos de temperatura contemplados (0°C210°C), lo cual garantizaba una lectura más confiable. Por otra parte, el código de control implementado se diseñó por medio de GRAFCET, el cual se tradujo más tarde a Ladder. Hay que tener en cuenta que existen dos modos de controlar la máquina: el modo manual y el modo automático. En el primero un operario puede controlar cada una de las partes que componen la máquina, a excepción del motor de la banda, pues este se enciende a penas se establece dicho modo. El sistema cuenta con un paro de emergencia que el operador puede accionar en cualquiera de los dos modos en caso de que alguno de los sistemas no responda y ponga en riesgo la integridad del operario o de la máquina. Una característica que tiene este paro de emergencia es que funciona de manera independiente a la actividad que se esté llevando a cabo, además permite rearmar el sistema en el punto donde fue presionado, evitando así generar pérdidas de materia prima. Para cada una de las etapas que componen este proyecto se cuenta con botones en el panel que permiten mantener el control, uno de estos botones permite encender el motor de la peladora, con otros dos se puede probar el giro horario y anti horario de la misma, dos más ayudan a subir y bajar el cilindro de la tajadora y finalmente con otros dos botones se acciona el cilindro que hace que la rejilla de la freidora gire, es por esta razón que en la figura 11, se muestra el GRAFCET realizado, el cual presenta un estado para cada uno de los procesos que se mencionaron anteriormente, permitiendo así ejecutar cualquier movimiento, pero también están los estados Fig. 11 Diagrama GRAFCET modo manual. El segundo tipo de operación que tiene esta máquina, es el modo automático, el cual se establece por medio de un botón ubicado en panel de control. La operación de la máquina en este modo es de gran importancia, porque es aquí donde realmente se refleja las ventajas de emplear un PLC, sensores y actuadores en procesos que involucran automatización. Respecto a la operación de la máquina, apenas se configura el modo automático, la resistencia eléctrica que se encuentra en la freidora se enciende por medio de la acción de un relé, de
    • esta forma se agrega calor al aceite para aumentar su temperatura y por medio de un sensor de temperatura PT100 se registra la temperatura, cuando esta se encuentra dentro de un rango permisible de 210°C las demás etapas del sistema se ponen en marcha. En primer lugar, el cilindro de la etapa de tajado se empieza a mover de forma vertical y la máquina peladora se enciende, después de un lapso de tiempo (se ha configurado en el PLC), la peladora se detiene y un motor empieza a girar para que esta deposite las papas sobre la banda transportadora (se tiene en cuenta retardos), la cual las lleva hasta la etapa de tajado y de allí pasan a la freidora, el retardo que se contempla en esta parte, involucra el tiempo para tajar y freír el total de papas que salieron de la etapa de pelado. Finalmente la rejilla que contiene las papas dentro de la freidora gira aproximadamente 180°, permitiendo así colocar el producto en una bandeja. Es necesario tener en cuenta que el paso de un estado a otro se controla por medio de temporizadores y finales de carrera, es decir, cuando se alcanza un valor máximo o se acciona una entrada al final de una trayectoria, respectivamente, se detiene las acciones en el estado actual y se ejecuta las del siguiente estado. llevar un registro de la cantidad de papas que se han pelado e identificar la temperatura de la freidora. La figura 13 describe el sistema de supervisión, donde hay varios elementos que permiten identificar el estado de cada una de las variables, por ejemplo, los bombillos indican el comportamiento de las etapas, es decir, que acción se está ejecutando, una gráfica que da a conocer la variación de la temperatura en el tiempo y finalmente al lado de la freidora hay una barra con divisiones que indica la temperatura. Desde este importante sistema se puede encender y apagar la máquina empleando el botón de “modo automático” y en el caso de que se llegue a presentar problemas durante el proceso de producción, existe un botón “Paro de emergencia” que permite detener toda la máquina, pero se diferencia del anterior, porque este permite continuar en el punto donde se realizó el paro una vez que haya pasado el peligro. La figura 12, muestra el GRAFCET que relaciona todas las entradas, salidas, retardos, acciones a realizar y procesos que se mencionaron anteriormente para que el proceso fuera automatizado. Fig. 13 Diagrama del sistema de supervisión. V. IMPLEMENTACIÓN DEL DISEÑO Como se muestra en la Figura 14, la estructura en su mayoría está fabricada en perfiles de acero reusados y acero inoxidable. Las partes que no se someten a esfuerzos considerables, como las superficies inclinadas que comunican cada etapa, se construyeron en aluminio. Se seleccionaron estos materiales puesto que presentas propiedades mecánicas excelentes y que se ajustan a las necesidades del diseño, garantizando que la estructura no presentará fallas; además de ser inocuos al contacto con el alimento, dando la seguridad que el producto final estará en óptimas condiciones para el consumo humano. Fig. 12 Diagrama GRAFCET para el modo automático. A parte del panel de control que anteriormente se mencionó, existe un sistema de supervisión, el cual es muy importante y de gran ayuda, porque desde este se puede se puede observar el comportamiento de cada una de las etapas de la máquina,
    • cierto número de ciclos cumplidos por esta, se hace necesario realizar ajustes de tensión en la misma. El número de ciclos de producción total se estimó en diez aproximadamente. 2) Etapa de Tajado Fig. 14 Prototipo diseñado. VI. RESULTADOS Y ANÁLISIS DE RESULTADOS Para confirmar la efectividad del proceso se realizaron pruebas en primera instancia para cada etapa por separado y por ultimo de todo el conjunto. También se hizo un análisis de la parte económica. Las pruebas se realizaron en dos etapas. A) Pruebas mecánicas Estas pruebas se realizaron con el fin de evaluar el funcionamiento de los acoples realizados, y para garantizar que la estructura no fallara por los esfuerzos aplicados. 1) Etapa de Pelado y Banda Transportadora La prueba se realizó con un abrasivo de carbono y la lámina de galvanizado, obteniendo resultados más eficientes con la lámina como se muestra en la Figura 15 a, puesto que esta no retenía los desechos de la cáscara de la papa en ella como ocurrió con el abrasivo de carbono (Figura 15 b). Esto se produjo posiblemente al tamaño de grano de la lija. De igual forma, los tiempos empleados por el galvanizado fueron considerablemente menores al estimado y al empleado por el abrasivo en grano; dónde el primero demoró un minuto aproximadamente en contra de los tres minutos del segundo. Cabe resaltar que las pruebas se realizaron con papa sabanera y pastusa; donde se evidenció un aumento en el tiempo de pelado (tres minutos) con la papa sabanera, dado que esta posee una cáscara más dura con respecto a la otra variedad. En esta etapa los acoples y la estructura respondió de manera adecuada, puesto que resistían la presión ejercida por el pistón. A pesar de esto, se evidenció que para obtener las papas tajadas del primer ciclo, se hace necesario que las del segundo intervengan; dado que las papas del primer ciclo quedan atascadas dentro de las cuchillas al ser la superficie del pistón lisa y contar con una guía que las obligue a pasar completamente a través de las cuchillas. De igual forma, el área de las cuchillas al ser considerablemente grande se hace necesario tener más fuerza por parte del pistón; lo cual solo se logra a presiones más allá de las 90 lb. Por otra parte, se evidenció que el espesor y grado de inclinación de las cuchillas es un factor determinante en la fuerza necesaria para lograr el tajado de las papas. En este caso las cuchillas hacen un ángulo de 90° con respecto a las papas, y tienen un espesor aproximado de 2mm. El ángulo al ser recto hace que la superficie de contacto de la cuchilla con la papa sea menor y con esto se requiera mayor fuerza para hacerla pasar por la misma. Así pues, para que la etapa de tajado se llevase a cabo con cierta facilidad se hizo necesario delimitar el tipo de papa que la máquina maneja a papa criolla y papa pastusa, puesto que son relativamente más blandas que la papa convencional. 3) Etapa de Freído Esta etapa también funcionó de manera correcta. La figura 16 deja ver la prueba realizada, dónde la resistencia tardó menos de un minuto para llevar el aceite a la temperatura de freído (210°C), y un aproximado de tres minutos para realizar la fritura total del alimento. Los acoples respondieron de manera óptima. Se hizo necesario ajustar la velocidad de entrada y salida de la rejilla al aceite para así evitar salpicaduras de este; dicho ajuste se efectúo por medio de válvulas estranguladoras. Fig. 16 Resultados de la prueba de freído. () (a) (b) Fig. 15 Resultados de la prueba de pelado. En lo correspondiente a la banda transportadora, esta respondió de manera efectiva ante las pruebas, con carga en ella y sin carga; sin embargo se evidenció que después de Por otra parte, las características organolépticas del producto terminado fueron satisfactorias, puesto que no se perdió ninguna unidad por exposición prolongada a la esta etapa. De igual forma la papa chip no presentaba la crocancia que caracteriza este producto a nivel comercial, sino que dado el espesor de cada tajada, se obtuvo un producto blando recubierto de una pequeña capa dorada por acción del proceso. Por otra parte, dadas las características físicas de la papa
    • tajada, esta absorbía una cantidad de aceite mayor a la esperada, y con esto los tiempos usados en el control no se hicieron suficientes para retirar una cantidad aceptable del mismo; por lo cual se hizo necesario recurrir a factores externos de la máquina para eliminar dicho exceso antes de hacerlas completamente aceptables para el consumo. Por lo demás la palatabilidad del producto fue buena. VII. - Con estas pruebas, se estimó que la máquina tarda cinco minutos por ciclo aproximadamente para obtener un lote de producción. B) Pruebas de Control En esta etapa se hizo necesario realizar dos pruebas, en modo manual y en modo automático. Así pues, en modo manual, los actuadores respectivos con los sensores respondieron de forma óptima, dando lugar a ajustes de cableado, dado que algunos componentes interferían con actuadores como los cilindros de doble efecto. Cabe resaltar que el algoritmo de modo manual no contempla la manipulación de la banda transportadora, dado que esta no contiene sensores que sean necesarios para el proceso. En cuanto a las pruebas de modo automático, se realizaron ajustes en los temporizadores usados dado que los tiempos tomados de las pruebas mecánicas fueron menores a los necesarios en el proceso ya de forma automática; aunque cabe resaltar que no variaron de forma significativa, sino solo en cuestión de segundos. Por otra parte, para esta etapa se realizó un sistema supervisorio de gama media, dónde se puede controlar por computadora el accionamiento del modo automático y en caso de emergencia se puede accionar un paro total del sistema desde este. Dentro del supervisorio se puede observar cuando son accionados los distintos actuadores y sensores que intervienen en el proceso, de igual forma se obtiene en tiempo real la curva de la temperatura que el aceite está manejando. Finalmente el análisis económico que se desarrolló, hace referencia a una estimación de la inversión que se llevó a cabo para construir y poner en marcha la máquina. La siguiente tabla muestra los aspectos que se tuvieron en cuenta en este estudio. TABLA V Angulo 3/4'' 36000 60000 Olla 12000 Banda 10000 Motores VIII. REFERENCIAS [2] J. Mendoza, J. Zaragoza, P. García y A. Pérez, «Diseño de máquina cortadora y freidora de papas,» Puebla , 2008. Precio Láminas de acero inoxidable Tornillería y remaches - Se hizo evidente que el método más efectivo para el proceso de tajado en cuanto a tiempo, resultados y acabado del producto, es por medio de fuerza centrífuga, porque con el método que se empleó era necesario una presión mucho mayor a 6 Bar, lo cual no era muy eficiente, debido a que se necesita un mayor espacio. Es importante tener en cuenta el tipo de papa que se maneja en el proceso, ya que resulta determinante para el control de la máquina, dado que la dureza de la cáscara cambia con el tipo de papa junto a esto el tiempo de pelado invertido en cada ciclo. Para el tajado de papas por presión el grado de inclinación de las cuchillas es importante, ya que definen en gran parte la fuerza necesaria para hacer pasar la papa entre estas, en este caso se colocaron a 90° respecto a la horizontal, o perpendiculares al suelo, requiriendo mayor fuerza para que la papa pasara por medio de las cuchillas. Se evidenció que el pelado por abrasivo con lámina de galvanizado resultó más efectivo en comparación con abrasivo de grano (lija), porque con el primero, se necesitaba aproximadamente de un minuto y medio para pelar tres papas, con respecto a los tres minutos aproximadamente que la lija empleó para el mismo proceso; además hay que tener en cuenta que estas quedaban peladas en un 95%. Es importante seleccionar cuidadosamente el material con el que se realiza la comunicación entre etapas (rampas y toboganes), para garantizar el perfecto funcionamiento de estos, ya que el almidón de la papa genera mayor fricción en algunos materiales, corriendo el riesgo de que la etapa posterior no se alimente y el proceso quede estancado. [1] W. P. P. Solis, «Estudio del sistema de pelado de papas para disminuir el tiempo de preparación de papas fritas de la empresa de comida rápida (Pilita),» Ambato, 2011. ANÁLISIS ECONÓMICO Material - CONCLUSIONES 5000 100000 Componentes eléctricos 80000 Elementos neumáticos 300000 Soldadura (1Lb) y mano de obra 300000 TOTAL 903000 [3] Best-B2B.com, [En línea]. Available: http://bestb2b.com/Products/973/976-1/potato-carrot-vegetables-washerpolisher_506456.html. [4] N. A. Lucero Ibarra, «Proyecto montaje de una empresa porocesadora de papa en el municipio de Pupiales - Nariño,» Santander, 2012. [5] T. S. G. Estela, «Evaluación de características morfofisiológicas y de productividad de papa (Solanum tuberosum L.) variedad alpha proveniente de diferentes condiciones agrotecnológicas,» Monterrey, 1995. [6] Freidoras industriales y Maquinaria de Frito, [En línea]. Available: http://www.euroagora.com/fotos/Herbalife_Espana-4641.htm.
    • [7] made-in-china.com, [En línea]. Available: http://es.made-inchina.com/co_jacqueline-btw/product_French-Fry-Cutter-BTW-FC001-_hnyerioyg.html. [8] R. W. Lewis, Programming Industrial Control Systems Using IEC 11313, Londres, 1998. [9] Direct Industry, [En línea]. Available: http://pdf.directindustry.es/pdf/enerpac/soluciones-empernado/14336131749-_56.html. [10] R. L. Mott, Diseño de elementos de máquinas, Cuarta ed., Pearson Educación, 2006. [11] G. V. Buitrago, A. P. López, A. P. Coronado y F. L. Osorno, «Determinacion de las características fisicas y propiedades mecanicas de papa cultivada en Colombia,» Revista Brasileira de Engenharia Agrícola e Ambiental, vol. XVIII, nº 1, 2004.
    • Tecnificación de equipos de control y monitorización de material particulado para mejorar la calidad del aire en zonas de explotación y coquización de carbón en Boyacá Etapa inicial de pruebas Modernization of control and monitoring equipment of particulate material to improve air quality in coal mining and coking areas in Boyacá Initial stage of testing Oscar Alexánder Bellón Hernández*, Dora Marcela Benítez Ramírez** Facultad de Ciencias e Ingeniería Universidad de Boyacá Grupos de investigación: *GIMAC, **Gestión Ambiental Tunja, Colombia *oabellon@uniboyaca.edu.co **dmbenitez@uniboyaca.edu.co Resumen—Este documento es un informe de avance de un proyecto que tiene como propósito construir sistemas para el control y monitorización de material particulado utilizando tecnología de automatización para contribuir a solucionar la problemática de contaminación del aire en las zonas cercanas a las plantas de coquización y a las minas de extracción de carbón en el municipio de Samacá (Boyacá). Se describe la primera fase del proyecto que consiste en el diseño y construcción de prototipos y de su desempeño en pruebas piloto en planta de procesamiento de coque. Se hace mención de los conceptos teóricos básicos para comprender el principio de funcionamiento de los equipos seleccionados. Se obtuvo una referencia cualitativa que indicó la viabilidad económica y técnica de los mismos. De igual forma, se comenta sobre las siguientes etapas que buscaron una primera aproximación de las especificaciones funcionales de cada equipo y de la idea de lograr en todos ellos a futuro, una estrategia de optimización, con el objetivo de ser una opción económica que las empresas del sector puedan utilizar para cumplir con la normativa ambiental vigente a la vez que represente una reducción de gastos frente a otras alternativas disponibles comercialmente, sin perder calidad en el soporte técnico posterior a la instalación y puesta a punto. Palabras clave— Calidad del aire; material particulado; ciclón; filtro de mangas; precipitador electrostático. Abstract— This paper is an advance report of a project that aims to build systems for particulate material control and monitoring using automotion technology contributing to solving the problem of air pollution in areas close to the coke producing facilities and coal mines at township of Samacá (Colombia). The first phase of the project is described as design and building of prototypes and about its performance in pilot running in coke producing facility. It is referred to basic theoretical concepts to understand the operating principles of selected equipments. Qualitative reference was obtained that showed technical and economic feasibility of them. Similarly the following steps was comented and they itended a first aproach about operating specifications of every equipment in order to achieve an optimization strategy for the future as well as being a cheaper option that sector companies can use to meet current environmental regulations together with a reduction in costs compared to other comercially available alternatives, with no quality loss in technical support after installation and tuning. Keywords—Air quality; particulate baghouse; electrostatic precipitator. I. material; cyclone; INTRODUCCIÓN La explotación de carbón es un rubro importante de la economía del departamento de Boyacá [1], a nivel de minería, junto con la extracción de esmeraldas. Aunque la explotación del carbón en el departamento, es apenas un 2 % de la producción nacional, los yacimientos cubren un amplia área de su territorio [2]. Una de las zonas carboníferas del departamento abarca los municipios de Samacá, Tunja, Paipa y Duitama [3], siendo el primero, donde está la zona escogida para el desarrollo experimental de este trabajo.
    • Samacá, tiene la industria de coquización más antigua del país. Las plantas de coque, constituyen el renglón más destacado de la economía municipal [4]. El crecimiento de ésta industria, su expansión durante los últimos 20 años y la actividad asociada a la explotación del carbón, han ido deteriorando el medio ambiente [5] por descoles de drenajes ácidos de mina, emisiones atmosféricas de material particulado, gases efecto invernadero, principalmente. Según el esquema de ordenamiento territorial del municipio, a noviembre de 2007, se contaba con 44 explotaciones distribuidas principalmente en las veredas de: Loma Redonda, Salamanca, Chorrera y Ruchical comprendida el área de aplicación del proyecto por las tres primeras antes mencionadas en donde las reservas medidas, están alrededor de los 36 millones de toneladas. Según registros de la Corporación Autónoma Regional de Boyacá CORPOBOYACÁ [18], en las cuatro (4) veredas a 2012 se prevén 4412 hornos de coquización licenciados, de los que el 29.5 % están construidos en zona rural. En la región están emplazadas 33 empresas que emiten partículas suspendidas totales (PST) en una cantidad promedio de 665kg por tonelada de carbón cargado teniendo en cuenta capacidad del horno, carga y producción de coque. Los monitoreos realizados han permitido determinar que los valores de PST están en 117.1μg/m3, por encima de la norma local que estipula un máximo de 72.44μg/m3, mientras que para material particulado PM10, el valor medido fue de 88.62μg/m3 y la norma local establece el máximo permitido en 36.22μg/m3. Todo el desarrollo en torno a la actividad de explotación del carbón, ha generado una población flotante cuya actividad -principalmente minería informal a pequeña escala- afecta los recursos naturales. Aunque hay tres compañías con operación a gran escala: Milpa, Inverminsa y Colcarbón, se presentan algunos conflictos por problemas con la titulación minera, que directamente afecta a los mineros artesanales [6]. La minería artesanal o de pequeña escala, es realizada por personas con bajos ingresos que no encuentran otras alternativas equivalentes. De esta forma, la explotación artesanal del carbón se convierte en una actividad de subsistencia que se hace sin tecnificación ni siguiendo normativas ambientales. Es entendible que un plan de manejo ambiental, no sea prioridad para una comunidad que tiene que ejercer la actividad en función de la supervivencia diaria. Además del deterioro ambiental, también se presenta una problemática social al tratar de implantar las políticas de formalización [7]. Las minas informales, además de afectar negativamente el medio ambiente, no cuentan con medidas de seguridad para el cuidado de los que en ellas trabajan, pero resultan ser el único medio de los mineros artesanales para sostener a sus familias. Entran en conflicto entonces, el derecho a un ambiente sano con el derecho al trabajo y la subsistencia. Tal disyuntiva resulta difícil de resolver y cuando se ha hecho, conlleva el descontento de algún sector de la comunidad, por lo general en situación de pobreza. Aunque la idea de tecnificar la minería para alcanzar márgenes de competitividad a nivel internacional, es en teoría una forma de reducir la desigualdad social, la realidad es que un sector minero industrializado no puede absorber las plazas de trabajo que dejaría la extinción de la minería informal [8]. La explotación del carbón, ya sea para extracción o para coquización, es una actividad peligrosa. El polvillo de sílice resultante de la actividad, es causa de enfermedades pulmonares y lesiones oculares principalmente. Los gases que tienden a acumularse en las minas o a la salida de las boquillas de los hornos, además de afecciones respiratorias, también generan problemas osteoarticulares y en algunos casos, problemas digestivos [9]. Junto al problema de salud ocupacional, también están los daños ambientales. De una parte, la producción de aguas residuales por los drenajes ácidos de minería, es causante implacable de una destrucción de la biología y suelos adyacentes a la zona de explotación [10]. De otra parte, el material particulado y gases generados, no sólo afectan la salud de los mineros y trabajadores de las plantas, sino que alteran la calidad del aire cuando dicho material es llevado por las corrientes de este a otros lugares donde la población residente puede verse afectada [11]. Lo cual hace que se implementen estrategias de control de la contaminación teniendo en cuenta la capacidad de asimilación. Esta capacidad es entendida como la no afectación apreciable en la salud humana y ambiental por las emisiones al ambiente y por el principio de control que supone que el daño ambiental puede evitarse controlando la forma, la duración y la velocidad de emisión de contaminantes al medio ambiente. Los métodos para controlar la contaminación han demostrado gran eficacia, especialmente en el ámbito local [20]. Se han desarrollado estudios acerca de lo que implica una rápida industrialización sin aplicar una política firme de control de la contaminación desde su etapa inicial Con el fin de garantizar la calidad del aire a las poblaciones circundantes a las áreas industriales los gobiernos elaboran normas para disminuir y controlar las emisiones de material particulado. Por ejemplo: el caso de España que cuenta con la Directiva 96/65/CE sobre evaluación y gestión de la calidad del aire ambiente [23]. En Colombia el material particulado está definido como uno de los contaminantes del aire, según Decreto Ley 948 de 1995, modificado por el Decreto 949 de 2006 por el cual en su artículo 3° habilita a la autoridad ambiental para priorizar el control de emisiones de estos contaminantes, la Resolución 909 de 2006 define cuales son los contaminantes criterio y el valor máximo permisible para cada uno de ellos, siendo modificada por la Resolución 610 de 2010 que delimita la concentración de los límites de emisión actuales para el país. Como la salud pública es interés prioritario, el objetivo del trabajo es evaluar cualitativamente una serie de dispositivos para controlar y monitorizar la calidad del aire, principalmente en los sitios donde se realiza alguno de los procesos descritos como generadores de material particulado en la explotación de carbón. En este orden de ideas, se construyeron 4 dispositivos que aplican principios físicos para remoción de Material particulado y medición del material: Un precipitador electrostático (basado en fuerzas eléctricas [21]) , filtro de mangas (basado en la separación sólido – gas [22], ciclón (basado en la impactación inercial generado por la fuerza centrífuga [24]) , medidor de alto volumen para PM-
    • 10.(medición de inmisión de material particulado de tamaño de 10 micras). Las pruebas realizadas tuvieron carácter cualitativo y constituyen en la zona de estudio una primera aproximación para evaluar la eficiencia en la remoción y de medición de material particulado. similar al polvillo de sílice [16]. Estas cuchillas microscópicas, entran al tracto respiratorio adhiriéndose a la mucosa, causando lesiones y afecciones respiratorias [9]. Este documento hace referencia a la primera fase de una propuesta de solución respecto del problema de emisión de material particulado y su medición en los procesos de extracción, carga, descarga, movilización y coquización del carbón. Los resultados aquí expuestos, incluyen una descripción global del diseño de equipos para remoción de material particulado y medición de PM10 lo cual significa un mejoramiento de la calidad del aire para los 17.352 habitantes de Samacá según Censo Oficial del DANE de 2005. Etapas posteriores, conducirán a encontrar relaciones precisas entre las variables involucradas como eficiencia en la remoción, dimensiones, estimaciones de la caída de presión, variación de la concentración de las partículas entre otros que servirán de base para crear algoritmos de simulación, evaluación de estrategias de control de los equipos para llegar a obtener una metodología de diseño optimizada, basada en la automatización de la operación de los sistemas. A. Equipos para Control y Monitoreo de Emisiones de Material Particulado Para el control o registro de emisiones, se utilizan varios principios físicos y en esta subsección, se explica brevemente la operación de las tecnologías seleccionadas, a partir de las cuales se construyeron prototipos para evaluación de desempeño [15]: II. CONCEPTOS BÁSICOS SOBRE CONTROL Y MONITORIZACIÓN DE MATERIAL PARTICULADO  Ciclón: Equipos que utilizan el principio de fuerza centrífuga para retirar el material particulado. El flujo de aire contaminado se fuerza a entrar en sentido tangencial, por un conducto de entrada ubicado en la periferia de un cilindro. Esta configuración, hace que las partículas sean impulsadas hacia el perímetro y luego, por gravedad son recolectadas en una tolva de almacenamiento en la parte inferior del cuerpo, mientras el aire fluye hacia un conducto de salida en la parte superior, alineado con el eje central del cilindro (Figura 1). El material particulado es toda sustancia sólida o líquida, suspendida en el aire, que puede abarcar un rango de tamaños entre un micrómetro (1μm) hasta un milímetro (1mm), presente en la atmósfera y con potencial de producir un daño importante tanto en la salud de las personas como en el equilibrio del ambiente [12]. De especial interés resultan las partículas en el rango de tamaño desde 0.01μm hasta los 10 y 100 μm, porque son las que tienen el potencial más dañino para la salud por su capacidad de ingresar y afectar al sistema respiratorio especialmente en menores y mayores de edad. En general, en la minería se producen partículas cuyo tamaño puede ir desde 1μm, superando los 2.5μm y en su mayoría, compuestas de sílice, carbón [11], cenizas volantes y alúmina [13]. El tamaño de una partícula, se específica en función de su diámetro aerodinámico [14]. Una partícula tiene una forma irregular pero su comportamiento se puede modelar aproximándola a una esfera cuyo diámetro hace que tenga la misma velocidad de sedimentación terminal que la partícula irregular analizada. En la nomenclatura: PM, son las siglas en inglés de “Material Particulado” y el número a continuación, es el diámetro aerodinámico en μm. De tal forma que, PM10 se refiere a partículas con diámetro aerodinámico igual o menor a 10μm, PM2.5 es material particulado con diámetro aerodinámico igual o menor a 2.5μm. El polvillo que desprende el carbón, es de diámetro igual o superior a PM-10 y se origina por desprendimiento mecánico en los procesos, básicamente por las acciones sobre el material: fricción, golpe, almacenamiento, cribado, trasporte y taladrado, entre otros. Dada la naturaleza molecular del carbono y los enlaces con otros elementos, en la actividad minera y en la producción de coque, el material particulado que permanece en suspensión en las minas de carbón o en los depósitos de almacenamiento, tiene una estructura cristalina que vista al microscopio, tiene apariencia de hojillas con bordes cortantes, Fig. 1. Diagrama esquemático simplificado de un ciclón para remoción de material particulado  Filtro de mangas: Equipo que recibe el flujo de aire contaminado, colocando una barrera física consistente en un material, tejido o membrana reticulada, que atrapa las partículas por encima de un tamaño específico. Es el equipo de mayor rendimiento para remoción de material particulado en instalaciones industriales.  Precipitador electrostático: En estos equipos, el flujo de aire contaminado pasa a través de pares de placas con
    • carga eléctrica opuesta. El campo eléctrico entre placas de tensión contraria, captura las partículas debido a la fuerza electrostática, quedando estas adheridas en las placas. Es recomendable para tratar caudales grandes a altas temperaturas y con alta eficiencia reteniendo partículas finas inferiores a 10μm.  Equipo de medición de alto volumen para material particulado de tamaño 10 μm de acuerdo al diámetro aerodinámico máximo (Ver figura 2) denominado“HiVol PM 10” por la abreviatura derivada de su denominación en inglés. Fig. 3. Diagrama general de un equipo para monitoreo o control de material particulado de 10μg. A continuación se hace una descripción de cada una de las variables de entrada:  Caudal de entrada ( ): Se ha escogido el flujo volumétrico por la facilidad de medir esta variable. La unidad utilizada ⁄ .  Concentración de material particulado ( ): Indica la masa del total de partículas presentes en una unidad de volumen de aire a la entrada del equipo. Las unidades escogidas ⁄ .  Temperatura del caudal de entrada ( seleccionada . ). Unidad  Humedad relativa del caudal de entrada ( Expresada en porcentaje % . ): Las variables de salida: Fig. 2. Diagrama de funcionamiento de un equipo de monitorización de material particulado, PM-10. (Fuente: [17]) B. Variables Físicas Involucradas en la Operación de Equipos de Control de Emisiones La tecnificación de la operación de un equipo de control de emisiones, está directamente relacionada con la capacidad de medir o cuantificar las variables involucradas en el proceso de monitorización y remoción de material particulado. Se han agrupado las magnitudes físicas en: variables de entrada, variables de salida y tal clasificación aplica a cualquiera de los equipos descritos previamente. Las variables del sistema de remoción, cualquiera sea el equipo utilizado, permiten caracterizar la operación y encontrar relaciones matemáticas dinámicas a partir de las cuales se puedan hacer proyecciones confiables de funcionamiento, para mejorar el desempeño general del sistema, reducir costos y optimizar la operación. En forma global, se puede hacer una abstracción del funcionamiento de un equipo de monitoreo y/o control, como el que se muestra en la figura 3.  Caudal volumétrico de salida ( ): El principio de continuidad dicta que el caudal de salida debe ser igual al caudal de entrada de aire al equipo, aunque no todo el flujo sale por un conducto de salida. Es que parte del vapor de agua se condense de alguna forma en el interior del dispositivo, por lo que debe haber una disminución en la masa del flujo de salida. En el filtro de mangas, por ejemplo, el tejido utilizado como barrera, puede retener o absorber humedad. En el ciclón, se tiene un conducto de entrada y dos de salida. El conducto superior (Figura 1) expulsa aire con menor cantidad de material particulado que el flujo de entrada, mientras que el ducto a la tolva, recibe las partículas y algo de aire también.  Concentración de material particulado en el flujo de salida ( ): Como en su contraparte de entrada, las unidades utilizadas serán: ⁄ .  Temperatura del caudal de salida ( ). Unidades en  Humedad relativa del caudal de salida ( . . ). Dada en La definición de las variables anteriores, pone en evidencia que el proceso en cada caso es un sistema de múltiples entradas y múltiples salidas (MIMO). En primer lugar, se construirán los prototipos con configuraciones físicas fijas, para luego comprobar si la construcción de cada uno es una actividad que
    • puede mantenerse dentro de ciertos rangos de inversión económica. C. Selección de la Instrumentación Aunque cada equipo requirió de un proceso de diseño, construcción y puesta a punto particulares, las variables de entrada y salida son comunes. Es posible mencionar los dispositivos de uso recurrente. La detección de caudal volumétrico se llevó a cabo con una configuración compuesta por la cabeza del sensor de un anemómetro de hélice, con un rango de medida de a ⁄ (Figura 4). Este cabezal fue conectado a un circuito adaptado para generar 400 pulsos rectangulares por vuelta. La temperatura se registró con el sensor LM35, dispositivo ampliamente comercial y la medida de humedad relativa se hizo con el sensor HS1101. Otros elementos utilizados fueron: voltímetros, pantallas LCD 2x16, pulsadores, y en general, dispositivos para configurar los paneles de control de cada equipo. Las particularidades de diseño, montaje y puesta a punto de los prototipos requieren de un documento propio, cada uno, para hacer justicia a la complejidad con que se construyeron e instrumentaron. III. METODOLOGÍA La Universidad de Boyacá aplica los pilares de docencia, investigación y proyección social a través de alianzas estratégicas con empresas e instituciones de la región. En este marco se desarrolló este proyecto que comenzó ante una necesidad regional debido al estado de contaminación del aire preponderante en el municipio de Samacá por sus actividades prioritarias de minería y coquización del carbón que afectan la salud pública de los habitantes de la región. Después de un estudio de la calidad del aire [11] se propuso seleccionar equipos de control y medición de material particulado siguiendo criterios de diseño propuestos por los autores.  Para el ciclón: diámetro de entrada y salida, alturas de las secciones de entrada, cilíndrica, cónica, factor de configuración, altura total, caudal, caída de presión.  El filtro de mangas comprende entre otras las propiedades de los materiales filtrantes empleados, modos de filtración y de descarga del material filtrado, velocidad de filtración, caída de presión, eficiencia de remoción, tamaño y forma de los filtros. Fig. 4. Cabeza de sensor de un anemómetro de hélice. www.letslab.com) (Fuente: La concentración de material particulado no se implementó con dispositivos electrónicos. Aunque existen sistemas de medición comercial disponibles, estos suelen ser de alto costo y una de las justificaciones del proyecto es la reducción de inversión a partir de la utilización de dispositivos económicos, tecnologías abiertas y software libre. La concentración de dióxido de carbono, requerida para potenciales aplicaciones del ciclón, se realizó con el sensor MG-811. Los actuadores permitieron bombear aire, abrir o cerrar tapas de conductos o producir vibración. Para impulsar aire al interior de varios equipos, se utilizó un grupo de motores de aspiradora, adaptados a la entrada de cada sistema. La apertura o cierre se efectuó con solenoides adaptados y la vibración con motores adosados en las placas al interior del precipitador electrostático. El procesamiento de las señales suministradas por los sensores, además de algunos circuitos con filtrado y amplificación, se hizo principalmente mediante las tarjetas programables Arduino UNO y Arduino MEGA. Estas plataformas de prototipado rápido, son hardware abierto, con entornos de programación bajo licencia GPL y una amplia oferta de componentes complementarios de fácil consecución.  Para el precipitador electrostático su diseño se concentró en que el material particulado a precipitar está compuesto por finos de coque y carbón, material y distancia entre los electrodos, mecanismo de descarga, velocidad de migración.  El medidor de material particulado PM10 fundamenta su operación en el caudal, efecto cascada, tiempo de operación, registro de información, registros de captación de material. Los prototipos se elaboraron en el marco de una estrategia pedagógica denominada por los autores como proyectos integradores de aula en donde estudiantes de los programas de ingenierías sanitaria, ambiental y mecatrónica de la Universidad de Boyacá, bajo la supervisión y asesoría de los profesores aplicaron conceptos de asignaturas de Control, Contaminación y Calidad del Aire, Tecnologías Alternativas e Instrumentación. En la búsqueda de aplicar sistemas de control en la región, debido a que, según reconocimiento previo de la zona, la coquización se desarrolla en hornos sin sistemas de control de emisiones; se conformaron grupos de trabajo encargados de diseñar los prototipos. Paralelamente se trabajó por una estrategia de implementación de los diseños en la región, lo que dio pie para que la empresa FRANCOAL hiciera parte de este proceso y se convirtiera en un actor protagónico de desarrollo e implementación de estrategias de control de
    • emisiones atmosféricas en la medida en que fomentó espacios de investigación para la gestión del recurso aire. Durante el primer semestre del año 2013 el diseño fue la actividad primordial y de mayor dedicación desarrollada en tres etapas: análisis del principio de operación de cada equipo, instrumentación en función de las variables definidas y diseño y construcción del prototipo. Posteriormente, tras la puesta a punto de cada modelo, se llevaron a cabo pruebas de funcionamiento en las instalaciones de la empresa colaboradora. El diseño de las estructuras se apoyó en el software Solid Edge ST, para generar los planos con los que se ensamblaron posteriormente los equipos (Ver figura 5). Fig. 6. Equipo de remoción de material particulado y gases nocivos “Ciclón” listo para su operación en la planta de coquización FRANCOAL. Fig. 5. Ejemplo de planos generados con el programa Solid Edge, como parte del proceso de diseño de uno de los equipos. La figura 6, corresponde al ciclón funcionando en la planta de coquización. La entrada toma los gases provenientes de la boquilla de los hornos (En la figura 3, la sección inferior derecha) y el extremo cónico de salida superior incluye un sistema de postratamiento de gases , , y . Este equipo cuenta con monitorización de caudal, temperatura a la entrada y a la salida de los gases que registraba visualmente el nivel de tanto a la entrada como a la salida. En el recipiente cónico a la salida se depositó agua con cal, para atrapar los gases en una reacción química formando sales, evitando que al escapar a la atmósfera, estos gases se combinaran con el vapor de agua formando la peligrosa lluvia ácida. El precipitador electrostático (Figura 7) y el filtro de mangas (Figura 8), fueron adaptados para operar cerca a la tolva de cribado. Se colocaron en ambos dispositivos, tanto en los tubos de entrada como de salida, papeles de filtro blanco y estériles, humedecidos con agua destilada adyacentes y paralelos al flujo del aire, adheridos a la pared interna del tubo, para evitar que interfirieran con el paso de partículas y que no actuaran como filtros. Se humedecieron para tener una idea del comportamiento del material particulado al entrar en contacto con superficies que simularan la mucosa respiratoria y comprobar el nivel de adherencia. Fig. 7. Precipitador electrostático operando junto a las tolvas de cribado en la planta de coquización de FRANCOAL, Samacá. Los prototipos cuentan con sistemas de medición de temperatura de entrada y salida, humedad relativa. En el filtro de mangas se programó un sistema de bombeo de aire inverso para limpiar los filtros cuando el material adherido al tejido de las mangas, alcanzara una masa determinada. En el precipitador se incluyó también un indicador numérico para el voltaje aplicado entre las placas. Cada equipo presentó un nivel de complejidad en las etapas de diseño, construcción, instrumentación y puesta a punto que hace necesario elaborar trabajos independientes para divulgar los resultados de forma amplia y con el enfoque hacia las competencias de la ingeniería mecatrónica. En la etapa de diseño, se generaron planos esquemáticos que sirvieron de base
    • para la construcción de la estructura de cada equipo. Las etapas de construcción, instrumentación y puesta a punto, requirieron de la aplicación de actividades de soldadura, montaje y ensamble de dispositivos electrónicos, paneles, entre otros. En cuanto al nivel de instrumentación, junto con la conexión de sensores y actuadores, también se utilizaron dispositivos programables (Arduino UNO y Arduino MEGA), con código elaborado especialmente para el manejo de la adquisición de datos y su posterior tratamiento. El equipo fue construido con una bomba inyectora de aire, implementación de un venturi y horómetro funcionando de acuerdo con las especificaciones dadas por la Agencia de Protección Ambiental de Estados Unidos (EPA). La prueba de operación para el monitor PM10, consistió en dejarlo funcionando durante 24 horas continuas para analizar la capacidad del equipo de mantenerse dentro de parámetros de desempeño operativo estable. IV. RESULTADOS Tras media hora de funcionamiento a de distancia de la tolva de cribado, la inspección de los papeles humedecidos tanto a entrada como a la salida del precipitador electrostático y del filtro de mangas, proporcionó la comparación que puede verse en las figuras 10 y 11, respectivamente. El precipitador electrostático también se construyó con un panel para el registro de los valores (Figura 12). La temperatura del ambiente para ambos prototipos fue en promedio de , al interior de cada uno osciló en un rango de . La humedad relativa presentó variaciones en ambos casos en un rango de y la velocidad del aire a la entrada fue de ⁄ . El ciclón presentó un desempeño del 88.3 % para tratar el que a la entrada registró una medida promedio de y a la salida, el registro fue de 87ppm promedio en un tiempo de operación de 30 minutos. gas Fig. 8. Filtro de mangas operando junto a la tolva de trituración de coque en las instalaciones de FRANCOAL.. El monitor de material particulado PM10, por su parte se colocó en una zona de la planta coquizadora alejada en promedio unos 20m de distancia de las instalaciones de procesamiento. Fig. 10. Comparación de los papeles filtro humedecidos a la entrada y a la salida del precipitador electrostático Fig. 9. Monitor de material particulado de alto volumen o Hi-Vol. Fig. 11. Comparación de los papeles filtro humedecidos a la entrada y a la salida del filtro de mangas.
    • El monitor de material particulado de alto volumen o Hivol PM10, funcionó durante 24 horas y tras una inspección de las partes, se comprobó que el motor de la bomba no presentó calentamiento, ni olores característicos de circuitos sobrecargados. Tampoco hubo evidencia de condensación ni desgaste mecánico de los componentes. Fig. 12. Panel de instrumentos del precipitador electrostático durante la ejecución de la prueba piloto. V. DISCUSIÓN Y TRABAJO A FUTURO Aunque los resultados no se cuantificaron, la apreciación visual de la apariencia de los papeles de filtro humedecidos a la entrada y a la salida en cada prototipo, muestra una evidente reducción del material particulado. En las siguientes etapas del proyecto, se pretende establecer mecanismos automáticos que suministren información exacta y la muestren mediante pantallas indicadoras o a través de registro remoto inalámbrico hacia una estación central de recolección de datos. Por ejemplo, en el monitor de alto volumen de material particulado PM10, la cuantificación de la concentración PST se evalúa comparando la masa final que adquiere el filtro respecto a la masa inicial, previa a la puesta en marcha de la prueba. Se están estudiando dispositivos electrónicos y principios asociados que brinden la misma información, de forma inmediata, en los que no se requiera extraer el filtro ni se tenga que esperar a que termine la operación (24 horas mínimo). Se ha propuesto la medición de concentración PM10 con sistemas electrónicos que hagan uso de celdas de carga de alta sensibilidad o con sensores de fotodetección que permitan un análisis de las variaciones ópticas y colorimétricas del filtro en función del material retenido. La operación del ciclón es la que más detalles ha evidenciado para ser mejorados como: En primer lugar, la toma de la medida del caudal deberá ser adecuada para poder conectarla directamente a las boquillas de salida del horno de coquización, en donde se alcanzan tipicamente temperaturas superiores a los 1000 Cº y los gases expulsados, pueden estar por encima de los 700 Cº. El flujo de entrada del ciclón, se ha tomado en un rango de distancias entre 10 − 20m, de conductos de ladrillo y mortero refractario, especialmente diseñados para tal fin. Para que el equipo pueda ser conectado directamente a la salida de los gases de expulsión del horno, debe añadirse un recubrimiento refractario para aislar el calor o implementar mecanismos de refrigeración con el fin de mantener la integridad del equipo y de los sensores. En segundo lugar, se debe examinar la posibilidad separar el panel de instrumentos del módulo físico a través de comunicación inalámbrica con los sensores y los actuadores, que sin embargo, sí deben estar en contacto con el flujo para poder registrar las variables y efectuar acciones de control. En el precipitador electrostático, se evaluarán las ventajas de incluir: fuentes de alimentación de energía a través de fuentes alternativas que brinden mayores amplitudes de voltaje, adaptaciones para diferentes configuraciones de placas y la posibilidad de encontrar la forma de cuantificar la concentración PST en función de características eléctricas que varíen debido a la presencia de material particulado entre las placas. La fuente de alimentación utilizada fue la red de suministro, rectificada mediante un puente de diodos. Para este prototipo se hace énfasis en adaptar fuentes renovables como por ejemplo generadores eólicos debido a que en la zona se cuentan con velocidades promedio de 3.5 m/s y 5 m/s [11] o paneles solares. En cuanto a las adaptaciones para valorar diferentes configuraciones de placas, se proyectan variaciones en el diseño del prototipo como mecanismos adaptables según las condiciones y características de las emisiones como: placas paralelas, cilíndricas, modificar distancias entre placas, materiales de las placas ,etc. Una idea surgida después de las pruebas en la planta de Samacá, se sustenta en el hecho de que el precipitador electrostático es básicamente un capacitor en el que el dieléctrico es aire. Se planteó la hipótesis de que la concentración de PST puede estar relacionada numéricamente con la permitividad eléctrica del aire y se deben realizar pruebas para confirmar o descartar la afirmación. De ser cierta la hipótesis, se tiene una potencial forma de medir la variable paralelamente, con la operación del equipo. Además, debe hacerse un diseño completo de un sistema de monitoreo que aproveche tal fenómeno y que además, procese datos a una estación remota. El filtro de mangas, ofrece una serie de alternativas de mejoramiento basado en la secuencia de funciones que desempeña. Por ejemplo, al pasar el tiempo de operación, los tejidos de las mangas, se saturan de material particulado y taponan los resquicios por los que debe pasar el aire. Una técnica consiste en golpear la estructura para sacudir el polvo acumulado, otra es la inclusión de una bomba de aire limpio que desprende la capa de material de la superficie del tejido. En cualquier caso, el polvo cae por gravedad y es recogido en una tolva o recipiente. En modificaciones posteriores se planifica diseñar mecanismos automáticos de limpieza, basados en la detección de capas de polvo que taponan los filtros o de eventos asociados, para luego generar acciones de limpieza basadas en los principios mencionados. Lo que es común a todos los equipos, es la intención futura de utilizar sistemas inalámbricos para monitoreo remoto de las variables involucradas, el registro telemétrico en línea de los datos y el procesamiento de los mismos. En cualquier caso, el objetivo común, es tener datos confiables a partir de los cuales
    • se puedan deducir relaciones matemáticas dinámicas entre las variables, que conduzcan a estrategias de control y optimización de la operación de los equipos. VI. CONCLUSIONES El proceso seguido por los equipos de trabajo permite decir con alto grado de confianza que es posible ensamblar e instalar sistemas de remoción, medición y control de material particulado con un significativo ahorro económico respecto a alternativas comerciales disponibles que pueden requerir inversiones de varias decenas de millones de pesos. Para alcanzar tal diferencia monetaria, se hizo uso de herramientas tecnológicas basadas en software libre y hardware abierto. Se hicieron ajustes curriculares y metodológicos para que el desarrollo de los proyectos encontrara una eficiente articulación con el plan de los programas de Ingeniería Mecatrónica e Ingeniería Sanitaria de la Universidad de Boyacá, a manera de motivación para alcanzar los objetivos. El grado de instrumentación con el que los equipos fueron puestos en funcionamiento para las pruebas piloto, no brinda detalles suficientes para deducir una relación matemática entre las variables definidas pero sí suministra información sobre el desempeño de sensores, actuadores y su grado de robustez en las condiciones ambientales en las que se desenvolvieron las pruebas piloto. En el precipitador electrostático y en el filtro de mangas se instalaron anemómetros a entrada y salida, sensores de temperatura y sensores de humedad relativa. Se puede afirmar que los equipos realizan remoción de sólidos suspendidos totales, pero no el porcentaje en el que se cuantifica la eficiencia. La humedad relativa y la temperatura no cambian de forma apreciable, por lo que no hay condensación ni calentamiento de los equipos. A pesar de ser necesarias más implementaciones técnicas para mediciones precisas, sí se puede asegurar que los equipos cumplieron con la viabilidad técnica y económica. Las pruebas cualitativas con los papeles filtro humedecidos, hacen evidente que hay una remoción importante del material particulado y que está pendiente una validación cuantitativa con datos para establecer un valor porcentual, pero no se puede negar que en esta primera aproximación, se ha logrado un resultado importante que es indicativo del buen camino que se está siguiendo. La incorporación de proyectos integradores de perfil multidisciplinar, basados en problemáticas regionales brindó a los estudiantes y profesores que hicieron parte, la oportunidad de expandir la visión y percibir los alcances de los proyectos. Para los estudiantes representa la creación de espacios en los que se aplica el conocimiento a la solución de problemas con un alto impacto. Cada proyecto constituye la posibilidad de establecer contacto con empresas del sector y tiene el potencial de convertirse en el proyecto de grado. Para los profesores es la oportunidad de motivar a sus estudiantes y de generar conocimiento a través de la propuesta de soluciones prácticas que contribuyan al desarrollo regional. RECONOCIMIENTOS Especial gratitud expresan los autores de éste artículo a los estudiantes de la Universidad de Boyacá que cursaron las asignaturas de Proyecto I del programa de Ingeniería Mecatrónica y Tecnologías Alternativas de los programas de Ingeniería Ambiental e Ingeniería Sanitaria, que participaron en estos proyectos. Su contribución hizo posible el cumplimiento de la primera fase del proyecto. REFERENCIAS [1] [2] [3] [4] [5] [6] [7] [8] [9] Flechas Fajardo, «Minería en Boyacá». Secretaría de Minas y Energía de Boyacá, 2008. Benavides y J. Rosso, «Propuesta de Estructura para la Minería de Carbón en Boyacá», presentado en Congreso Nacional de Minería, Paipa, Boyacá, 2012. Zoltán de Marikovsky, Recursos minerales de Boyacá. Imprenta departamental, 1963. «Turismo Samacá». [En línea]. Disponible en: http://www.turismosamaca.com/planes.html. [Accedido: 13-jun-2013]. Alcaldía de Samacá, «Plan de Desarrollo Municipal 2012 - 2015». Salamandra Grupo Creativo, 2012. «Enfrentamientos entre mineros y propietarios por cierre de minas en Samacá - Gobernación de Boyacá», Enfrentamientos entre mineros y propietarios por cierre de minas en Samacá, 31-ene-2013. [En línea]. Disponible en: http://www.boyaca.gov.co/?idcategoria=32980. [Accedido: 13-jun-2013]. «Periódico El Diario 15 Años». [En línea]. Disponible en: http://periodicoeldiario.com/index.php/categoria-departamento/2542insisten-en-cierre-de-minas-en-samaca . [Accedido: 13-jun-2013]. A. Saldarriaga Vargas, «Azulnaranja - La Palabra Digital - La minería artesanal de carbón de la Sinifaná, camino de la extinción», 23-nov2010. [En línea]. Disponible en: http://www.funlam.edu.co/azulnaranja/index.php?option=com_content& task=view&id=6473&Itemid=9. [Accedido: 13-jun-2013]. J. M. Ospina Díaz, F. G. Manrique Abril, y J. A. Guío Garzón, «Salud y trabajo: minería artesanal del carbón en Paipa, Colombia», Av. En Enfermería, vol. 28, n.o 1, pp. 107-115, 2010. [10] A. M. Peláez, «UNPeriodico: En Boyacá, minería de carbón sofoca las aguas», 10-dic-2011. [En línea]. Disponible en: http://www.unperiodico.unal.edu.co/dper/article/en-boyaca-mineria-decarbon-sofoca-las-aguas.html. [Accedido: 13-jun-2013]. [11] D. Cáceres L, M. Adonis P, C. Retamal G, P. Ancic C, M. Valencia G, X. Ramos S, N. Olivares V, y L. Gil H, «Contaminación intradomiciliaria en un sector de extrema pobreza de la comuna de La Pintana», Rev. Médica Chile, vol. 129, n.o 1, pp. 33-42, ene. 2001. [12] R. G. E. Morales, Contaminación atmosférica urbana: episodios críticos de contaminación ambiental en la ciudad de Santiago. Editorial Universitaria, 2006. [13] H. M. G. Lozada, Evaluación del riesgo por emisiones de partículas en fuentes estacionarias de combustión. Estudio de caso: Bogotá. Univ. Nacional de Colombia, 2006. [14] L. T. Molina, La calidad del aire en la megaciudad de México: un enfoque integral. Fondo de Cultura Economica, 2005. [15] M. E. Mejía Giraldo y I. D. Oviedo Restrepo, «Estimación de las funciones de costo marginal de abatimiento de material particulado para fuentes fijas en el Valle de Aburrá», Ensayos Econ., vol. 16, n.o 29, pp. 55-81, 2006. [16] «CDC - Publicaciones de NIOSH - La silicosis en los operadores de máquinas de limpieza por chorro de arena (2002-105)». [En línea]. Disponible en: http://www.cdc.gov/spanish/niosh/docs/2002105sp/ [Accedido: 13-jun-2013]. [17] «3.15 Measurement of PM10 particles». [En línea]. Disponible en: http://www.nilu.no/projects/ccc/manual/documents/03_15Measurement %20of%20pm10%20particles.htm. [Accedido: 14-jun-2013]. [18] D. M. Benitez y A. Ramos, «Estructuración de un programa de reducción de la contaminación del aire en el municipio de Samacá como insumo para la elaboración del diagnóstico y declaración de área fuente
    • de contaminación de aire». CORPOBOYACA - Universidad de Boyacá, 2012. [19] Ministerio de Ambiente Vivienda y Desarrollo Territorial, República de Colombia, «Decreto 979 de 2006». Diario Oficial, 03-abr-2006. [20] Jeanne Mager Stellman y I. L. Office, Encyclopaedia of occupational health and safety. International Labour Office, 1998. [21] L. R. Disante, S. A. Ringler, y J. C. Zuccotti, Precipitadores electrostáticos. Argentina: Universidad Tecnológica Nacional, 2006. [22] C. A. Echeverri Londoño, «Baghouses design», Rev. Ing. Univ. Medellín, vol. 7, n.o 12, pp. 43-60, ene. 2008. [23] J. D. De la Rosa, «Contaminación atmosférica de material particulado provocado por la extracción minera», Macla Rev. Soc. Española Miner., vol. 10, pp. 85-88, nov. 2008. [24] C. A. Echeverri Londoño, «Diseño óptimo de ciclones», Rev. Ing. Univ. Medellín, vol. 5, n.o 9, pp. 123-139, jul. 2006.
    • 1 Modeling and tracking control of a pneumatic servo positioning system Iván Ramírez Electronic Engineering Department. Division of Control and Automation. Universidad del Quindío. Armenia, Colombia. idramirez@uniquindio.edu.co Abstract— Pneumatic actuators are low-cost, safe, clean and exhibit a high power to weight ratio. In this paper a novel control strategy for solving the tracking problem of pneumatic servo positioning systems copes with the nonlinearities of air flow through the 5/3-way proportional directional control valves and the nonlinear friction by considering position, velocity and pressure difference in the chambers of the pneumatic cylinder, as feedback states. The experimental and simulated results from the proposed tracking control strategy, probe that the time delay in the system that depends on the valve’s flow rate and the size of the pneumatic cylinder, is low but cannot be eliminated and it is the main source of the obtained tracking error. Index Terms— Pneumatic actuators, nonlinear systems, tracking control, 5/3-way proportional directional control valves, time delay. I. INTRODUCTION Nowadays, pneumatic actuators, due to their special attributes compared to hydraulic and magnetic actuators, have become an important driving element extensively used in industrial robotics and automation. They offer capability in providing large maximum forces for a longer period of time compare to electrical actuators. Electrical actuators contribute to overheating caused by thermal expansion for a longer period of time causing an increasing in error performance [1]. Pneumatic actuators are easy to build, to design and are very flexible. It can be design in range from lightweight, compact domestic appliances to heavy-duty industrial applications. Pneumatic actuators provide clean operating conditions and make it safe to be used. However, pneumatic actuator has highly nonlinear characteristic due to the nonlinear air flow through the valves orifices and the nonlinear friction in the contacts of the piston with the cylinder walls and slide ways that makes the pneumatic actuators difficult to control [2]. A high number of unknown parameters need to be identified in order to achieve a dynamical response closed to real systems. Pneumatic position control research had become significantly growth in 1990s. Many approaches have been investigated and developed in attempt to overcome difficulties in control of pneumatic actuators. Some classical control approaches were investigated such as Proportional-IntegralDerivative (PID) controller [3, 4]. Besides, there are also some reports on the advanced control such as sliding mode controller (SMC) [5, 6], adaptive controller [7] and a combination of controller [8, 9]. However, although there are many papers covering control of pneumatic servo positioning systems, the most common controllers to be found in literature use position, velocity and acceleration (PVA) as the feedback states. This contribution presents a strategy for solving the tracking problem of pneumatic servo positioning systems. The approach is novel in the sense that: taking into account the nonlinearities inherent to pneumatic servo positioning systems and consider position, velocity and pressure difference in the chambers of the pneumatic cylinder as feedback states. The suggested control strategy was implemented in simulation and on the real system. II. EXPERIMENTAL SET-UP A schematic representation of the test set up is shown in Fig. 1. It consists of a 5-port proportional valves (FESTO, MPYE- 5-1/8 HF-010B) and a rod less pneumatic cylinder (FESTO, DGPIL-25-1250-GK-KF-AH). Air flows from the (upstream) air tank (the supply) to the chambers of the cylinder is governed in magnitude and direction by the position of the valve‟s spool. Figure 1. Experimental set-up of the pneumatic servo positioning system The integrated positioning measuring system is the ultrasonic position sensor (FESTO, TEMPOSONICS) with a resolution 50μm. The transfer of movement to the outer slide is
    • 2 made via a fixed coupling. For the purpose of measuring pressure inside or at the inlet of the chambers of the cylinder, two compressed air connections have been adapted and differential pressure sensors are used for measuring the pressure difference between the chambers of the cylinder. A non-contacting eddy current position sensor with a range of about 2 mm is used for measuring the pre-sliding displacement. The velocity can be obtained from the derivative of the position, but we know that, in control strategies design, the use of derivative action is not advisable in applications with electro valves, due to the presence of noise inherent in this type of devices, which could lead them to instability due to sudden reaction of the derivative action. Therefore a velocity observer needs to be designed as we will show in section V. The acquisition and control system used is a dSPACE DS 1102 board. It is an electronic board specially designed to digital control development and data acquisition. It is composed by 4 analog inputs (ADCs) and 4 analog outputs (DACs). A computer is used for providing the driving input voltage to the valve by means of a D/A converter and reading the transducers by means of A/D converters. III. MODELING OF PNEUMATIC SERVO-POSITIONING SYSTEM Pneumatic actuator can be modeled from theoretical mathematical analysis or system identification. The theoretical mathematical analysis of pneumatic actuators requires a combination of thermodynamics, fluid dynamics and the dynamics of the motion. A detailed mathematical model of dual action pneumatic actuators controlled with proportional spool valves was developed by Edmond, R. and Yildirim, H., [10], Ramirez, I. [11]. Effects of nonlinear flow through the valve, air compressibility in cylinder chambers, leakage between chambers, end of stroke inactive volume, and time delay and attenuation in the pneumatic lines were carefully considered. System identification, numerical simulation and model validation experiments were conducted for two types of air cylinders and different connecting tubes length, showing very good agreement. The nonlinear equations that govern the three mains blocks: the drive, the actuator and the slider, can be linearized around an operating point as it has been shown in Ramirez [11]. The linearized model of the pneumatic servo system could be written in state space form as: 𝑥̇ 𝑦 𝑥 𝑥 𝑢 𝑢 (1) Where, the state vector is: 𝑥(𝑡) A, B, C and D are: [ ]; ; 𝑣 𝑦 [ and the matrix ] And 𝑦 𝑥(𝑡) The values of the K parameters can be found in [11]. IV. TRACKING CONTROL PROBLEM Whereas classical control theory is based in output feedback [12, 13], we empathize on the design of tracking control strategy by state feedback for the servo positioning system. The tracking control strategy consists of two parts: (i) proportional controller (inner loop) for the measured pressure difference in the chamber of the pneumatic cylinder i.e. embedded measured pressure difference feedback loop, with a d.c. proportional valve´s dead zone compensation. (ii) independent feedback of the difference between the desired and current state vector (pressure difference, velocity and position) i.e. compensation design and properly introduction of the reference input into the system which compensates for modeling errors and disturbances, and aims at tracking a desired state vector. A. Controllability and Observability The controllability of the system can be tested by several methods. A powerful method is the controllability matrix ( ). The controllability matrix of our system is ( ), and because rank ( ) = 3 i.e., full rank, our system is controllable. The observability of pneumatic servo positioning system is guaranteed since their states (position, velocity and pressure difference) are measurable. The observability matrix of our ( ) and because rank ( ) = 3 i.e., full system is rank our system is observable. B. Compensation Design There are two approaches to design estimators: open loop and feedback estimator. Open loop estimator is not useful in practice for some reasons: (i) if A is stable then the error is converging to zero at the same rate as the natural dynamics of A. The error will no converge if A is unstable. There is no way to influence the rate at which the estate estimate converge to the true state. (ii) if the model dynamic (A, B, C, D) is different from the system dynamic (due to inaccurate modeling for instance), in general, the estimated state will not converge to zero. One way to influence the estimator„s dynamic is inverting the feedback signal of the difference between measured and estimated outputs (𝑦 ̂) to correct the model: 𝑥 ̂̇ = ̂ + 𝑥 𝑥 ̂= ̂ 𝑦 𝑥 𝑢 + 𝐿(𝑦 ̂) 𝑥 (2) Where L is a constant matrix in Rn×p, with n: number of states and p: number of outputs. If the error in the estimate is 𝑥̅ 𝑥 ̂, then the error dynamics are given as follow: 𝑥 𝑥̅̇ = ( 𝑥̅0 = 𝑥0 𝐿 )𝑥̅ 𝑥 ̂0 (3) By choosing the gain matrix L the error dynamics of A−LC can be stable and much faster than the open loop dynamics A, [14], e.g., if we choose the matrix L such that the poles of the estimator (s = s1, s2, ...., sn) are in desired positions then the desired estimator characteristic equation is:
    • 3 𝛼 (𝑠) = (𝑠 𝑠1 )(𝑠 𝑠2 ) . (𝑠 𝑠𝑛) (4) For direct method, we determine L by comparing coefficients of the two polynomials on both sides of the following equation: det 𝑠𝐼 ( 𝐿 ) = (𝑠 𝑠1 )(𝑠 𝑠2 ) (𝑠 𝑠𝑛) (5) The equations to determine the observer gain matrix was derived using the Sylvester equation for MIMO systems [15]. The dynamic of the state estimator error is governed by the eigenvalues of A–LC (all the eigenvalues are chosen to be stable). Concerning the estimator pole selection there is a fundamental trade-off between sensitivity of the estimation error to sensor noise and speed of convergence. The smaller Re{eig(A−LC)} the faster the estimation error goes to zero. However, for small eigenvalues rapid changes in the signals will also introduce rapid changes in the estimator error, the estimated state will change nervously [16]. Fig. 2, shows a compensator incorporated into the system and table I shows the system equations in state-space. 𝑥̇ = 𝑥̅ ̇ 𝑦= 0 0 𝐿 𝑥 𝑥̅ (7) 𝑥 𝑥̅ The characteristic equation of the closed-loop system: 𝑠𝐼 𝑑𝑒𝑡 + 0 𝑠𝐼 + 𝐿 =0 And the poles of the closed-loop system can be obtained from: (𝑠𝐼 )(𝑠𝐼 + + 𝐿 )+ =0 i.e., the set of the poles of the closed-loop system are the union of the control poles and estimator ones. A. Reference introductions A controller obtained by combining a control law with an estimator is essentially a regulation design: the characteristic equations of the controller and the estimator are basically chosen for good disturbance rejection. However, it does not lead to tracking, which is considered by a good transient response of the combined system to controlled changes. A good tracking performance is obtained by properly introduction of the input reference into the system [16]. 1) Integral Control (Discrete-time) Integral control is needed to obtain robust tracking of step inputs. If we augmenting the plant in discrete time: 𝑥 𝑘 +1 = 𝑥 𝑘 + 𝑦𝑘 = 𝑥𝑘 𝑢𝑘 (8) With extra states interpreted as the output error ek=yk− rk. Figure 2. Compensator = control law + estimator 𝑥 𝐼𝑘 +1 = 𝑥 𝐼𝑘 + 𝑒 𝑘 𝑥 𝐼𝑘 +1 = 𝑥 𝐼𝑘 + 𝑥 𝑘 TABLE I COMPENSATOR EQUATIONS 𝑥̇ 𝑦 ̂̇ 𝑥 𝑢 ̂̇ 𝑥 𝑢 Plant Estimator Control Law Compensator 𝑥 𝑥 ̂ 𝑥 ( 𝑢 ̂ 𝑥 𝑢 The augmented state equation becomes (see Fig. 3): 𝐿(𝑦 ̂) 𝑥 𝐿 )𝑥 ̂ ̂ 𝑥 𝐿𝑦 𝑥 𝐼𝑘+1 𝐼 𝑥 𝑘+1 = 0 𝑦= 𝐿 𝐿 0 𝑥 𝑥 ̂ (6) 𝑥 𝑥 ̂ Using the error system dynamics: 𝑥̅̇ the system: 𝑥 𝐼𝑘 0 𝑢𝑘 𝑥𝑘 + 𝐼 𝑟 0 𝑘 (10) Now if we close the loop to stabilize the system then the state feedback law is: A state-space model for closed-loop system (plant + compensator) is: 𝑥̇ = 𝑥 ̂̇ (9) 𝑟𝑘 ( 𝐿 )𝑥̅ , we obtain 𝑢𝑘 = 1 0 𝑥 𝐼𝑘 𝑥𝑘 (11) Use pole placement or LQR techniques to design the control feedback gain K= [K1 K0]. Once the closed-loop is stable, the tracking error goes to zero even if some parameters change. The states of the plant xk are estimated using a state estimator. The estimator gain L is determined using pole placement or Kalman filtering techniques. The integrator states xIk need not to be estimated as note that pole placement or LQR might not work since the augmented system is not always stabilized and in this case integral control cannot be used [17].
    • 4 Figure 3. System with state feed-back and reference input including integrators for zero error in steady state. For the purpose of defining the frequency range within the bandwidth of the pneumatic actuator where the tracking error is minimum a sinusoidal input position trajectory with a fixed number of samples were used and the experiment was repeated for five different sampling frequencies (1000, 500, 333.33, 250 and 200 Hz). As we can see in Fig. 4 and Fig. 5, the results show that within the frequency range 0.2-0.5 kHz the tracking error is minimum and there is a kind of repeatability in the tracking error. Integral control is limited to step response tracking. In a more general approach, the error-space, gives a control system the ability to track an non-decaying or even a growing input such as step, a ramp or a sinusoid. Suppose that the external signal, the reference, is generated by a certain dynamic system. By including the dynamic system as a part of the formulation and solving the control problem in an error space, the error approaches zero. 2.) Disturbance rejection by disturbance estimation If the state is not available then −kx can be replaced by the estimate ̂ where ̂ goes to zero even when there is 𝑥 𝑥 disturbance signal with known dynamics. Suppose that disturbance is generated by a certain known system dynamic. The method consists in augmenting the estimator with the disturbance system in a way to cancel out the disturbance effects in the estimator outputs [18]. Given a plant in discrete state-space form with a disturbance input: 𝑥 𝑘+1 = 𝑥 𝑘 + (𝑢 𝑘 + 𝑤 𝑘 ) 𝑦𝑘 = 𝑥𝑘 (13) And the disturbance dynamics (Supposed as 2nd order) 𝑤 𝑘 +2 + 𝛼1 𝑤 𝑘+1 + 𝛼2 𝑤 𝑘 = 0 The final error system is: 𝑧 𝑘+1 = 𝑑 𝑧 𝑘 + 𝑦𝑘 = 𝑑 𝑧𝑘 Where 𝑤 𝑧 [𝑤 [ ] 𝑥 𝛼 𝐼 [ ] 𝐼 𝛼 𝐼 ] 𝑑 𝑢𝑘 (14) Figure 4. Sinusoidal position input trajectory of amplitude 400 mm and sampling frequencies of 1000 Hz (a), 500 Hz (b), 333.33 Hz (c), 250 Hz (d) and 200 Hz (e) Note that the simulated tracking error is not equal to zero because of the approximation in converting the continuous time state-space system to discrete time state-space ones, moreover the time delay for the considered pneumatic servo positioning system, cannot be eliminated and it is the main source of the obtained tracking error. The delay in the system is due to the following sources: (i) time delay caused by the connecting tubes. A pressure difference in the cylinder‟s chambers caused by a sudden change in the valve operation is delayed by the time it takes the pressure wave to travel from the valve to the cylinder. (ii) time delay caused by the size of the pneumatic cylinder. The action of a pressure wave, entering into a chamber of a pneumatic cylinder on the piston-slider mechanism is delayed by the time needed for the pressure difference to build up into the chambers of the cylinder. Fig. 6 shows the desired position, velocity and acceleration. The maximum values of acceleration and velocity are 0.2 ms−2 and 0.1 ms−1 respectively. The desired displacement is equal to 300 mm. Fig. 7 shows the simulation results and Fig. 8 the measured position and tracking error.
    • 5 The delay in the system is due to the following sources: (i) time delay caused by the connecting tubes. A pressure difference in the cylinder‟s chambers caused by a sudden change in the valve operation is delayed by the time it takes the pressure wave to travel from the valve to the cylinder. (ii) time delay caused by the size of the pneumatic cylinder. The action of a pressure wave, entering into a chamber of a pneumatic cylinder on the piston-slider mechanism is delayed by the time needed for the pressure difference to build up into the chambers of the cylinder. Figure 5. Tracking errors measurements corresponding to the position responses that are given in Fig. 6 Figure 8. Measured position and tracking error Experimental results show that, in the dynamic stage, the mean position error was around 4.2 mm. This finding shows that the proposed control strategy has better performance than other control strategies that use similar experimental set-up. As an example, Bacca, B. [9] introduced a PID and a sliding mode control for a position control of an electro-pneumatic system. He obtained mean position errors of 10.2 mm and 6.94 mm respectively. I. Figure 6. Desired position, velocity and acceleration CONCLUSIONS A global simulation model of the pneumatic servo positioning system developed in Ramirez [12] is sufficient to study the behavior of our system and for design effective regulation and tracking controllers for the real pneumatic servo positioning system. The experimental results from the tracking control strategy proposed, probe that the time delay in the system that depends on the valve‟s flow rate and the size of the pneumatic cylinder, is low but cannot be eliminated and it is the main source of the obtained tracking error. Using nonlinear control approaches may be reduces the time delay in the system and brings the maximum tracking error within the resolution of the used ultrasonic position sensor. This research is in developing. REFERENCES [1] Time (sec) Figure 7. Simulated position and tracking error S. Rajendran and P. S. Nanda, "Electro-Pneumatic Servo System," presented at the 14th National Conference on Machines and Mechanisms (NaCoMM09), NIT, Durgapur, India, 2009.
    • 6 [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] D. Schindele and H. Aschemann, "Adaptive friction compensation based on the LuGre model for a pneumatic rodless cylinder," In Industrial Electronics, 2009. IECON '09. 35th Annual Conference of IEEE, 2009, pp. 1432-1437, 2009. Rahmat, M. F., Sunar N. H., Najib, Sy., Salim,Sy., Shafinaz ., Mastura Abidin., Zainal, Mohd Fauzi., A. A and Ismail, Z. H., “Review on Modeling and Controller Design in Pneumatic Actuator Control System,” International journal on smart sensing and intelligent systems vol. 4, No. 4. December 2011. H. K. Lee, et al., "A study on tracking position control of pneumatic actuators". Mechatronics, vol. 12, pp. 813-831, 2002. B. Xu, et al., “A sliding mode fuzzy force tracking controller for pneumatic cylinders,” 2005. Y. C. Tsai and A. C. Huang, "Multiple-surface sliding controller design for pneumatic servo systems," Mechatronics, vol. 18, pp. 506-512, 2008. G. G. Zhu, et al., "An iterative algorithm for model-based predictive control of an Electro-Pneumatic Valve Actuator," In American Control Conference, 2009. ACC '09., 2009, pp. 2684-2689, 2009. M. Smaoui, et al., "A study on tracking position control of an electro pneumatic system using back stepping design," Control Engineering Practice, vol. 14, pp. 923-933, 2006. Bacca Bastidas Germán Arturo. "Estudio de la Dinámica No-lineal de un Servomecanismo Neumático de Posicionamiento," Ph.D Tesis. Universidad Nacional de Colombia - Sede Manizales. Facultad de Ingeniería y Arquitectura. Departamento de Electricidad, Electrónica y Computación. Manizales, Colombia. 2011. Edmond, R. and Yildirim, H., “A high performance pneumatic force actuator system”, ASME, Journal of Dynamic Systems, Measurement and Control, Vol. 122(3), pp. 416-425. 2001. Ramirez, I. “Linear regulation control design for a pneumatic servo positioning system,” Proceedings of the ACA, Universidad de Ibagué. Tolima. Colombia. pp. 567-571. 2004. Rao, Z., and Bone, G. M. "Nonlinear modeling and control of servo pneumatic actuators," Control Systems Technology, IEEE Transactions on, vol. 16, pp. 562-569, 2008. Mário R. Sobczyk S., Perondi, Eduardo A. “Feedback linearization control with friction Compensation applied to a pneumatic positioning system,” ABCM Symposium Series in Mechatronics - Vol. 5. pp 252263. 2012. Luenberger, D.G., “An introduction to observers,” IEEE Transaction on Automatic Control. Vol. 16, no. 16, pp. 596–602. 1971. Luenberger, D.G., “Observers for multivariable systems,” IEEE Transaction on Automatic Control. Vol. 11, pp. 190–197. 1966. K.Zhou. J.C.Doyle and K.Glover, “Robust and optimal control,” Prentice Hall, 1995. Wikander.J., “Adaptive control of pneumatic cylinders,” Ph.d. thesis, The Royal Institute of Technology, Department of Machine Elements, Stockholm, Sweden, 1988. B.D. Anderson, and J.B. Moore, “Linear optimal control,” Prentice Hall, 1971.
    • Afinador de Guitarra Acústica Semiautomático Semiautomatic acoustic guitar tuner Juan Bejarano, Leandro Torres, Cesar Zúñiga Facultad de Ingeniería, Universidad Autónoma del Caribe Barranquilla, Colombia jcbj1292@gmail.com lejotoco@gmail.com csarzuniga@gmail.com Resumen─ Este documento explica cada una de las fases de diseño de un afinador semiautomático de guitarra acústica, en donde el usuario debe tocar continuamente la cuerda que desea afinar y un juego de servomotores junto con el sistema de control harán girar la clavija de dicha cuerda hasta que esta alcance su punto de afinación. El prototipo fue diseñado con fines académicos para aquellos que empiezan a relacionarse con este instrumento musical y con fines comerciales para optimar el proceso de afinación de dicho instrumento. Durante el periodo de pruebas se vieron buenos resultados con excepciones como cuando la cuerda está demasiado desafinada y puede llegar a confundir con una cuerda errónea, se tendrá en cuenta estos sucesos para próximos prototipos. Abstract─ This paper explains each one of design phases of a semiautomatic acoustic guitar tuner, where the user must to play continuously the string to be tuned and then a set of actuators with the control system will turn the peg of that string until it reach its tuning point. The prototype was designed for academic purposes for those who begin to relate to this musical instrument and commercial purposes to optimize the tuning process of this instrument. During the test period were good the results with exceptions such as when the string is too out of tune and may confuse with a string wrong, it will consider these events for future prototypes. proceso de afinación de la guitarra para algunas personas con más experiencia que demoren en hacerlo manualmente. Se han realizados diversos sistemas similares como uno patentado por Ruperto L. Rosado en 1977, este está compuesto por un grupo de 6 generadores de tono con las frecuencias de la nota correcta de cada cuerda usados como referencia, las frecuencias se comparan mediante amplificadores operacionales con la frecuencia obtenida de la cuerda al momento de ser tocada, encendiendo un led indicando cuando las dos frecuencias son iguales, el movimiento de las clavijas para afinar la cuerda debe ser manual [1]. Posteriormente en 2007 se desarrolló un sistema de afinación en computador usando lógica difusa y la transformada de Fourier para obtener las frecuencias fundamentales y armónicas de la vibración de la cuerda, la diferencia entre la frecuencia ideal (Set point) y la obtenida de la guitarra seria la entrada al sistema de control difuso que se encarga de ajustar automáticamente la tensión de la cuerda a afinar [2]. Finalmente, a principios de 2013 se diseñó un sistema para guitarras eléctricas utilizando sensores piezoeléctricos y schmitt trigger para capturar y acondicionar la señal para luego enviarla a un microcontrolador para el ajuste y desajuste de la cuerda, se debe tocar la cuerda manualmente para iniciar la afinación de la guitarra [3]. Palabras Claves— Guitarra, Automatización, Afinación, Sistema de control, Microcontrolador. Keywords— Guitar, Automation, Guitar tuning, Control system, Microcontroller. I. INTRODUCCIÓN Una de las primeras lecciones que se tiene al aprender a tocar una guitarra es a afinarla, con el fin de familiarizarse con los sonidos correctos con los que debe escucharse las cuerdas de dicho instrumento. A veces el proceso puede ser demorado para las personas que lo intentan por primera vez ya que a estas se les dificulta la interpretación del sonido para determinar la nota correcta que debe tener cada una de las cuerdas de la guitarra y esto puede atrasar su aprendizaje; por tanto, se diseñó e implementó un prototipo mecatrónico de afinador con la finalidad de acelerar el proceso de aprendizaje, ayudándole a encontrar la nota correcta que debe llevar la guitarra en cada una de sus 6 cuerdas, además de poder agilizar el Fig. 1 Guitarra acústica clásica [4] El objetivo principal del proyecto fue diseñar un sistema de bajo costo capaz de afinar las 6 cuerdas en el menor tiempo posible,
    • brindándole una ayuda a personas ya sea expertas que busquen algo que les permita poner su guitarra a punto de manera confiable o para los principiantes que apenas están adentrándose en la música. Teniendo en cuenta la meta y referenciándonos en los sistemas anteriormente mencionados, se decidió usar un captador de la señal producida por la cuerda a afinar que se encuentre disponible actualmente en el mercado, posteriormente se determina que tan desafinada esta la cuerda, para que por medio del control hecho con base al afinador comercial se puedan dar las directrices con las cuales se moverán los motores acoplados a las clavijas y estos hagan girar las cuerdas hasta alcanzar la afinación de las mismas. Cabe recordar que durante la afinación el usuario debe mantenerse tocando la cuerda hasta que se indique que la cuerda ha sido afinada para que el procedimiento se cumpla de manera satisfactoria. Más adelante se explica cada una de las partes que componen el proceso de afinación semiautomático de una guitarra para dar un mayor entendimiento de dicho proceso. II. RESEÑA GENERAL Para llevar a cabo el proyecto propuesto se dispuso de un afinador de guitarra que ya se encontraba en el mercado de la marca Cherub modelo WST-550G, se escogió este ya que se analizaron varios afinadores existentes y se encuentra este como la mejor opción dadas sus condiciones frente a los demás tales como su bajo costo, su tamaño que permite transportarse y ser cómodo para su uso, su ubicación en la guitarra que permite un agarre optimo y en un lugar que no obstaculiza las demás piezas del sistema, su control interno que permite fácil adaptación a la idea de control que se ideó y su disponibilidad en el mercado local. Fig. 2 Afinador Cherub wst-550G [5] Luego de saber cuál sería el principal elemento del proyecto, se dispuso a determinar cuáles serán los otros elementos que conformarían el afinador semiautomático a realizar. Se decide entonces que luego de obtener las señales que envía este dispositivo afinador se necesita de algo que interprete estas señales y para ello se elige al PIC18F452, que indicará la salida necesaria que finalmente moverá los motores a partir de la señal de entrada que recibe. Siguiendo con los dispositivos utilizados se tienen los motores que darán movimiento a las clavijas que sostienen la cuerda, en este caso se implementaron servomotores de la marca hexTronik modelo HX12K, los cuales cuentan con la capacidad suficiente para mover las clavijas en ambos sentidos (para tensionar o aflojar la cuerda) acompañados por tres integrados L293D que cumplen la función de un puente H y así poder mover los servomotores en ambos sentidos. Posterior a esto se creó un acople que permitiera unir los servomotores a la guitarra, este fue diseñado con material de PVC y madera en forma de U para que estos tuvieran un buen agarre con las clavijas. Por último se creó una caja para la parte superior de la guitarra donde se encontrarían los seis motores utilizados y el circuito que se encargaría del cambio de giro de los mismos. Esta también fue diseñada en madera ya que a su vez se busca que el proyecto no sea tan costoso pero sí que sea eficiente al momento de implementarse. III. SISTEMA DE CONTROL El sistema control es el encargado de recibir las señales correspondientes del sensor conectado a la guitarra, procesarlas y enviar la acción de control correspondiente hacia alguno de los 6 motores que acompañan a las clavijas de la guitarra. A continuación se mostraran las partes involucradas en dicho sistema. A. Sensor Utilizado por el Sistema La señal dirigida al sistema de control proviene del afinador WST550G Guitar Mate de la compañía Cherub (fig. 2). Este es un afinador “Clip-on” que al engancharse al mango de la guitarra su sensor piezoeléctrico capta las vibraciones del instrumento; este dispositivo cuenta con un total de 17 indicadores leds, de los cuales 6 de color rojo y con el nombre de la cuerda se encargan de indicar la cuerda y la nota ideal que se debe escuchar, y los 11 restantes muestran que tan afinada o desafinada esta la cuerda con un error que va de -50 a +50 representado en 10 de estos leds de color rojo también y uno central que se ilumina en verde si la cuerda que se toca esta afinada, de lo contrario este permanece iluminando en rojo durante el proceso. Debido a que el afinador no fue diseñado para utilizarse como un sensor, fue necesario adaptarlo para luego poder dirigir las señales al microcontrolador, el procedimiento realizado consistió en destapar el dispositivo y soldar algunos cables sobre cada uno de los terminales donde se encuentran los leds en la placa de circuito impreso. La descripción del comportamiento de los voltajes que transitan en los terminales de los indicadores del dispositivo se muestra en la tabla I, se puede apreciar que mientras el led está apagado hay voltaje sobre este, pero si se encuentra encendido no se encuentra voltaje alguno. Esta situación obliga a invertir los voltajes por medio de circuitos digitales para llevarlo a la lógica apropiada en el microcontrolador; para ello se utilizó el Schmitt-trigger 74LS14 [6], que cumple la función de acondicionar la señal a un rango digital de 0 y 5 voltios y dirigirla a la siguiente parte del sistema de control. TABLA I Voltajes en los Terminales de los Indicadores Según su Estado Lógico Estado lógico del led ALTO BAJO Nivel de voltaje 0V 2.97V B. Microcontrolador y Algoritmo de Control La figura 3 muestra el diagrama de pines del microcontrolador PIC18F452; se necesitaron un total de 28 pines para el proyecto, 16 de estos para recibir las señales del afinador y 12 para enviar las señales de control a cada uno de los 6 servomotores y poder controlarlos de manera bidireccional. El algoritmo básicamente
    • consiste en la relación entre cada una de los indicadores de las cuerdas y el indicador del error en la afinación, si por ejemplo el indicador de la cuerda 1 esta encendido, entonces de los 6 pares de pines destinados para la señal de control de los servomotores, el algoritmo seleccionara el par que controla la clavija de la cuerda 1. Posterior a eso y según el error indicado por uno de los 10 leds indicadores del error, el servomotor controlado girará la clavija durante un tiempo estipulado en el algoritmo de control programado en el microcontrolador, a mayor error mayor será el tiempo de activación del actuador y teniendo en cuenta si el error es positivo o negativo, uno de los dos pines se activará, permitiendo un control bidireccional del servomotor seleccionado; la distribución de los pines y el tiempo de activación se muestran en las tablas II y III. IV. SISTEMA MECÁNICO Ya cumplida la etapa de control ejecutada por el sistema, se debe acoplar este afinador a la guitarra. Se pensó en utilizar motores para la parte del movimiento de las clavijas y entonces surgió la necesidad de encontrar un motor que tuviera la capacidad de mover con facilidad esas clavijas y que no se frenara por la incapacidad de tensionar las cuerdas que era el caso más crítico del movimiento. Es allí donde se decide implementar servomotores de la marca hexTronik, estos tienen la fuerza necesaria para realizar esta labor y son más económicos que los motores reductores que también podían realizar la tarea antes descrita. Estos motores con un torque de 15Kg/cm a 6V fueron los seleccionados y con ellos se eligieron los integrados L293D que contienen cada uno dos puente H en su interior para poder hacer cambiar de giro los motores por lo que para los seis motores fueron necesarios tres de estos. Estos integrados permiten un voltaje máximo de 32V y una corriente de 600mA que para el proyecto era suficiente en su funcionamiento [8]. Fig. 3 Diagrama de pines 18F452 [7] TABLA II Asignación de los Pines para Controlar los Servomotores Cuerda a afinar 1 2 3 4 5 6 Par de pines del PIC RC7, RD4 RD5, RD6 RD7, RB1 RB2, RB3 RB4, RB5 RB6, RB7 TABLA III Tiempo Asignado Según el Error de Afinación Error de afinación ±10 ±20 ±30 ±40 ±50 Fig. 4 Servomotor hexTronik HX12K [9] Ya teniendo los motores definidos se pasa a la parte de cómo hacer que estos se mantengan firmes en la guitarra y que no fallen a la hora de moverse, por eso se hizo un acople que fuese económico y eficaz. Este acople tiene forma circular de un tamaño que abarca la clavija al girar con una ranura en su centro que lo atraviesa de lado a lado por donde se inserta la clavija y esta queda fija para que no se pueda soltar y quedar el motor rodando solo. La figura 5 muestra un esquema en el programa SolidWorks para tener una idea de cómo sería la pieza ideada. Tiempo de activación (mSeg) 300 500 700 900 1100 Como medida de optimización al proceso, se programó una interrupción externa en el pin RB0 del microcontrolador, cuya entrada es el indicador central cuando ilumina de color verde avisando que la cuerda ya está afinada. Una vez activada la interrupción el microcontrolador desactivará todas las salidas hacia los servomotores deteniéndolos cuando el afinador indique que la cuerda alcanzó su punto de afinación; con esta medida se impide posibles oscilaciones cuando la cuerda este cerca de ser afinada. Fig. 5 Esquema en el programa SolidWorks del acople
    • Para acomodar los motores en la guitarra se tuvo en cuenta la forma de llevar las clavijas ya que de allí dependía el diseño de la caja que contiene los motores para hacer más compacto el sistema en general. En este caso las clavijas de la guitarra estaban en dirección hacia abajo y no hacia los laterales como algunas otras lo llevan por lo que se hizo también un esquema en SolidWorks para tener en cuenta las distancias entre clavijas y diseñar de manera precisa dicha caja (Fig. 6). Fig. 7 Acoples de Enlace para las Clavijas Los acoples que enlazan los servomotores a la clavija de la guitarra se pueden ver terminados en la figura 7, cumplen con la función de sujetar las clavijas, aunque varias veces se soltaron debido a la poca profundidad del acople, por lo que se concluyó que se debe diseñar un acople con mayor profundidad para garantizar una sujeción apropiada. La caja para ajustar los servomotores (Fig. 8) cumple con su función adaptándose a la posición del clavijero como se puede apreciar en la figura 9 junto con todos los demás implementos del sistema durante el periodo de pruebas. Fig. 6 Esquema en el programa de SolidWorks de la caja de motores V. RESULTADOS El circuito integrado L293D ofrece un máximo de corriente de 600mA por cada motor; por ensayo y error se descubrió que si dicha corriente ingresa a los dos canales destinados para los motores con una conexión en paralelo, cada uno consume la mitad de esta, es decir 300mA, los cuales fueron suficientes para que el servomotor tuviera la capacidad de mover la clavija. Teniendo en cuenta eso y que son tres dispositivos teóricamente idénticos que deben ser alimentados al tiempo, se concluyó que la corriente necesaria para alimentar correctamente los tres dispositivos es de 1.8A. El comportamiento del sistema de control fue correcto durante su labor en la mayoría de los casos, se realizaron 10 pruebas en la que se determina cuantas veces pudo el sistema reconocer y afinar la cuerda correcta, los resultados pueden apreciarse en la tabla IV. Se presentaron excepciones cuando la cuerda estaba tan desafinada que incluso el afinador Cherub que utilizamos como sensor marcaba una cuerda errónea. Esto se debe a que una cuerda cuando no está afinada puede escucharse parecido a la cuerda siguiente o anterior, eso provoca que el afinador confunda las cuerdas y active el servomotor incorrecto; se debe tener en cuenta este suceso para próximos proyectos. TABLA IV Efectividad del Sistema de Control Cuerda 1 ª Mi 2 ª Si 3 ª Sol 4 ª Re 5 ª La 6 ª Mi Aciertos 9 8 8 6 6 7 % efectividad 90 80 80 60 60 70 Fig. 8 Caja de Ajuste para los Servomotores Fig. 9 Afinador Semiautomático Versión Prototipo La tabla V muestra los precios de los principales implementos que componen el sistema, estos costos son satisfactorios en relación a su funcionalidad con lo que con las mejoras apropiadas se puede considerar la opción de ponerlo a prueba en el mercado. TABLA V Costos de elementos principales del proyecto Material Servomotores Microcontrolador Afinador Schmitt-trigger Unidades 6 1 1 3 Precio Unit $32.000 $15.000 $30.000 $1.000 Total Subtotal $192.000 $15.000 $30.000 $3.000 $240.000
    • VI. CONCLUSIONES El proyecto descrito en este documento ha sido de mucha utilidad en la parte académica donde se potencializaron ciertas habilidades requeridas en diseño de ingeniería, y también es un gran paso para diseñar un producto final que pueda comercializarse y así competir con los afinadores actuales en el mercado como es el caso del afinador de la empresa Cherub. Los resultados obtenidos en las pruebas finales invitan a plantear nuevas estrategias para captar la señal de una manera más eficiente y evitar conflictos como los descritos en la sección anterior, además de diseñar los acoples para que estos cumplan con las necesidades expuestas para asegurar de forma correcta el enlace entre los motores y las clavijas de la guitarra. También se tuvo en cuenta diseñar un sub-sistema capaz de tocar cada una de las cuerdas, no fue diseñado debido a que los costos habrían sido más altos que el presupuesto estipulado para el proyecto pero a futuro se puede plantear si es necesario ese agregado al proyecto teniendo a consideración el ámbito económico y funcional, para posteriormente diseñar el prototipo correspondiente. Diseñar un afinador de guitarra económico pero sobre todo funcional para el usuario es una idea muy interesante para tener en cuenta en los próximos trabajos, se estarán buscando nuevas alternativas para un rendimiento más óptimo pero se considerará este prototipo como la base para futuros proyectos con el fin de obtener una versión final que pueda ser llevada a producción. RECONOCIMIENTOS En agradecimiento a Danilo Rojas, estudiante de Ingeniería Mecatrónica de la Universidad Autónoma del Caribe por suministrar el afinador Cherub y su ayuda en la modificación para poder utilizarse como sensor; y también al ingeniero Edgar Francisco Arcos, Docente de tiempo completo del programa de Ingeniería Mecatrónica de la Universidad Autónoma del Caribe, por su guía a lo largo de la ejecución del proyecto. REFERENCIAS [1] [2] [3] [4] [5] [6] [7] [8] [9] Rosado. Ruperto L, "Automatic guitar tuner for electric guitars," U.S. Patent 4,018,124, April. 19, 1977. Rahnamai, K.; Cox, B.; Gorman, K., "Fuzzy Automatic Guitar Tuner," Fuzzy Information Processing Society, 2007. NAFIPS '07. Annual Meeting of the North American , vol., no., pp.195,199, 24-27 June 2007. E. Andrade, F. Jurado, “Diseño y construcción de un sistema automático de afinación de guitarras eléctricas de la serie PRV de VOGEL GUITARS,” Eng. Thesis, Escuela Politécnica Nacional, Quito, Ecuador, Jan. 2013. Tipos de guitarra. (2013) El rincón del guitarrista. [Online]. Disponible desde: http://www.guitarraonline.com.ar/index.php?sec=articulos/guitarras&tit ulo=Articulos#acusticas Cherub Technology. (2013) WST-550G Guitar Mate. [Online]. Disponible desde: http://cherubtechnology.com/product_detail.php?id=9&id1=32&id2=0 “HD74LS14 Hex Schmitt trigger inverters”, Hitachi, Ltd, Tokyo, Japan. “PIC18FXX2 Data Sheet”, Microchip Technology Inc, Chandler, Arizona, EE.UU. “L293, L293D QUADRUPLE HALF-H DRIVERS”, Texas Instruments Incorporated, Dallas, Texas, EE.UU. Hextronik HXT12K Servo Specifications and Reviews. (2013) ServoDatabase.com. [Online]. Disponible desde: http://www.servodatabase.com/servo/hextronik/hxt12k
    • Analysis of alarm management in startups and shutdowns for oil refining processes. Second International Conference on Mechatronics and Automation 2013 Vásquez John, Prada Jorge, Agudelo Carlos, Jimenez José, Escuela Colombiana de Carreras Industriales ECCI Engineering department, Andes University Automation Group Instituto Colombiano del Petróleo ICP Bogotá, Colombia jw.vasquez10@uniandes.edu.co; fjimenez@uniandes.edu.co carlos.agudelo@ecopetrol.com.co; jorgean.prada@ecopetrol.com.co Abstract: This article presents an analysis of startup and shut down operation on plants of oil refining processes which generates a significant amount of alarms that need to be analyzed in order to avoid abnormal situations. The first part will analyze existing standards ANSI / ISA / EEMUA identifying the most relevant aspects and then we will do a study of the interpretation of these standards in real situations in processes of startup and shutdown procedures. Culminating with a study about the mathematical model of the algorithm, and the use of these tests for detecting possible failures early using State Machine and GRAFCET as the model base implanted in a LOGO SIEMENS PLC. Keywords: Alarms, GRAFCET, LOGO, SIS diagnos86is, Management, I. INTRODUCTION The alarm management is a topic of great interest in the security planning of the different plants. Integrated management of the critical factors in the process ensure optimum safety on production level [1]. Factors such as process variables which are monitored from the computer systems in which run the control algorithms and strategies. Especially in the strategies, the procedures and steps are followed in both startup and shutdowns procedures. These tasks try to keep the plant within the established "limits" operating [1-3]. In the early 90s the drawbacks with alarms in the control systems began. In the industries where some accidents occurred, then the alarm systems emerged as one solution. Due to this, some companies began to offer products and services for settling the problem with alarms. In 1994 the ASM Consortium (Abnormal Situation Management Consortium - The Consortium Abnormal Situations Management) was formed, which began to study different aspects of the problem. In 1991, the EEMUA2 (The Engineering and Equipment Materials Users' Association - Members of Materials Engineering and Equipment) issued Publication 191 on the management of alarm systems. [4] Security Administration and Occupational Health of the United (OSHA: Occupational Safety and Health Administration) has issued certain requirements for alarm systems in the Federal Code Regulations, Title 29, Part 1910.119 (29 CFR 1910.119): "Management Process Safety in Materials Highly Hazardous Chemicals”. These requirements are linked to documentation of critical alarms and with the training they receive operators to understand how they work and act within operating limits of the alarms. Consequently, the critical alarms are used to take into account the diversion and the operator can analyze the steps to correct or avoid it. By using an integrated management of all critical process factors we can achieve safety excellence. The control of process variables in a DCS (Distribute Control Systems) is a factor in which maintains the algorithms developed in terms of controlling the plant. Therefore, alarm systems are used to inform unusual situations to the operator. 1 de 17
    • II. SAFETY INSTRUMENTED SYSTEMS if any of them is unattended or decreased, then the security would be threatened [15, 28]. The need to design and operate the systems more securely and economically has become a necessity which is increasing. This need could be supplemented with the application of international standards like the standard ANSI / ISA 84. This standard describes the life cycle stages of a safety instrumented system which constitutes the final layer of preventive security. A SIS is defined as: A system composed of sensors, logic controllers and final elements for the purpose of taking the process to a safe state function through safety and security indicators of decreased risk when certain preset conditions are despoiled. [22] The critical factors of the process work that must be managed together are: In the petrochemical sector the Safety Instrumented System is one of the most important aspects for the safety of the plant. It forms part of one of the layers as we can see in the figure 1. [16,27] 1. Facilities safety. 2. Control of process variables. 3. Safe behaviors. 4. Valid procedures. The process control variables are very important for plant stability because many accidents have originated in an initial loss of this control. In the alarm management we can find two types of actions: actions focused on the operator or actions focused on systems. To the operators is necessary include plans fundamentals training process, the process conditions, knowledge of the conditions of design actions during emergencies and operational emergency drills. In the second case, we have: • Multivariable Controls - Decrease of disturbances. - Improved operator ergonomics. • Alarm Management - Streamlining and prioritizing alarms. - Applications of dynamic management. Fig. 1 Layers of Protection The use of alarms to provide Risk Reduction is an important action in the industry currently. Then a good specification of the alarms could ensure the effective response of the operator, and avoid a hazardous incident. III. INTEGRATED SECURITY ALARM MANAGEMENT The safety of a plant involves integrated management of those factors that matter most when analyzing the causes of the accidents. In other words, these factors must be managed as joint, and not separately, because • Emergency shutdown systems (ESD) - The ESD execute a logical sequence independent criterion or condition operator personnel. - Annual Training Plan shutdown systems for the operators. Many of the causes of accidents in industry are generated when presenting a lot of alarms where the operator does not have the time or knowledge to process these alarms and does not take optimal actions maximizing this information. Then the operator can only focus on the section of the process which could presents statement, contingencies and accidents. It usually occurs with variables which the operator cannot attend. [6-10] 2 de 17
    • IV COMMENCEMENT OF DIFFICULTIES WITH ALARMS In past years (60's, 70's) integrating a new alarm on systems involved a high cost which required a careful study and analysis before deploying. Each alarm should be wired given the limited space on the panels of the control room. Today, advances in hardware and software make the implementation of alarms at a minimum cost possible, without limits of space and with less review. Therefore, unnecessary alarms arise in the process. The most important result was the appearance of the alarm systems, in which there are many installed and configured alarms. The alarms announced to the operator depend the amount of existing signals (analog and discrete), and the rate of alarms that the operator can respond efficiently. Many alarms cannot be evaluated by the operator, which is a serious threat to the safety of the process because: What alarms can be ignored without compromising the security of the process? At the other extreme, we can have a sub-alarm system, which is as bad as having an over-alarmed system. [3] The problem with the alarms can be summarized in two factors: Very high rate alarms Alarm rate indicates the quantity of alarms activate at the same time in the alarm system. If the operator needs to respond to all alarms, then the system cannot produce more alarms than the operator can respond effectively. The most important factors that affect the rate of alarms are: 1. Number of alarms set 2. Deadband analog alarms (pressure, temperature, flow, level, etc.). 3. Analog Alarm Limits 4. Alarms packages equipment (compressors, furnaces, etc.) Lack of criteria for assigning the priority of an alarm The alarm priority determines the order in which the operator must respond to the alarm, i.e. it determines the relative importance of alarms. Frequently it can be found where all alarm systems obtain the same priority, or obtain a large percentage of a priority and a limited for other priorities. It is important that alarms are prioritized correctly because in a scenario in which the operator receives a sequence of alarms in a short period, the priority is the only factor that determines the response with greater urgency. [16] V. THE STRATEGIC: MANAGEMENT ALARMS Alarm Management is a process in which the alarms are designed, monitored and managed to ensure more reliable and secure operations. The first mistake is to assume that the Alarm Management has to do with reducing alarms. The aim is to improve the quality acting on the next three aspects: first the rate of alarms during normal operation, second the rate of alarms during abnormal situations, and third the priority of alarms and problems related to Maintenance and Operation / Control. The motivation for Alarm Management is based on improving the work environment of the operator (ergonomics) preventing overload of the same, this to avoid unexpected stops, make operation safer thereby achieving improved plant reliability. [17] Implement Alarm Management Steps There are several recommendations on steps or stages to implement Alarm Management. PAS [6] recommends seven steps in which the first three must always exist. The seven steps are: 1. Develop, adopt and maintain a philosophy of Alarms Alarm Philosophy is a guide to the implementation and modification of alarms. It provides the basis for selecting, prioritizing, setting a new alarm as well as some methodologies designed to solve problems with the alarms. 3 de 17
    • 2. Collecting Data and Creating a Reference Point You cannot control what you don’t measure. Therefore, it is necessary to collect alarm information to perform an analysis to determine the current status of our system. This is done by calculating certain indicators which are then compared against target values derived from experience and studies of similar plants in the process industry. [5] 3. Resolving "Bad Actors" You have to contemplate bringing troubleshoot alarms most frequently advertised and you have to generate the greatest burden to the operator. To do this, based on the preliminary diagnosis of every bad actor, different techniques are implemented for changing the configuration of these alarms in order to stop the bad actors. 4. Document and rationalize You have to include review of all alarms both your setup as its purpose. It is a job that can be very costly in time and money so it must be carefully analyzed and programmed. The documentation of the alarms is a prerequisite for obtaining the Master Alarm Database, which obtains all the necessary information for each alarm installed in the system. 5. Audit Techniques Implement Alarms and Resetting Once the system is improved, it is essential to have a mechanism to ensure that the installed alarm configuration does not change over time unless duly authorized modification. To do this, you can deploy any software or program to monitor alarm settings in the system and report the changes to appear on the appropriate time. 6. Real Time Alarm Management Implement This phase includes the implementation of algorithms that allow to change some parameters of the alarms based on plant status (startup, shutdown, change the operating mode, etc..). Here we can also include the techniques or methods to disable nuisance alarms temporarily until the problem that causes this alarm to behave that way is solved. 7. Control and Improved System Maintenance An improved system does not hold up over time if the maintenance mechanisms for preserving are not taken and improving what has been done in the first three steps. This last step is always necessary in order to ensure that it stays on the improvements obtained in the previous steps. What's in the Alarm Philosophy? Alarm Philosophy is a document that contains the main guidelines for the identification, prioritization and implementation of the alarms on the DCS. It presents the criteria followed to implement an alarm, and it lists the roles and responsibilities for the Alarm Management. Allocation methodology establishes the priority of an alarm and provides a set of performance indicators (KPI) to evaluate the performance of an alarm system. It describes some methods to deal with the alarms in order to solve the problems they cause. [7] An alarm is a signal that is announced to the operator, typically by an audible sound, some form of visual indication, usually with a blink, and the presentation of a message or some other identifier. The alarm indicates a problem that requires action by the operator. Generally it is produced because a process measurement exceeds a preset alarm limit value approaching a potentially harmful or unwanted event. Ones the most important criteria for selecting an alarm are:    Does the event require any operator action? Is this alarm the best indication of the root of the problem? Is this alarm the product of an abnormal situation? For events that do not require operator action these 4 de 17
    • events will not be allowed to produce alarms and alarms will result from abnormal situations only, not normal situations.    Average Alarm Rate Maximum Alarm Rate % of time Alarm Rate are outside of acceptability target Priority Setting an Alarm The alarm priority communicates the seriousness of a specific condition of the process operator. It is advisable to use fewer priority levels, e.g. 3 (High, Medium and Low or Emergency). The priority of an alarm is a function of:   The operator time available to successfully respond to the alarm The severity of the consequences if the operator does not respond to the alarm The severity of the consequences can be derived from a matrix that considers the impact on the security of people, thus it facilities or causes damage in production and in the environment, and then it is greater severity as the result. With these two factors you can use the prioritization matrix to find the alarm priority analysis. According to the recommendations of best practices, the following matrix can be used to determine the priority of an alarm: [6] Average Rate Alarms These are a simple measure of the average level of disruption imposed on the operator. It is calculated as: Total number of alarms announced to the operator / total number of time slots Maximum Rate of Alarms These are the worst load on the operator in an interval of 10 minutes. It is calculated from the alarm log divided into intervals of 10 minutes and then recording the maximum number of alarms the operator posted at any intervals. Always the time interval is expressed using as base 10 minutes and then we can multiply this number by 6 in cases required per hour. [4 -5] Percentage of time the alarm rate exceeds the acceptable target It is a measure of the portion of time when the alarm system is out of acceptable alarm rate. The index is calculated by dividing the alarm log in required time interval (usually 10 minutes), then it calculates the number of alarms, and the operator sets at all intervals. The proportion of time in which the number of alarms exceeds the threshold is expressed as a percentage (for example, in 1 out of 10 intervals exceeding the target would be 10%). Source: PAS VI. These indices are calculated by the operator and generally is used within 10 minutes. [4] PERFORMANCE ALARMS INDICATORS Number of periods with intense activity of alarms The performances of an alarm system are a set of performance indicators (KPIs) necessary. The KPI should be calculated over a reasonable period of time, eg a week. EEMUA, in its publication 191, presents some indicators that can be used when the performance of an alarm system is evaluated. Suggested KPIs are: This index measures the peak in the activity of alarms. It is calculated by dividing the alarm log at intervals of 10 minutes and it calculates the number of alarms which the operator posts at each of these intervals. The number of intervals where the amount exceeds the target alarm alarms 100 is counted. Finally, the index can be expressed as a percentage of the total number of intervals. The idea is to reduce this percentage. 5 de 17
    • Alarms Suppressed This index is composed by two parts. The first part is the calculation of the alarms suppressed. The objective of this value is to be below 30. The second part is to measure the duration of each alarm suppressed. The Alarm Management must define a strategy that addresses the revisions necessary to keep the suppression of alarms under control. Permanent Alarms This index is composed by two parts, too. The first part is the number of permanent alarms. Its objective is to be below 10. The second part is the measurement of time for which an active alarm is considered permanent, and then a good definition would be those that remain active for more than one shift of 12 hours or a full day. Frequently Alarms It is a good indication of those alarms that impact more heavily on the rate of alarms. This is a way to recognize the “bad actors” who charge the system. It is calculated expressing the number of occurrences of the 10 most frequent alarms as a percentage of all alarms in the measurement period. Similar to EEMUA, PAS defines some indicators with their values to evaluate the performance objectives of an alarm system. [6] VII. DATA COLLECTION CALCULATION AND INDICATORS For KPIs calculation a database with alarm configuration should be developed. Generally this is obtained extracting the DCS alarm on configuration installed. The analyses of these data are called "static analysis in the configuration" also requires some application announced that collects operator alarms. For this, the analyses performed with dynamic data are called "dynamic analysis". The KPI calculated serve to establish a comparison with recommended values from the various industry studies conducted in other similar plants. It is the best indicator of the load imposed by the operator alarm system. This load maximum indicator is exposed to the operator. The abundance of alarms begins when more than 10 alarms exist in ten minutes, and an avalanche when we have more of 20 alarms in ten minutes. The priority alarms distribution should be based on static data or the installed alarm configuration will use information and dynamic data for alarms announced. Both distributions should present similar values taking into account the recommendations of the best practices about 80% low, 15% medium and 5% high. This indicator excludes alarms of instrument malfunction. The resolution of “bad actors” The “bad actors” are alarms that bother. If these “bad actors” abound in the system, it becomes useless since the important or critical alarms are lost in this sea of alarms. Maybe, with no criteria or management, it is impossible to have low alarm monitoring systems. The alarm management aims to achieve decreasing risk of accidents and allow a safer operation to people and to the facilities. Through this we can minimize unplanned plant shutdowns or production interruption. To implement it, various steps should be followed, including the adoption of an alarm philosophy, the resolution of "bad actors" and definition of performance indicators to evaluate the performance of the treatment system. VIII. OIL REFINING PROCESSES The oil refining processes consider an enormous volume of material processed and a large number of derivatives obtained. These processes can be summarized in: Fractional distillation, hydrogenation and dehydrogenation, polymerization, cooling and combustion. [18] Topping. This process is one of first steps in oil refining and its function is to separate the different components of crude oil in a distillation tower. The process`s products are fuel gas, straight run gasoline, light and heavy naphthas, fuel oils and reduced crude. The crude oil distillation is based on mass transfer between the liquid-vapor phases of a mixture of hydrocarbons. The 6 de 17
    • distillation allows the separation of the components of a mixture of hydrocarbons, such as oil, depending on their boiling points. [21] To produce the "separation or fractionation" of the cuts should reach the equilibrium between the vapor and liquid phases. The lighter components of lower molecular weight are concentrating in the vapor phase and conversely the higher molecular weight predominantly in the liquid phase. It ultimately takes advantage of differences of volatile hydrocarbons. [18] Fig. 3 HDT schematic Hydro treating A Hydro treating process corresponds to the injection of a hydrogen-rich gas in the presence of a catalyst at high temperatures and pressures. In general, we can say that a hydro treating unit (HDT) can be designed to support different loads or feeds by using hydrogen as a corrective, and meets one or more of the following functions: - Hydro desulfurization (HDS). - Hydro denitrogenation (HDN). - Increase cetane in the product. A scheme of this type of unit can be represented as follows: Fig. 2 HDT Blocks Source: ttp://covarida.blogspot.com/2012/03/proceso-de-hidrodesulfuracion-vsplanta.html In a single area of the process essential elements and components that frame the general behavior of the plant are defined. Source: ttp://covarida.blogspot.com/2012/03/proceso-de-hidrodesulfuracion-vsplanta.html Therefore analyzing the process this contains the following dynamics: 1. Gasoline injection pump 2. Gas injection compressor 3. Heating system 4. Reactor 5. Cooler 6. Valves IX. MODEL DESCRIPTION The alarms are discrete signals, and for the management this type of signal we will need to use some technique. Some of the methods and methodologies to model DES (Discrete Event System) originated through General Systems Theory. According to this theory, the real systems obey the same laws and it show similar patterns of behavior even if not physically. Two methods based on General Systems Theory are DEVS formalism (Discrete Event Systems Specification) and SES (System Entity Structure). Hence a Discrete Event System, DES, is a system event-driven discrete state, i.e. the evolution of the states depends only on the occurrence of asynchronous discrete events over time. The typical features of the DES include concurrency, asynchronous behavior, non-deterministic choice, mutual exclusion, and real-time constraints *23+. 7 de 17
    • We will use State Machines, Petri Nets and GRAFCET like DES models to define the behavior of the HDT processes. Some control theory for discrete event systems has been modeled as finite state machines, and this has been developed in relation to control several fundamental situations. However, the modeling of finite state machines is the weakness of state explosion which makes it unsuitable for many practical applications. The PN (Petri Nets) are formed for a simple mathematical representation using linear algebra and set theory, which makes them particularly useful for modeling and analyzing discrete event systems. [11-14] In the hydrotreating process we will study only the Hydrogen and Nitrogen machines. For construct the models we will use the tool Supremica [24]. Hydrogen State Machine Event Str A1 A2 A3 Description Starting procedure Discharged HM* Indication that HM is charged HM ready to work *HM : Hydrogen machine xo Initial state = S0 Xm ⊆ X is the marked state = S3 Blocking analysis This automata is not blocking because there is a way to return to the market place, compliance Lm(G) = L(G) Constructing the language Lm(G) : { ɛ, Str, Str.A2, Str.A2.A3, Str.A2.A3.A1} = L(G) Then it is not blocking. And this automata does not have a deadlock where ᴦ(x) =Ø Vivacity: In this machine all states are achievable goals Nitrogen State Machine Fig. 4 Hydrogen State Machine G1 The automaton that describe this machine is G1 = (X1,E1, f1, Γ1, x01,Xm1) Where: X is the set of states X1 = { S0, S1, S2, S3, S4 } State Description S0 Hydrogen machine ready to start S1 Hydrogen machine is charging S2 Hydrogen machine is charged S3 Hydrogen machine ready to work E is a finite set of events associated with the transitions in G. E1= {Str,A1,A2,A3} Fig. 5 Nitrogen State Machine G2 The automaton that describes this machine is G2 = (X2,E2, f1, Γ2, x01,Xm2) X2 = { S4, S5, S6, S7 } State S4 S5 S6 S7 Description Nitrogen machine ready to start Nitrogen machine is charging Nitogen machine is charged Nitogen machine ready to work E is a finite set of events associated with the transitions in G. E2= { A2, A4,A5,A6, e2] 8 de 17
    • Event Description A2 Indication that HM is charged A4 Discharged NM* A5 Indication that NM is charged A6 NM ready to work *NM: Nitrogen machine xo Initial state = S4 Xm ⊆ X is the marked state = S7 Blocking analysis This automata is not blocking because exist a way to return at the marked state, compliance Lm(G) = L(G) Constructing the language Lm(G) : { ɛ, A2, A2.A5, A2.A5.A6, A2.A5.A6.A4 } = L(G) And this automata does not have a deadlock where ᴦ(x) = Ø Vivacity: In this machine all states are achievable goals Parallel Composition How these automata’s operate concurrently we going to do a parallel composition to analyze the concurrent behavior. The composition by product could be restricting because it basically permits transitions on common events, then the parallel composition is called too synchronous composition. [25] Fig. 6 Result of the parallel composition of the Hydrogen machine with the Nitrogen machine The new automaton is composed by 16 states with 25 transitions. Blocking analysis The marked place (S3 S7) form part of the resulting automaton and it is not blocking because it can return to the initial state S0.S4 through the strings: Str.A2.A5.A6.A3.A4.A1 or Str.A2.A5.A3.A6.A1.A4. Then, Lm(G) = L(G) These is determined by G1 II G2 where E1 U E2 And this automaton does not have a deadlock where ᴦ(x) = Ø Constructing the language, the strings that determinate a livelock cycles to the marked state for the accesible part are: Lm(G)= {ɛ, Str, Str.A2, Str.A2.A5, Str.A2.A5.A6, Str.A2.A5.A6.A3, Str.A2.A5.A6.A3.A1.A4, Str.A2.A3.A5.A6.A4.A1, Str.A2.A5.A6.A3.A4.A1, Str.A2.A5.A3.A6.A4.A1, Str.A2.A3.A5.A6.A1.A4, Str.A2.A3.A5.A6.A1.A4} = L(G) 9 de 17
    • X. DIAGNOSTIC ANALYSIS When there are unobservable events on the system it is required to do a diagnostic analysis because the system is undeterministic. To change it in a deterministic automaton an observer Gobs is necessary where all the events will be observable. Let’s go to include a unobservable event Euo={A2}, then we have that construct the observer Gobs. Observer of G1 Fig.9 Diagnoser G1 and G2 Fig.7 Observer of G1 In the diagnostician of G1 we can see that the unobservable event A2 did not happen before the state S1, on the rest of states it has passed. In G2 after that S4 it has passed too. Observer of G2 Fig.8 Observer of G2 With the observers the undeterministic automaton with unobservable events now is deterministic. DIAGNOSTICIAN AUTOMATA To diagnose the occurrences of unobservable events and to track the system behavior a diagnostician automaton is used, it allows us to observe a deterministic automaton only with observable events [26]. The unobservable event in this case is A2. In front of each state there is a Y or N indicating that the unobervable event has passed (Y) or not happened yet (N) Fig. 10 Diagnoser parallel composition 10 de 17
    • The marked state is {S3Y,S7Y} and it indicate that in this state the unobservable event A2 has passed. And it has passed since the state {S1N,S2Y,S4N,S5Y} XI. MARKED LANGUAGE IDENTIFICATION ON EVENT SEQUENCE GENERATED IN STARTING PROCEDURE. The languages in an automaton represent all the possible sequences of events that can be generated on the model. To analyze this part, we have to build a new automaton that describes the startup procedure on the plant restricted by the corresponding specification. After that we find the specific sequence of discrete events, we can determinate the correct procedure [710]. When the plant HDT going to be started, it needs to comply the following conditions:    Check valves close Check equipment’s off Check empty reactor Step 1: Activate Hydrogen machine Event associate: A2 Step 2: Activate Nitrogen machine Event associate: A5 For this case, Euc={A2} this event is uncontrollable The specification on controlled system The system contains the uncontrollable event Euc={A2}, then the supervisor S most be introduced because the behavior of the uncontrolled DES G is presumed to be unacceptable and must be delimited for a subset of L(G) L(S/G) ⊆ La ⊂ L(G) Fig. 11 Startup procedure Specification Hspec State M0 M1 M2 M3 M4 M5 M6 M7 Description HM and NM ready to start Hydrogen machine is charged HM ready to work Nitrogen machine is charged NM ready to work Hydrogen machine is discharged Nitrogen machine is discharged Finish procedure The specification includes a new event F which indicates that the startup procedure has finished. Then the Supervisor includes the parallel composition of the specification with the other automata Hspec II G1 II G2 To maintain under control the system on the correct procedure without uncontrollable events for the starting of the HDT plant we need a specification which will be described below Hspec [6]. 11 de 17
    • XII. GRAFCET MODEL DESCRIPTION The GRAFCET or SFC (Sequential Function Chart) emerged in France in the mid 70's and it was created by Telemecanique and Aper, together with two agencies: AFCET (French Association for Cybernetics, Economy and Technology) and ADEPA (National Agency for the Development of Automated Production). The SFC is a graphical language oriented to automation sequences. Its characteristics allow rapid design and a simple verification. [11-12] Propose Based on the previous model analyzed we will construct the following GRAFCET model representing the behavior of the system proposed. The methodology that we will use is the prior table, where: Fig. 12 Supervisor The marked place is {S3.S7.M4} The Supervisor S is a function from the language generated by G to the set of E S : L(G) 2E Starts if T9 end Str T1 end T2 end T3 end A6 A6 T5 end T6 end T5ɅT6 end Authorizes T1 T2 T3 T4 T1 T7 T8 T4 T1 T0 Tasks Description Blocking in cotrolled system Is blocking when L(S/G) ≠ Lm(S/G) [6] Constructing the language, the strings that determinate a live lock cycles to the marked place are: Lm(S/G) = {ɛ, Str, Str.A2, Str.A2.A3, Str.A2.A3.A5, Str.A2.A3.A5.A6, Str.A2.A3.A5.A6.A1, Task T0 T1 T2 T3 T4 T5 T6 T7 T8 T9 Str.A2.A3.A5.A6.A4, Str.A2.A3.A5.A6.A4.A1, Str.A2.A3.A5.A6.A1.A4.F } = L(S/G) Then for this case is not blocking. Task T0 T1 T2 T3 T4 T5 T6 T7 T8 T9 Description To prepare initiation procedure To charge hydrogen machine To stop HM To charge Nitrogen machine To stop NM To discharge hydrogen machine To discharge nitrogen machine To wait NM be discharged To wait HM be discharged To finish procedure Transtions 12 de 17
    • Marking Event Str A1 A2 A3 A4 A5 A6 F Description Starting procedure Indicate HM is discharged Indicate HM is charged HM Ready to work Indicate NM is discharged Indicate NM is charged NM Ready to work Indicate procedure finish A marking M is represented by a vector with the quantity of places of the net. The quantities of marks in a place p will be M(p). The initial marking is represented for M0 [13] * Hydrogen machine ** Nitrogen machine GRAFCET MODEL Mark behavior Each firing of a transition modifies the distribution of the marks, and therefore it produces a new marking on the network. M0 - + Pre(p, t) Str A1 A2 A3 A4 A5 A6 T0 0 0 0 0 0 0 0 T1 0 0 0 0 0 0 0 0 T2 0 0 0 0 0 0 0 0 T3 0 0 0 0 0 0 0 0 T4 0 0 0 0 0 0 0 0 T5 0 0 0 0 0 0 0 0 T6 0 0 0 0 0 0 0 0 T7 0 0 0 0 0 0 0 0 T8 0 0 0 0 0 0 0 0 T9 F 1 0 0 0 0 0 0 0 0 Pos(t, p) = Mf Str A1 A2 A3 A4 A5 A6 1 P = {T0,T1,T2,T3,T4,T5,T6,T7,T8,T9} T= {Str,A1,A2,A3,A4,A5,A6,F} 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 Fig. 13 HDT GRAFCET model 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 13 de 17
    • 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Fig. 14 Marking T1 when transition Str is fired Behavioral properties Reachability The reachability is a fundamental base for the studying of the dynamic properties of any system. When we enable a transition, it can be triggered. In addition it will change the distribution of signals (marked). Thus a sequence of shots will be a marked sequence, and then a marked Mn is reachable from M0. It is possible if a sequence of shots from M0 will lead to Mn. [14-15] The reac