• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Ventana informatica / Edicción 25
 

Ventana informatica / Edicción 25

on

  • 3,071 views

 

Statistics

Views

Total Views
3,071
Views on SlideShare
3,071
Embed Views
0

Actions

Likes
1
Downloads
30
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Ventana informatica / Edicción 25 Ventana informatica / Edicción 25 Document Transcript

    • FACULTAD DE CIENCIAS E INGENIERÍA Carrera 9 No. 19-03 - Apartado Aéreo: 868 Conmutador (6) 887 9680 extensión: 299 Manizales, Colombia www.umanizales.edu.co ventanainformatica@umanizales.edu.co ventanainformatica@gmail.com
    • Nº 25 - julio - diciembre / 2011GUILLERMO ORLANDO SIERRA SIERRARectorJORGE IVÁN JURADO SALGADOVicerrectorGuillermo Arias OstosDecanoFacultad de Ciencias e IngenieríaDirector / EditorOMAR ANTONIO VEGAPhD(c)VENTANA INFORMÁTICAISSN 0123-9678Diseño y DiagramaciónGonzalo Gallego GonzálezImpresiónCentro Editorial Universidad de ManizalesDerechos Reservados2011VENTANA INFORMÁTICA es una publicación semestral especializada de la Facultadde Ciencias e Ingeniería de la Universidad de Manizales.Está clasificada en la CATEGORÍA C, en IBN – Publindex (Actualización I – 2010),para el periodo 10/01/2010 A 31/12/20112
    • Universidad de Manizales Facultad de Ciencias e IngenieríaComité EditorialMaría Cecilia CALANI BARANUSKAS, PhD.Instituto de Computação UNICAMPCampinas, Sao Paulo, BrasilDavid GRAU MERCONCHINI, MSc.Centro de Información y Gestión Tecnológica, MEGACENSantiago de Cuba, CubaHéctor MORA PÁEZ, MScInstituto Colombiano de Geología y Minería, INGEOMINASBogotá, ColombiaCarlos Eugenio OLIVEROS TASCÓN, PhD.Centro Nacional de Investigaciones de Café, CENICAFÉChinchiná, ColombiaLuis RODRÍGUEZ BAENA, PhD.Universidad Pontificia de Salamanca, UPSAMMadrid, EspañaComité Científico de RedacciónLuis Carlos CORREA ORTIZ, MSc.Universidad de ManizalesManizales, ColombiaJulio César GÓMEZ CASTAÑO, PhD(c).Universidad de ManizalesManizales, ColombiaJohn Makario LONDOÑO BONILLA, PhD.Instituto Colombiano de Geología y Minería, INGEOMINASManizales, ColombiaMarcelo LÓPEZ TRUJILLO, PhD.Universidad de CaldasManizales, ColombiaOmar Antonio VEGA, PhD(c).Universidad de ManizalesManizales, Colombia 3
    • Nº 25 - julio - diciembre / 2011Comité Científico de Arbitraje(Integrantes que realizaron arbitraje de artículos para este número)Andrea Catherine ALARCÓN ALDANA, MSc.Universidad Pedagógica y Tecnológica de Colombia, UPTCTunja, Boyacá, ColombiaCarlos Alberto AMAYA TARAZONA, MSc.Universidad Nacional Abierta y a Distancia, UNADDuitama, Boyacá, ColombiaLine Yasmín BECERRA SÁNCHEZ, MSc.Universidad Católica de Pereira, UCPPereira, Risaralda, ColombiaLuis Marcial BERTEL PATERNINA, Esp.Universidad de ManizalesManizales, Caldas, ColombiaMauro CALLEJAS CUERVO, MSc.Universidad Pedagógica y Tecnológica de Colombia, UPTCTunja, ColombiaLuis Carlos CORREA ORTIZ, MSc.Universidad de ManizalesManizales, Caldas, ColombiaAndrés David EPIFANÍA HUERTA, MSc.Universidad Católica Los Ángeles de Chimbote, ULADECHChimbote, Ancash, PerúLuis Alejandro FLÉTSCHER BOCANEGRA, MSc.Universidad Católica de Pereira, UCPPereira, Risaralda, ColombiaMario Andrés GIRALDO FADUL, PhD.Kennesaw State University, KSUKennesaw, Georgia, USAJorge Eliécer GIRALDO PLAZA, MSc.Politécnico Colombiano Jaime Isaza Cadavid Medellín, Antioquia, ColombiaJulio César GÓMEZ CASTAÑO, PhD(c).Universidad de ManizalesManizales, Caldas, ColombiaMarlene Lucila GUERRERO JULIO, MSc.Universidad Pontificia BolivarianaBucaramanga, Santander, Colombia4
    • Universidad de Manizales Facultad de Ciencias e IngenieríaRicardo Alonso HURTADO MOSQUERA, MSc(c).Universidad Católica de Pereira, UCPPereira, Risaralda, ColombiaGustavo Adolfo ISAZA ECHEVERRY, PhD.Universidad de CaldasManizales, Caldas, ColombiaAlejandro LONDOÑO VALENCIA, MSc.Universidad de ManizalesManizales, Caldas, ColombiaMarcelo LÓPEZ TRUJILLO, PhD.Universidad de CaldasManizales, Caldas, ColombiaAndré Atanásio MARANHÃO ALMEIDA, MSc.Instituto de Computación, UNICAMPCampinas, São Paulo, BrasilCarlos Eduardo MARULANDA ECHEVERRY, MSc.Universidad de Caldas – Universidad Nacional de ColombiaManizales, Caldas, ColombiaAna Teresa ORTEGA MINAKATA, MSc.Instituto de Información Territorial del Estado de JaliscoZapopan, Jalisco, MéxicoLiliana María PUERTA ESCOBAR, MSc.OFGTres Cantos, Madrid, EspañaLuis RODRÍGUEZ BAENA, PhD.Universidad Pontificia de Salamanca,Madrid, EspañaSilvio Ricardo TIMARÁN PEREIRA, PhD.Universidad de NariñoPasto, Nariño, ColombiaSaulo de Jesús TORRES RENGIFO, PhD(c).Universidad Tecnológica de PereiraPereira, Risaralda, ColombiaÁbilo Andrés VELÁSQUEZ SALAZAR, MSc.Universidad Nacional de ColombiaManizales, Caldas, ColombiaRonald Eduard VINASCO SALAZAR, MSc.Universidad de ManizalesManizales, Caldas, Colombia 5
    • Nº 25 - julio - diciembre / 20116
    • Universidad de Manizales Facultad de Ciencias e Ingeniería En esta edición PáginaEditorial.....................................................................................................9-10Omar Antonio VEGASistema de administración y supervisiónde equipos en una red de datos............................................................ 11-24[Management System and Monitoring Workstations in a Data Network]Marco Emilio MONTES BOTERO y Julio César GOMEZ CASTAÑOSimulación de técnicas de encolado con prioridad............................25-39[Simulation of Techniques for Priority Queues]Néstor Jaime CASTAÑO PÉREZ y Germán William LONDOÑO JIMÉNEZCertificación de la calidad del proceso y producto:Ruta para pymes colombianas que fabrican software.......................41-61[Certification process and product quality:Route Colombian SME manufacturing software]Luis Eduardo PELÁEZ VALENCIA; Ricardo Alonso HURTADO MOSQUERA yJorge Alberto FRANCO ESCOBAREquipAsso: un algoritmo para el descubrimiento deconjuntos de ítems frecuentes sin generación de candidatos..........63-82[EquipAsso: An Algorithm for Discovery Largeitemsets without Candidate Generation]Ricardo TIMARÁN PEREIRABuses de campo y protocolos en redes industriales.......................83-109[Fieldbus and Protocols in Industrial networks]César Augusto SALAZAR SERNA y Luis Carlos CORREA ORTIZSMA Aplicado a la gestión de tráfico de voz en LAN...................... 111-127[MAS Applied to Voice’s Traffic Management at LAN]Néstor Jaime CASTAÑO PÉREZ y José Julián CARVAJAL VARGASMinería de datos con conjuntos aproximadospara clasificación de imágenes satelitales......................................129-158[Data Mining with Rough Sets for Classification of Satellite Images]Juan Olegario MONROY VÁSQUEZ 7
    • Nº 25 - julio - diciembre / 2011Propuesta metodológica para el desarrollode SIG mineros en Colombia............................................................159-172[Methodological proposal for the development of GIS in Colombia mining]Jorge Iván DELGADO ARIAS y Humberto Iván RÍOS ARIASPlaneación, análisis y diseño del SIGdel Campus de la Universidad del Quindío.....................................173-188[Planning, analyzing, and designing the SIG of the University of Quindío campus]José Joaquín VILA ORTEGA; Lina María CASTRO BENAVIDES; Diana MarcelaRIVERA VALENCIA y Sergio Augusto CARDONA TORRESGestionar el conocimiento:Una necesidad empresarial para sobrevivir en el siglo XXI...........189-216[Managing knowledge: A business need to survive in the XXI century]Carlos PETRELLA TÓFFOLO y Luis JOYANES AGUILARConstrucción de conocimientosignificativo en ingeniería mecánica................................................217-230[Construction of Significant Knowledge in Mechanical Engineering]Alejandro Arturo PÉREZ VILLEGAS y Adriana María SÁNCHEZ NAVARRETEPolíticas editoriales de la revista Ventana Informática.....................231 Nota: Los conceptos expresados en esta publicación son responsabilidad de los autores y no comprometen el pensamiento de la Universidad ni de la Facultad de Ciencias e Ingeniería. COPYRIGHT © UNIVERSIDAD DE MANIZALES8
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Editorial Omar Antonio VEGA Director/EditorEn la edición No. 25 se publican 11 artículos, seleccionados de los 36presentados dentro de la convocatoria cerrada en agosto 20 de 2011,procedentes de universidades colombianas (Industrial de Santander,Católica de Pereira, Central, de Nariño y obviamente, de Manizales),así como de Senect (Uruguay), la Universidad Pontificia de Salamanca(campus Madrid, España), Universidad de Oriente (Santiago de Cuba)y la Universidad Autónoma de San Luis de Potosí (México).Los artículos se distribuyen tratando de seguir líneas temáticas, de lasiguiente manera:Los primeros seis, relacionados con informática, presentan: - un sistemade administración y supervisión de una red de datos, utilizando la meto-dología ágil Scrum, que permite visualizar la estructura e inventario dehardware y software, - la gestión de tráfico de paquetes con prioridaden la cola, mediante la generación de variable aleatorias de tiempoutilizando métodos de simulación de eventos discretos, - el abordajede los procesos de certificación de calidad de software en el ámbitocolombiano, - el algoritmo EquipAsso, que encuentra directamente losconjuntos de ítems frecuentes sin la generación de conjuntos candida-tos, utilizando los operadores algebraicos relacionales EquiKeep y As-sociator, - el funcionamiento de las redes industriales, sus componentesy protocolos principales, y - la aplicación de un Sistema Multi-Agentea la gestión de tráfico de Voz IP en una red de datos de área local sinequipos activos de alta gamaLuego, se presentan tres artículos en el área de Geomática, que con-sisten en: - el estado del arte frente al uso de Rough Set en la clasifi-cación de imágenes satelitales, - una propuesta metodológica para eldesarrollo de SIG mineros en Colombia, y – una metodología de trabajopara la fase de análisis y diseño del proceso de desarrollo de SIG enla Universidad del Quindío.A continuación, aparecen dos artículos donde se trata, respectivamente,- la necesidad que tienen las empresas de gestionar su conocimiento,como una manera de lograr la sobrevivencia, y - el desarrollo de unprototipo para realizar pruebas de tensión, por un grupo de alumnos deIngeniería Mecánica de la Universidad Autónoma de San Luis de Potosí.Para finalizar, se presentan las políticas editoriales, en la búsqueda dela mayor claridad en los procesos de recibo, selección, publicación y 9
    • Nº 25 - julio - diciembre / 2011distribución, como manera de facilitar e incitar la participación de dife-rentes comunidades científicas.Es de recordar que la revista cierra su convocatoria en febrero 20 paralos números del primer semestre y para el segundo, en agosto 20, locual ratifica la invitación abierta a participar en ellas, porque… Alguien está necesitando la información que usted está dispuesto a brindar. Usted está necesitando la información que alguien está dispuesto a brindar… Ventana Informática se mantiene abierta para que la información fluya en ambas direcciones.10
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Sistema de administración y supervisión de equipos en una red de datos*1 [Management System and Monitoring Workstations in a Data Network] Marco Emilio MONTES BOTERO2 , Julio César GOMEZ CASTAÑO3Recibo: 02.03.2011 - Ajuste: 20.05.2011 - Ajuste: 20.10.2011 - Aprobación: 10.12.2011 Resumen El sistema de administración y supervisión del hardware y el software de los equipos en una red de datos, es de tipo cliente/ servidor y permitirá, a los administradores de red, visualizar en un plano arquitectónico de la empresa, todos los equipos que componen la red, a través de una interfaz gráfica, y sobre ésta tendrán la posibilidad de consultar la información del inventario de hardware y software de cada uno de ellos, los cambios que se presenten en los mismos, y las funciones de supervisión. El desarrollo del proyecto está basado en la metodología ágil Scrum. Las herramientas de desarrollo e implementación utiliza- das para la elaboración del sistema web corresponden a software libre; entre ellas Ruby on Rails, Rest, XML, Apache, Passenger y Netbeans. Se logró implementar el sistema de administración y supervisión, utilizando un sistema agente, con diferencias res- pecto a otras herramientas similares existentes en el mercado.* Modelo para citación de este artículo de reflexión: MONTES BOTERO, Marco Emilio y GÓMEZ CASTAÑO, Julio César (2011). Sistema de administración y supervisión de equipos en una red de datos. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 11-24. ISSN: 0123-96781 Artículo proveniente del proyecto titulado Sistema SCADA para la administración y supervisión de equipos en una red de datos, ejecutado entre octubre de 2009 y febrero de 2011, e inscrito en el grupo de investigación y desarrollo en Informática y Telecomunicaciones, para optar al título, en la Universidad de Manizales, de Ingeniero de Sistemas y Telecomunicaciones por parte del primer autor, bajo la dirección del segundo.2 Ingeniero de Sistemas y Telecomunicaciones. Gerente, Siete Cumbres S.A.S, Manizales (Colombia). Correo electrónico: marcomontes@gmail.com.3 Docente, Facultad de Ciencias e Ingeniería, Universidad de Manizales. Correo electrónico: jgomez@umanizales.edu.co. Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 11-24 11
    • Nº 25 - julio - diciembre / 2011 El proyecto llegó a ser finalista en la cuarta convocatoria del programa nacional Destapa Futuro año 2009-2010 realizado por la Fundación Bavaria. Palabras Clave: Supervisión, Administración, Inventario, Alarma, OWASP, Scrum. Abstract The management and monitoring system is client/server, and enable network administrators to view an architectural plan of the company, all computers in the network. On the graphical interface, they can check the information hardware and software inventory of each of these teams, the changes that occur in them, and monitoring functions. The project is based on the Scrum agile methodology and free tools for development and implemen- tation, such as Ruby on Rails, Rest, XML, Apache, Passenger and Netbeans. It was possible to implement the management and monitoring system, using a broker. The article shows the differences of the system with other similar tools on the market. The project was presented to the fourth edition of the national Uncover Future 2009-2010, conducted by the Foundation Ba- varia, which was a finalist. Keywords: Monitoring, Management, Inventory, Alarm, OWASP, Scrum. IntroducciónLa administración de los activos tecnológicos de una empresa, en mu-chos casos está mal enfocada o hace uso de medios y metodologíasinapropiadas para su buen desempeño. Juega un papel importante elmanejo eficiente y seguro de la información relacionada con los equiposde cómputo disponibles en una empresa, ya que se hacen inventariosy revisiones manuales sólo en caso de ocurrir algún incidente en estosequipos.Este proyecto tiene como sustento la sistematización de estos proce-sos, mediante actividades de administración y supervisión, como son elcontrol de supervisión, automatización y adquisición de datos, con el finde agilizar y garantizar la seguridad en la administración de los activostecnológicos de una empresa, generando innovación y posibilidadesde empleo en campos de estudio específicos de la informática como loson el desarrollo de software, la seguridad informática y el supervisiónde equipos.12
    • Universidad de Manizales Facultad de Ciencias e IngenieríaAdemás, el uso de la metodología ágil Scrum, se adapta perfectamenteal desarrollo de un proyecto de este tipo, en el cual los requerimientossurgen o cambian en cualquier momento, permitiendo un alto nivelde adaptabilidad a las circunstancias cambiantes de la evolución delproceso.Finalmente, el ciclo de vida del desarrollo del proyecto, adaptado a lasmetodologías ágiles de desarrollo, recomendaciones de desarrollo másseguro y el seguimiento de estándares y protocolos para intercambio dedatos entre aplicaciones, permitirá una perfecta sinergia de herramientasde software nuevas o existentes que requieran el acceso a consultasy/o manipulación de la información generada por este proyecto. 1. Fundamento teórico1.1 Windows Management InstrumentationSegún AJPDSoft (2010), Windows Management Instrumentation (WMIo Instrumental de administración de Windows) es una iniciativa quepretende establecer normas estándar para tener acceso y compartirla información de administración a través de la red de una empresa.WMI incluye un repositorio de objetos, a modo de base de datos dedefiniciones de objetos, y el administrador de objetos CIM, que controlala recopilación y manipulación de objetos en el repositorio y reúne infor-mación de los proveedores de WMI. Los proveedores de WMI actúancomo intermediarios entre los componentes del sistema operativo, lasaplicaciones y otros sistemas.Los proveedores proporcionan información acerca de sus componentes,y podrían proporcionar métodos para manipular los componentes, laspropiedades que se pueden establecer, o los sucesos que le puedenalertar de las modificaciones efectuadas en los componentes.Por ejemplo, con WMI se podría obtener información detallada delprocesador y de los diferentes componentes de hardware y softwaredel equipo.1.2 Representational State Transfer, RESTREST es un estilo de arquitectura de software para sistemas hiper-medias distribuidos tales como la Web y se refiere estrictamente auna colección de principios para el diseño de arquitecturas en red.Estos principios resumen cómo los recursos son definidos y disec-cionados. Está basado en estándares HTTP, URL, representaciónde recursos XML/HTML/GIF/JPEG y tipos MIME text/xml, text/html.Su funcionamiento en la identificación de recursos y manipulación 13
    • Nº 25 - julio - diciembre / 2011de ellos a través de representaciones, mensajes autodescriptivos ymecanismos de reconocimiento del estado de la aplicación, como loexpresa Navarro (2007).1.3 Open Web Application Security Project, OWASPConsiste en un proyecto de código abierto dedicado a determinar y com-batir las causas que hacen inseguro al software. La misión de OWASP(2011) «es hacer la seguridad en aplicaciones “visible”, de maneraque las organizaciones pueden hacer decisiones informadas sobrelos riesgos en la seguridad de aplicaciones». La Fundación OWASP,un organismo sin ánimo de lucro que apoya y gestiona proyectos einfraestructura, está formada por empresas, organizaciones educativasy particulares de todo mundo. Juntos constituyen una comunidad deseguridad informática que trabaja para crear artículos, metodologías,documentación, herramientas y tecnologías que se liberan y puedenser usadas gratuitamente por cualquiera.1.3.1 OWASP Top 10. Proyecto de la Fundación OWASP que pretenderecopilar los diez tipos de vulnerabilidades en aplicaciones web quesuponen el mayor riesgo para su seguridad. Según OWASP (2010a)las diez vulnerabilidades más críticas que se han recogido en la versióndel año 2010, son las siguientes:• Inyecciones: Vulnerabilidades de inyección de código, desde SQL hasta comandos del sistema.• Cross-site Scripting: Una de las vulnerabilidades más extendidas y a la par subestimadas, que abarca cualquier ataque que permitiera ejecutar código scripting.• Gestión defectuosa de sesiones y autenticación: Comprende los errores y fallos en las funciones de administración de sesiones y validación de usuario.• Referencias directas a objetos inseguras: Errores al exponer par- tes privadas o internas de una aplicación sin control y accesibles públicamente.• Cross-site Request Forgery: Vulnerabilidad consistente en el des- encadenamiento de acciones legítimas por parte de un usuario autenticado, de manera inadvertida por este último y bajo el control de un atacante.• Configuración de seguridad mala o ausente: Más que un error en el código, se trata de la falta o mala configuración de seguridad de todo el conjunto de elementos que comprende el despliegue de una aplicación web, desde la misma aplicación hasta la configuración del sistema operativo o el servidor web.14
    • Universidad de Manizales Facultad de Ciencias e Ingeniería• Almacenamiento con cifrado inseguro: Referida a la ausencia o mal uso de los sistemas de cifrado en relación a los datos almacenados o manejados por la aplicación.• Falta de restricciones en accesos por URL: Falta de validación en el procesamiento de URL que podrían ser usadas para invocar recursos sin los derechos apropiados o páginas ocultas.• Protección insuficiente de la capa de transporte: Relacionada con la vulnerabilidad penúltima, pero orientada a la protección del tráfico de red, indica una elección de un cifrado débil o mala gestión de certificados.• Datos de redirecciones y destinos no validados: Errores en el trata- miento de redirecciones y uso de datos no confiables como destino.1.4 ScrumSegún Infante (2010), es una metodología ágil, que puede ser usadapara manejar el desarrollo de productos complejos de software usandoprácticas iterativas e incrementales. Ha sido usado desde proyectossimples hasta en cambios estructurales completos en las empresaspara sus negocios. Con él se incrementa significativamente la produc-tividad y reduce el tiempo de espera, para ver los beneficios así comofacilitar la adaptación de los sistemas desarrollados. El mencionadoautor considera estas características:• Procesos ágiles para el manejo y control del trabajo de desarrollo.• Es un contenedor de prácticas de ingeniería existentes.• Es un enfoque basado en equipos, incrementa el desarrollo cuando los requerimientos cambian rápidamente.• Es un proceso que controla el caos entre los conflictos de interés y las necesidades.• Es un camino para mejorar las comunicaciones y maximizar la cooperación.• Es la vía para detectar la causa y solucionar cualquier problema en el desarrollo.• Es escalable desde proyectos simples a proyectos completos organizacionales.Asimismo, expresa que esta metodología consiste en un conjuntode prácticas interrelacionadas y reglas que optimizan el entorno dedesarrollo, reducen la sobrecarga organizativa y sincronizan los requi-sitos del mercado con los prototipos de cada iteración. Se basa en eltrabajo en equipo, en reuniones diarias presididas por el máster paraestablecer el estado del proyecto y en la salida cada 30 días de lascaracterísticas del proyecto finalizadas y listas para trabajar. El corazón 15
    • Nº 25 - julio - diciembre / 2011de esta metodología es la iteración; en cada iteración se presenta unamejora del funcionamiento del producto final y se evalúa la tecnologíay capacidades requeridas, además, diariamente se puede modificar elenfoque si se encuentran nuevas dificultades.1.5 Antecedentes1.5.1 Aranda Asset Management. Herramienta de gestión y soporteque permite tener información actualizada y detallada sobre el estadode la infraestructura tecnológica de forma automatizada, cuyas carac-terísticas, según Aranda (2010), son:• Inventario actualizado y detallado de hardware, software, periféricos, agendas de bolsillo (PDAs) y activos fijos minimizando costos de inventarios manuales.• Control de licenciamiento de software en cada equipo y del utilizado por cada usuario.• Control especial de eventos mediante la generación de alarmas que indican cualquier cambio en el inventario.• Control y administración remota a estaciones inventariadas y no inventariadas en tiempo real para minimizar los tiempos de soporte.• Ejecución en línea de tareas de administración remota a estaciones inventariadas y no inventariadas.• Módulo de reportes que permite unificar y presentar toda la infor- mación recogida.• PC Web, alternativa móvil para la visualización de la información de una estación de trabajo en particular y Módulo PC Browser Web edition, que permite su administración y control remoto.• Sincronización bidireccional permanente con el Directorio Activo de Windows.1.5.2 Dexon Control de Plataforma IT. De acuerdo con Dexon (2010),permite un sistema totalmente integrado para cubrir todas las necesi-dades de administración y supervisión de una plataforma de la infraes-tructura tecnológica. Diseñada para asegurar el control, seguimientoy auditoria de todos los componentes tecnológicos que conforman laplataforma IT de cualquier organización. Brindando prácticas de adminis-tración basadas en la metodología ITIL (Biblioteca de Infraestructura deTecnologías de la Información). Ofreciendo servicios sobre Inventariosautomáticos, administración de activos fijos, control de licenciamientode software, auditoría y control remoto, recuperación y respaldo de ar-chivos críticos. Además, por tratarse de un sistema flexible, totalmenteIntegrado y que dinámicamente se ajusta a las necesidades del negocio,permite la administración y supervisión de Servidores, Impresoras, Dis-16
    • Universidad de Manizales Facultad de Ciencias e Ingenieríapositivos de Red, Recursos de red, Servicios y SNMP. La suite Dexonbrinda soluciones específicas para:• Administración de computadoras de escritorio,• Supervisión de redes y servidores,• Administración de dispositivos de red,• Distribución e Instalación desatendida de software,• Restauración y copias de seguridad e imágenes de disco de esta- ciones de trabajo,• Control remoto y virtualización del mantenimiento remoto,• Administración de activos fijos.Otros sistemas para la gestión de inventario de los recursos de losequipos utilizados son Lever IT Discovery (LeverIT, 2010) y Excalibur(CMN-Consulting, 2010). 2. MetodologíaEl trabajo estuvo basado en la metodología ágil de desarrollo Scrum(Control Chaos, 2009), que no se basa en el seguimiento de unas fasesespecíficas, sino en la adaptación continua a las circunstancias de laevolución del proyecto, permitiendo de este modo, un desarrollo decarácter adaptable en lugar de predictivo y una estructura de desarro-llo ágil e incremental basada en iteraciones y revisiones. Además, sesiguieron las recomendaciones de las guías de desarrollo y pruebaspropuestas por OWASP (2008, 2009, 2010b).El producto finalizado fue usado como prototipo de pruebas en la redde datos de la Universidad de Manizales, llevando a cabo un pilotajeespecífico sobre un segmento de red compuesto por un número reducidode equipos de cómputo bajo la plataforma Windows XP, en tres salasde cómputo de la Facultad de Ciencias e Ingeniería.El proyecto se realizó en tres fases, siendo la segunda, un ciclo iterativoque se adaptó al modelo de desarrollo ágil, así:2.1.1 Adecuación de entorno de trabajo. Comprendió la Instalacióndel entorno de desarrollo, con tres actividades:- Acondicionamiento de un equipo de cómputo (con las especificacio- nes de software: Sistema operativo Microsoft Windows XP, Entorno de desarrollo integrado Microsoft Visual Studio versión 2008 con soporte para el lenguaje Visual C#, Entorno de desarrollo integrado Netbeans versión 6 con soporte para el lenguaje Ruby, Distribución binaria compilada del lenguaje de programación Ruby para la plata- 17
    • Nº 25 - julio - diciembre / 2011 forma Windows, Framework Rails, Servidor de aplicaciones Mongrel, Servidor de base de datos MySQL versión 5, Software para control de versiones Subversion y Software para virtualización VMware Server).- Instalación del entorno de pruebas, donde se consideraron un servi- dor (especificaciones de software para el equipo servidor: Sistema operativo Ubuntu Server Edition versión 10.04, Software para control de versiones Subversion, Sistema web para la gestión de proyectos y seguimiento de errores Trac, Distribución binaria compilada del lenguaje de programación Ruby para la plataforma Linux, Framework Rails, Servidor de aplicaciones Mongrel, Servidor de base de datos MySQL versión 5 y .NET Framework versión 3), y varios clientes virtualizados (con Sistemas operativos Windows XP, Windows Vista, Windows Server 2003 y Windows Server 2008 en sus diferentes versiones de Service Pack).- Instalación del entorno de producción, en un servidor virtualizado bajo el entorno de desarrollo (Sistema operativo Ubuntu Server Edition versión 10.04, Distribución binaria compilada del lenguaje de programación Ruby para la plataforma Linux, Framework Rails, Servidor Web Apache + Módulo Passenger y Servidor de base de datos MySQL versión 5).2.1.2 Desarrollo Ágil. Patrón de ciclo de vida del modelo de desarrolloágil, el cual comprendió las siguientes actividades:- Concepto, o creación de la visión del proyecto y conocimiento del alcance del mismo.- Especulación, que se repite en cada iteración del desarrollo y teniendo como referencia la anterior actividad y consiste en Desarrollo / revisión de los requisitos generales del proyecto (priorizados), Desarrollo de una lista con las funcionalidades esperadas del proyecto, Construc- ción de un plan de entrega: Fechas en las que se entregarán las versiones, hitos e iteraciones del desarrollo.- Exploración, que consiste en el desarrollo de las funcionalidades que, para generar el siguiente incremento de producto, se han determinado en la actividad anterior.- Revisión de las funcionalidades construidas hasta el momento y puesta en marcha en el entorno de producción para determinar su alineación y dirección con los objetivos.- Cierre, que implica la fecha de entrega de una versión del proyecto con el producto esperado.2.1.3 Transición. La puesta en marcha del prototipo de pruebas en lared de datos de la Universidad de Manizales, considerando:18
    • Universidad de Manizales Facultad de Ciencias e Ingeniería- Documentación de Usuario, que comprende la documentación téc- nica requerida para el despliegue e instalación de componentes de hardware y software en la red de datos,- Puesta en marcha, con la instalación y ejecución del hardware y software requerido y creado. 3. Resultados y discusión3.1 Descripción de resultadosSe logró crear un agente para las plataformas Windows que obtieneautomáticamente el inventario de hardware y software en los equiposclientes, adquiriendo los parámetros de supervisión a través de un ser-vicio web y por medio del mismo reporta los cambios encontrados endicho inventario. En la figura 1 (parte superior) se muestran los datosobtenidos para los dispositivos (Board, bios, arquitectura, RAM, etc.)que están siendo monitoreados en un equipo de prueba.Se creó una vista que permite la manipulación y visualización en el planoarquitectónico de los equipos registrados, con su ubicación, estado dealerta, funciones para mostrar y ocultar dispositivos, controles de zoomy movimiento del plano, registro e información de equipos. En la figura1 (parte inferior) se muestra el plano arquitectónico del segundo pisode la Universidad de Manizales, con la ubicación de los dispositivosregistrados, su estado y los controles de manipulación. Figura 1. Datos y distribución de los equipos monitoreados 19
    • Nº 25 - julio - diciembre / 2011 Figura 2. Alar- mas por equipo y listado general de alarmasAdemás, se creó un módulo de alarmas que reporta, de manera generaly por cada equipo, la información de las propiedades no equivalentes,donde aparece el valor original y el valor repostado con su respectivafecha y hora de reporte, como se observa en la figura 2, donde hayalarmas por los dispositivos mouse y Unidad de CD-DVD, así como ellistado general de alarmas. De igual manera, se logró la integración dealgunas herramientas adicionales que permiten extender las funciona-lidades propias del sistema. En la figura 3 se muestra la utilidad pingejecutada sobre uno de los equipos registrados y con el respectivodespliegue de resultados. Figura 3. Repuesta enviada por la herramienta ping ejecutada sobre un equipo20
    • Universidad de Manizales Facultad de Ciencias e IngenieríaOtro aspecto conseguido es el servicio web que permite el intercambiode datos entre el agente instalado en los equipos cliente y el servidor.En la figura 4 se muestra una parte de la estructura XML entregada porel servicio web al agente instalado en los equipos cliente y que contienela configuración de los parámetros de supervisión.3.2 Discusión de resultadosEl sistema de administración y supervisión del hardware y el softwarede los equipos que conforman una red de datos, utiliza un sistemaagente instalado en los equipos cliente, un sistema web que permite lavisualización y manipulación de la información reportada y un servicioweb que permite la comunicación e intercambio de datos entre losclientes y el servidor.Las herramientas de desarrollo e implementación utilizadas para laelaboración del sistema web y el servicio web son todas de libre usoy se usan sobre el sistema operativo Linux; entre ellas Ruby on Rails,Rest, XML, Apache, Passenger, y Netbeans.El sistema agente que se ejecuta en los equipos cliente fue desarro-llado con tecnologías .NET, que permite un mejor acoplamiento con laplataforma Windows y su instrumental de administración. En la figura 5 se muestra el software agente ins- talado como un servicio en el siste- ma operativo Windows. Figura 4. Do- cumento XML obtenido por el servicio web. 21
    • Nº 25 - julio - diciembre / 2011 Figura 5. Agente de supervisión como servicio de WindowsPara el sistema de autenticación en web se usó el componente RestfulAuthentication que permite el manejo de usuarios con autenticaciónpor contraseña, cookies del browser, o básica por medio del protocoloHTTP, con características de validación, autorización y cifrado de datos.El sistema se diferencia de otras herramientas similares existentes enel mercado en:- Funcionalidades de visualización y administración basadas en un plano arquitectónico.- Acceso administrativo vía web a diferencia de otras herramientas que disponen únicamente de una aplicación de escritorio.- El acceso al código fuente permite tareas de modificación de funcio- nalidades, programación de nuevos módulos e integración de nuevas herramientas.- Se permite la personalización y configuración de los parámetros de supervisión, a diferencia de la supervisión preestablecida que usan las otras herramientas.El proyecto se da a conocer en el IV Encuentro Regional Semilleros deInvestigación, celebrado en la ciudad de Cartago (Valle del Cáuca, Co-lombia), en el año 2009, además de participar en la cuarta convocatoriadel programa nacional Destapa Futuro año 2009-2010, realizado porla Fundación Bavaria, llegando a ser finalista, luego de concluir variasetapas de selección entre más de 7000 proyectos de emprendimiento,procedentes de las diferentes regiones del territorio colombiano.22
    • Universidad de Manizales Facultad de Ciencias e Ingeniería 4. Conclusiones• El software agente instalado en los equipos clientes funciona como un servicio del sistema operativo Windows, opera en forma automatizada y transparente para al usuario, pues no requiere de su intervención para la recopilación de información del sistema y envío de reportes. El software agente solo requiere una interven- ción previa por parte del usuario administrador, quien debe realizar la instalación de las librerías necesarias para asegurar el correcto funcionamiento del agente, y además, de forma manual, estable- cerá las configuraciones necesarias en el sistema para evitar que los usuarios sin privilegios de administración puedan manipular el servicio.• La integración del módulo de visualización de planos empresariales y la ubicación visual de los equipos en dicho plano representa una gran diferencia competitiva ante otros sistemas similares existentes en el mercado, pues permite mayor agilidad y una mejor usabilidad en las tareas de administración que ofrece el sistema de monitoreo, evitando la clásica revisión de extensas listas y hojas de datos.• La información correspondiente al inventario de hardware y software de cada equipo cliente está disponible en el sistema y es obtenida de forma automática a través del software agente, de esta forma se garantiza la agilidad y exactitud de la información en el proceso de recolección de datos.• La información del inventario obtenida a través del software agente no permite alteración por parte de los usuarios del sistema; de este modo se garantiza la seguridad en el control y supervisión de datos y alarmas generadas en el momento de realizarse un cambio en el hardware o el software de un equipo cliente.• El uso del framework Ruby on Rails permitió agilidad en el desarrollo del software y facilitó un rápido acoplamiento ante los cambios y novedades que surgieron en el transcurso del desarrollo del proyecto sin mayores contratiempos.• El desarrollo bajo el framework Ruby on Rails se incorpora perfec- tamente a la metodología ágil Scrum en sus distintas fases y acti- vidades, permite una fácil adaptación y reacción ante los cambios y da continuidad al proyecto para desarrollar nuevas versiones.• El uso de técnicas de seguridad en programación permitió que el sistema en general sea más confiable y seguro, aplicando métodos de protección ante las amenazas y vulnerabilidades especificadas en el Top 10 de OWASP. 23
    • Nº 25 - julio - diciembre / 2011 BibliografíaAJPDSOFT (2010). Enciclopedia Definición WMI [en línea]. Murcia (España): Proyecto Ajpdsoft. <http:// www.ajpdsoft.com/modules.php?name=Encyclopedia&op=content&tid=827> [consulta: 01/11/2010]ARANDA SOFTWARE CORPORATION (2010). Asset Management [on line]. Miami (USA): Aranda. <http://www.arandasoft.com/solucion_aam.php> [consult: 01/11/2010]AUTOMATAS.ORG (2006). Sistemas Scada [en línea]. Valladolid (España): Autómatas Industriales<http://www.automatas.org/redes/scadas.htm> [consulta: 01/11/2010]CMN CONSULTING (2010). Excalibur [en línea]. Bogotá (Colombia): CMN Consulting. <http:// www.cmn-consulting.com/soluciones/soluciones_index.htm> [consulta: 01/11/2010]CONTROL CHAOS (2009). Scrum [en línea]. s.l: Advanced Development Methods. <http://www. controlchaos.com> [consulta: 01/12/2009]DAVE, Thomas (2005). Programming Ruby: The Pragmatic Programmers Guide. 2 ed. Lewisville (Texas, USA): The Pragmatic Programmers. 833 p. ISBN: 0-9745140-5-5DAVE, Thomas and HEINEMEIER HANSSON, David (2006). Agile Web Development with Rails. 2 ed. Lewisville (Texas, USA): The Pragmatic Programmers. 715 p. ISBN: 978-0-9776-1663-3DEXON SOFTWARE(2010).DexonImaxt It Management Suite [en línea]. Bogotá (Colombia): Dexon Software Inc. <http://dexon.us/soluciones/dexon_it_asset.html> [consulta: 01/11/2010].INFANTE, Luis (2010).Metodología ágil SCRUM [en línea]. Monterrey (México): Business Intelligence Latin America <http://www.bi-la.com/profiles/blog/list?user=1v7ecmaqe9u7d> [consulta: 01/11/2010].JANOFF, Norman (2000). The Scrum Software Development Process for Small Teams [on line]. Phoenix (USA): IEEE Software. <http://members.cox.net/risingl1/Articles/IEEEScrum.pdf> [consult: 28/11/2008]KNIBERG, Henrik (2007). Scrum and XP from the Trenches [on line]. Ontario (Canada): Java Zealot Solutions. <http://www.infoq.com/minibooks/scrum-xp-from-the-trenches> [consult: 01/11/2010].LEVER IT (2010). Discovery Advantage [on line]. Bogotá (Colombia): LeverIT Asset Management IT. <http://www.leverit.com> [consult: 01/11/2010].MARSHALL, Kevin (2006). Web Services on Rails. Sebastopol (California, USA): O’Reilly. 32 p. ISBN: 0-596-52796-9MARSHALL, Kevin. (2007). PRO Active Record: Databases with Ruby on Rails. New York (USA): Apress. 280 p. ISBN: 1-59059-847-4NAVARRO, Rafael (2007). REST vs Web Services [en línea]. Valencia (España): Universidad Po- litécnica de España. <http://users.dsic.upv.es/~rnavarro/NewWeb/docs/RestVsWebServices. pdf> [Consulta: 01/11/2010].OWASP FOUNDATION (2008). OWASP Testing Guide v3.0 [on line]. Columbia (USA): OWASP. <http://www.lulu.com/items/volume_66/5691000/5691953/9/print/5691953.pdf> [consult: 01/11/2010]OWASP FOUNDATION (2009). OWASP Ruby on Rails Security Guide [on line]. Columbia (USA): OWASP. <http://www.lulu.com/items/volume_64/5811000/5811294/3/print/5811294.pdf> [consult: 01/11/2010]OWASP FOUNDATION (2010a). OWASP Top 10 [on line]. Columbia (USA): OWASP. <http:// www.lulu.com/items/volume_68/1400000/1400974/5/print/1400974.pdf> [consult: 01/11/2010].OWASP FOUNDATION (2010b). OWASP Guide 2.1: A Guide to Building Secure Web Applications and Web Services [on line]. Columbia (USA): OWASP/VRG Editions. <http://www.fecj.org/ extra/Owasp2.1.0.pdf> [consult: 01/11/2010]OWASP FOUNDATION (2011). OWASP - The Open Web application Security Project [on line]. Columbia (USA): OWASP/VRG Editions. <https://www.owasp.org/index.php/Main_Page> [Consult: 18/11/2011]PALACIO, Juan (2007) Flexibilidad con Scrum [en línea]. Zaragoza (España): Navegapolis. <http:// www.navegapolis.net/files/navegapolis_2009.pdf> [consulta: 28/11/2008]SCHWABER, Ken (2004). Agile Project Management with Scrum. Redmond (USA): Microsoft Press. 156 p. ISBN: 0-7356-1993-XSCHWABER, Ken (2007). The Enterprise and Scrum. Redmond (USA): Microsoft Press. 176 p. ISBN: 073562337624
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Simulación de técnicas de encolado con prioridad*1 [Simulation of techniques for priority queues] Néstor Jaime CASTAÑO-PÉREZ2, Germán William LONDOÑO-JIMÉNEZ3Recibo: 20.05.2011 - Ajuste: 03.06.2011 - Ajuste: 09.12.2011 - Aprobación: 17.12.2011 Resumen Motivados por la necesidad de generar ambientes de desarrollo donde se prueben y analicen los comportamientos de equipos y algoritmos de conmutación de paquetes en un router, se presenta una arquitectura para la gestión de paquetes con priorización de tráfico, que consta de generador de trafico de voz y de video, ges- tor de colas y receptor del tráfico procesado. Como método para la gestión de tráfico se usa la generación de variables aleatorias de tiempo de llegada y tamaño de paquetes de voz y video, utilizando métodos de simulación de eventos discretos. Se plantea un política de encolado basada en etiquetado de paquetes y descarte por saturación de un sistema de espera M/M/1/K. Los programas se realizaron en Java y se utilizó Matlab para el análisis y graficación de los resultados. Como resultado principal, se demostró que los tiempos de espera promedio del los paquetes etiquetados para ser procesados con prioridad alta en la cola no sufrieron cambios significativos, cuando se aumentó el tráfico de baja prioridad. Palabras Claves: Programación de Hilos, Simulación, Encolado, Priorización de Tráfico.* Modelo para citación de este reporte de caso: CASTAÑO PÉREZ, Néstor Jaime y LONDOÑO JIMÉNEZ, Germán William (2011). Simulación de técnicas de encolado con prioridad. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 25-39. ISSN: 0123-9678.1 Artículo proveniente de reflexiones académicas realizadas en el periodo 2009-2010, en el desarrollo del proyecto de aula para la integración de los Sistemas y Telecomunicaciones en la Universidad de Manizales.2 Ingeniero Electrónico, Especialista en Telecomunicaciones, Magister en Automatización Industrial. Docente, Universidad de Manizales, Manizales (Colombia). Correo electrónico: ncastano@umanizales.edu.co.3 Ingeniero Electricista, Especialista en Sistemas de Transmisión y Distribución, Especialista en Informática y Computación. Docente, Universidad de Manizales, Manizales (Colombia). Correo electrónico: glondono@umanizales.edu.co. Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 25-39 25
    • Nº 25 - julio - diciembre / 2011 Abstract Due to the need to create environments where behavioral deve- lopment, equipment and packet switching algorithms in a router, are tested and analyzed, the paper presents an architecture for managing packet traffic prioritization, which is composed of a traffic generator for voice and video, a queue manager and a receiver processing traffic. For this architecture, the random variables were generated arrival time and size of packet voice and video, using methods of discreet event simulation. In addition, programs were conducted in Java and Matlab was used for analysis and graphing of results. Besides, considering a policy-based sizing and discard packet tagging saturation of a queuing system M/M/1/K. The pa- per shows that the average waiting times labeled packets to be processed with high priority, to increase the low-priority traffic, did not suffer significant changes. Keywords: Threads programming, Simulation, Queuing, Priori- zation of traffic. IntroducciónLas colas son elementos fundamentales en los sistemas de telecomu-nicaciones modernos y nacen de la necesidad de volver las redes máseficientes por medio de la multiplexación estadística de datos, conceptoplanteado por Gross, et al (2008, 5). Las colas se dan en los momentosen los que el flujo de entrada a un dispositivo de comunicaciones esmayor que el flujo de salida, por lo tanto existe una acumulación de datoso paquetes en la entrada del elemento de red. Si el flujo de entrada essuperior o igual al flujo de salida, la acumulación de datos sería infinitay se rompería el equilibrio estadístico requerido en los modelos de LeBoudec y Thiran (2001, 53). Por este motivo los diseños de redes detelecomunicaciones están concebidos para que en la mayor parte deltiempo, el flujo de salida sea mayor al flujo de entrada. Aún, con estasconsideraciones, existen instantes de tiempo en los cuales, por la mis-ma naturaleza de la multiplexación estadística la red tiene un mayorvolumen de paquetes a su entrada de los que puede procesar y es justoen estos momentos en los que se deben aplicar diferentes algoritmospara administrar el envío de los paquetes que se encuentran en la cola,temáticas tratadas por Olifer (2009, 201).Uno de los primeros algoritmos para la administración de las colas esconocido como PEPS (Primero en Entrar - Primero en Salir), Tanem-baum (2003, 34), en el cual los paquetes son atendidos en la cola en26
    • Universidad de Manizales Facultad de Ciencias e Ingenieríael mismo orden en el cual fueron llegando a ésta. Para el transportede datos planos este simple algoritmo puede desempeñarse adecua-damente y brindar una buena experiencia para el usuario. El problemacon este tipo de colas, es que no es posible de forma alguna diferenciarun tráfico de otro, y con la necesidad de ofrecer servicios integradossobre redes de datos, se hace necesario dar prioridad al trato de deter-minado flujo de datos que requiere en determinados casos minimizarvariables como el tiempo de transmisión. Para solucionar este tipo deproblemas se implementaron las colas con prioridad, expuestas porGarcía y Widjaja (2003, 340).Las colas con prioridad son en realidad una colección de colas PEPS,en las que a cada una se les asigna una prioridad específica y pormedio del algoritmo de servicio, se atienden las colas PEPS por ordende prioridad de mayor a menor.Para utilizar las colas de prioridad es necesario distinguir los paquetescuando llegan al dispositivo para poder saber a qué cola se debenasignar. Es por este motivo que en la mayoría de los casos los paque-tes son marcados antes de ser enviados al dispositivo de encolado, elcual utilizando una marcación predeterminada está en la capacidad dedistinguir el tráfico y por ende tratarlo de una forma adecuada, segúnseñala Donahue (2008, 24).También se pueden dar casos en los cuales no es necesario marcar lospaquetes sino que se utilizan los campos ya definidos en el encabezadode los paquetes para su diferenciación, como es el caso de la direcciónde origen o dirección destino de los paquetes, o protocolo de transporte,o en programación de routers proyecto propuesto por la Universidad deStamford, documentado por Reforgiato (2011, 22).Ahora, en cuanto al funcionamiento de las colas de prioridad se puedenidentificar dos tipos se sistemas: preemptive y non-preemptive. En unsistema non-preemptive una vez se da inicio a la atención de una unidadde datos el sistema no se puede detener hasta que termine su servicio,mientras que en un sistema preemptive es posible detener una unidadque está siendo atendida para la transmisión de otra unidad de mayorprioridad, considera Daigle (2010,248).En este documento se simulará una cola de prioridad con dos nivelesdistintos de servicio en los cuales se utilizarán sistemas non-preemptive,es decir que una vez se inicie la transmisión de un paquete, esta sedebe finalizar.Idealmente, un sistema estricto de colas debería estar en la capacidadde parar la transmisión de un paquete ante la llegada de flujo de unamayor prioridad, pero al estar tratando con sistemas discretos no es 27
    • Nº 25 - julio - diciembre / 2011posible detener la transmisión de un paquete una vez esta se inicia.Además de ser algo que no es posible de implementar, se podría pensaren cancelar la transmisión del paquete como un error, pero esto obligaríaa la retransmisión del paquete lo que a la final haría que aumentarael retraso en la red, por la constante retransmisión de paquetes quetuvieron que ser interrumpidos a causa de flujos de mayor prioridad. 1. Marco teórico1.1 Caracterización de las variables aleatoriasAntes de emprender cualquier proceso de simulación de eventosdiscretos se hace necesario caracterizar las variables aleatorias queintervienen en el sistema. Esta caracterización se realiza mediante loshistogramas de cada variable. En la literatura se encuentran diferentesmétodos para la generación de estas variables aleatorias, expuestoscon claridad por Kay (2005,18). En este caso se encontró que el tiempoentre llegadas del tráfico de VoIP es exponencial (Figura 1) y el númerode paquetes que llega por segundo es de tipo Poisson (Figura 2). La ca- racterización de trá- fico permite generar vectores de tráfico en Matlab de acuerdo con las necesidades experimentales. Figura 1. Histograma Tiempo entre llegada Figura 2. Número de Paquetes que llegan por segundo28
    • Universidad de Manizales Facultad de Ciencias e Ingeniería1.2 Tráfico tipo PoissonEn los sistemas de teletráfico, las llegadas de paquetes pueden sermodeladas como sistemas tipo Poisson, si se considera que son pro-ducto de una población amplia de usuarios independientes, como loafirma Coosbu (2002, 43).Si se desea calcular el retraso y el throughput del buffer de un enlacede red que opera con una capacidad de N Mbps. Ésta situación seilustra en la figura 3, donde los paquetes se representan como cajasrectangulares.Un modelo muy popular para representar el número de paquetes quellegan en un intervalo de tiempo es el proceso de Poisson. En un procesode Poisson con tasa λ el número de llegadas de eventos en un intervalode tiempo [t, t+τ], denotado por N[t+τ] - N[t] está dado por: (1) Figura 3. Llegada y Salida de paquetes en una colaUn proceso de Poisson tiene algunas propiedades interesantes Youn-gjae (2008, 1) y útiles como:El tiempo de llegada entre dos eventos (en este caso, paquetes) sigueuna distribución tipo exponencial: (2)Si se suman las llegadas de dos procesos tipo Poisson con tasa λ y μ,es equivalente a tener un solo proceso tipo Poisson con tasa de λ + μ.1.3 Tráfico de videoEl video digital consiste de una secuencia de tramas de video queson mostradas a una tasa de típicamente 30 cuadros por segundo.Asumiendo que un cuadro tiene un tamaño de 720 x 480 pixeles (unformato estándar utilizado para video digital) y una profundidad de 24bits por pixel, esto resulta en una tasa de datos de 240 Mbps por líneade video. Utilizando métodos de compresión modernos, como MPEG y 29
    • Nº 25 - julio - diciembre / 2011H.264, la tasa de datos puede ser drásticamente reducida a unos pocosMbps, como asegura Richardson (2010, 9).Un codificador MPEG (y casi la gran mayoría de algoritmos de com-presión) generan, según Harte (2006, 19), tres tipos de tramas: Intra-Codificadas (I), Inter-Codificadas o Predictivas (P) y Bi-direccionales(B). Las tramas I son codificadas como imágenes congeladas comoJPEG; las tramas P codifican las diferencias entre la trama P o I másreciente; y las tramas B son interpolaciones de las tramas anterioresy posteriores P o I. Un codificador MPEG genera estas tramas en unpatrón repetitivo, llamado Grupo de Imagen (Group Of Picture -GOP-).Con 30 cuadros por segundo, el tiempo que pasa entre dos tramas esaproximadamente 33 ms. Un patrón de GOP típico es IBBPBBPBB,donde las dependencias entre las tramas están indicadas por flechas,como se muestra en la figura 4. Figura 4. GOP de una trama de video (Sniderman, 2011)Los diferentes tipos de trama tienen tamaños distintos, siendo las tramasI las más grandes y las B las más pequeñas. Se debe tener en cuentaque las tramas B son construidas a partir de dos tramas de referenciatipo I o P. Por lo tanto, para codificar o decodificar una trama tipo B esnecesario que el transmisor o el receptor tengan disponible las tramasP o I correspondientes. Para cumplir con esta característica, las tramasson transmitidas en una secuencia diferente a la cual son presentadas.En la figura 4, la secuencia de transmisión y de presentación es comose describe en la tabla 1. Tabla 1. Orden de secuencia de presentación y transmisión de una trama de videoSecuencia de Presentación 1 2 3 4 5 6 7 8 9 10Secuencia de Transmisión 1 4 2 3 7 5 6 10 8 9Debido a las diferencias en tamaño de las tramas I, P y B, la tasa dedatos de un video MPEG cambia de trama a trama. Por esta razón, el30
    • Universidad de Manizales Facultad de Ciencias e Ingenieríavideo comprimido como MPEG, es referido como video de tasa variable(Variable BitRate-VBR-) o video VBR.1.4 Consideraciones de tráficoEs necesario tener en cuenta que el tráfico tipo Poisson es posiblemodelarlo a partir de una distribución específica, desde la cual esposible desprender características y variables que permiten inferir elcomportamiento del tráfico en un futuro, y por ende planear de acuerdoa estas perspectivas.El video, al ser un tráfico tipo VBR, no obedece una distribución específi-ca y para su análisis es necesario adoptar otro tipo de estrategias comoes el caso de las metodologías presentadas por Dunrkin (2003, 22).Aunque en este documento no se profundiza en temas como curvas dellegada o curvas de servicio, es importante hacer la aclaración de quelos dos tipos de tráficos con los que se trata se comportan de formadistinta e independiente aunque ambos son aleatorios. 2. ImplementaciónEn el presente artículo se presenta, a partir de Foster (2004, 23), laimplementación de una cola de prioridades utilizando el lenguaje deprogramación JAVA y sus librerías para Sockets para la implementaciónde la cola, el envío de paquetes y la recepción de los mismos y Matlabpara realizar el análisis de los resultados obtenidos por medio de lacola. Como parte del análisis, se incluirá el tiempo medio de espera deun paquete y el tamaño promedio de cada una de las colas.Como se mencionó anteriormente, para implementar la cola de prioridades necesario marcar los paquetes que se están enviando a la cola paraque una vez lleguen a este dispositivo sea posible su ubicación en elbuffer respectivo dependiendo de su prioridad. En el presente caso, sepretende diferenciar tráfico de video, de tráfico tipo Poisson. Por eso seutilizan dos fuentes de datos, cada una de las cuales marca los datosque envía colocando el byte 0 (cero) del paquete enviado en 1 en elcaso del generador de datos Poisson y en 2 en el caso del generadorde tráfico de video.La implementación propuesta es la de una cola de prioridades, quepermita la diferenciación en cuanto al tratamiento en cola del tráficode video y tráfico tipo Poisson, como se muestra en la Figura 5. Lasolución propuesta son dos programas que generan el tráfico: - El pro-grama representado por el rectángulo Tráfico de voz que se encargade generar el tráfico tipo Poisson a partir de un archivo de texto que 31
    • Nº 25 - julio - diciembre / 2011contiene la información del tráfico, además marca los paquetes antes deser enviados a la cola, y - el programa representado por el rectánguloTráfico de video que genera tráfico de video igualmente a partir de unarchivo de texto que contiene la información del tráfico. Figura 5. Diseño general de la cola de prioridadEl tercer programa implementado es la cola, la cual está compuesta pordos hilos, para que la cola pueda recibir paquetes y enviarlos de formaparalela. El primero se encarga de recibir los paquetes y clasificarlos, ubi-cándolos en el buffer correspondiente por medio de la marcación realizadaen el proceso de envío, mientras el segundo se encarga de implementarla cola de prioridad, tomando los elementos del buffer de mayor prioridaden primera instancia, y los del buffer de menor prioridad en segundamedida siempre y cuando el buffer de alta prioridad se encuentre vacío.Luego de tomar un elemento de alguno de los buffers, este es enviado.El diseño del hilo que se encarga de recibir los paquetes en la cola deprioridad se muestra en la Figura 6. Figura 6. Diseño General del hilo para recibir los paquetes.32
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEn este caso, los paquetes se reciben y se consulta el valor del primerbyte del paquete. Si éste es 1, se mira el tamaño del buffer de la colade baja prioridad, y si la cola tiene un tamaño superior a 100 Kbytes,entonces el paquete se descarta, de lo contrario se agrega a la cola debaja prioridad. Si el primer byte del paquete es 2, se toma el tamaño dela cola de alta prioridad y si éste excede igualmente los 100Kbytes sedescarta el paquete, si no, se ubica en la cola de alta prioridad.Ahora, el funcionamiento de la cola de prioridad se muestra en la Figura7. El hilo para enviar está en un ciclo, el cual siempre verifica el estado dela cola de prioridad alta. Si este buffer tiene algún elemento, se remueveel primer ítem del arreglo y se envía. Solo en el caso en que el buffer dela cola de prioridad alta esté vacío se monitorea el buffer de la cola debaja prioridad y si tiene elementos, se remueve el primer ítem del arregloy es enviado. Una vez un paquete sea enviado, el hilo vuelve a su estadoinicial, que es monitorear el buffer de la cola de prioridad alta. Figura 7. Diseño General del hilo para implementar la cola de prioridad.La cola de prioridad no atenderá la cola de prioridad baja a no ser quela cola de prioridad alta este vacía. Aunque este es el comportamientoprogramado, en ocasiones puede no ser el deseado, ya que si el tráficode la cola de alta prioridad es alto se pueden dar casos en los que elretraso de la cola de baja prioridad es grande, lo que se convierte enuna denegación de servicio para el tráfico de baja prioridad, como loplantean García y Widjaja (2003, 221).Es por este motivo que las colas de prioridad, se utilizan para procesartráfico que requiere transmisión en tiempo real, como es el caso de 33
    • Nº 25 - julio - diciembre / 2011voz en las redes de datos. Este tipo de colas son implementadas enequipos de comunicaciones como enrutadores CISCO que proporcio-nan opciones para la calidad de servicio bajo el nombre de LLQ (LowLatency Queueing).En el caso en el que se desee diferenciar tráfico sin necesidad de recurrira las colas de prioridad, se tienen otro tipo de algoritmos como el WFQ,GPS o EDF los cuales no serán considerados en el presente documento,pero se mencionan como referencia para el lector. Con el objetivo de ob-servar el comportamiento de la cola en cuanto la diferenciación en el tratodel tráfico se decide crear una variable en el generador de tráfico Poissonque permita la variación de la intensidad o tasa promedio de transmisiónde tráfico entre 0 y 10Mbps. Esta variable se le asigna el nombre de N,y varía entre 0 y 10; por lo tanto, para un valor de N=5 se tiene un tráficotipo Poisson con una tasa de transmisión promedio de 5 Mbps.Lo que se quiere observar es cómo se comporta la cola de prioridadpara diferentes valores de N y cómo afecta el aumento en el tráfico debaja prioridad el comportamiento del buffer de alta prioridad. Tambiénse puede observar que sucede con el buffer de baja prioridad a medidaque se aumenta el tráfico tipo Poisson.El programa diseñado para la simulación de la cola, fue pensado paraemular el comportamiento de tráfico a diferentes niveles de carga, mo-tivo por el cual el programa encargado de generar el tráfico de videoposee una variable N que se introduce en el momento de ejecución,la cual permite generar datos con velocidad promedio desde 0 hasta10 Mbps. Es necesario aclarar que la tasa de transmisión de datoscorrespondientes al tráfico de video es la misma, sin importar el valorde N que se esté utilizando para el transmisor de datos tipo Poisson. 3. Resultados3.1 Tiempo de esperaEs interesante conocer el tiempo de espera de los paquetes en la coladebido a que éste es un factor que está estrechamente relacionadocon el retraso en el que los paquetes incurren al atravesar la red. Ésteretraso de los paquetes afecta de una forma directa la interactividad dela experiencia de tiempo real (audio o video) por lo cual se debe tratarde minimizar su impacto sobre el tráfico de datos.Para medir el tiempo de espera de los paquetes en la cola de prioridadse implementó un arreglo de tipo flotante, el cual guarda el tiempo en elcual un paquete ha llegado al buffer (de alta o de baja prioridad segúnsea el caso). Una vez se vaya a enviar un paquete específico se toma34
    • Universidad de Manizales Facultad de Ciencias e Ingenieríael tiempo en el que ocurre la transmisión y el tiempo asociado a esepaquete contenido en el arreglo de valores flotantes. La diferencia entrelos dos tiempos da como resultado el tiempo durante el cual el paqueteestuvo esperando a ser servido. Una vez el paquete es enviado, eltiempo asociado a éste es borrado del arreglo de tiempos.Adicionalmente, en cuanto al tiempo de espera se presentan dos mé-tricas: Tiempo de Espera Máximo y Tiempo de Espera Promedio comose puede apreciar en la Figura 8, donde se muestran como puntos en elplano los valores arrojados por la simulación de la cola, acompañadosde una línea de proyección producto de una interpolación cúbica de losvalores de Tiempo de Espera Máximo y Tiempo de espera promedioobtenidos para N=1, N=5 y N=9 realizada en Matlab.Respecto al desempeño del Tiempo de Espera Promedio de los paque-tes en el buffer de alta prioridad se observa que es prácticamente establey cercano a los 0.8 ms. Este tipo de comportamiento era el esperado,pues sin importar la intensidad del tráfico tipo Poisson, los paquetespresentes en el buffer de alta prioridad van a ser atendidos, y para elcaso de la simulación no se modificó la cantidad de tráfico de videoque llega a la cola. El tiempo de diferencia entre el tiempo promedio deespera de los paquetes de la cola de alta prioridad presenta variabilidadpor factores como la no dedicación de un procesador a la ejecución deésta tarea. Las funciones de la CPU se redujeron al mínimo para evitarla interferencia con el procesamiento de la información concerniente ala Cola de Prioridades, pero de todas formas es imposible garantizar ladedicación total del procesador a realizar estos cálculos. Figura 8. Resultados de la simulación de la cola de prioridad 35
    • Nº 25 - julio - diciembre / 2011Debido a que el canal por el cual se transmite la información no haaumentado su tamaño, y considerando que se ha incrementado la tasade transmisión de datos de baja prioridad, es de esperarse que paragarantizar la transmisión de la información de alta prioridad, debanexistir peritadas o descartes de paquetes pertenecientes al grupo deprioridad menor, tal como se puede apreciar en la Figura 9. Tambiénes interesante notar que como se ha demostrado en la teoría de redes,el comportamiento de un sistema de comunicaciones cuando alcanzasu punto de saturación deja de ser lineal. Es decir que para el casoanterior, el punto de quiebre de la linealidad a la no-linealidad se daaproximadamente para valores de N=5. Figura 9. Paquetes Descartados en Cola de Baja Prioridad.Luego de haber observado el comportamiento de la cola de alta prioridady de la cola de baja prioridad, también pueden verse los resultados dela simulación, los cuales se muestran en la Tablas 2 y 3. Tabla 2. Resultados para cola de baja prioridadParámetros N=1 N=5 N=9Tiempo Máximo de Espera 31302.76 ms 36553.04 ms 25672.84 msTiempo Promedio de Espera 22343.7 ms 19910.28 ms 17460.3 msTamaño Máximo de la Cola 99993 Bytes 100000 Bytes 99990 BytesTamaño Promedio de la Cola 85766 Bytes 88201 Bytes 89570 BytesNumero de Paquetes Descartados 4170 7651 7965Porcentaje de Paquetes descarados 41.7% 76.51% 79.65%36
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Tabla 3. Resultados para cola de alta prioridad Parámetros N=1 N=5 N=9 Tiempo Máximo de Espera 662.15 ms 828.2 ms 652.75 ms Tiempo Promedio de Espera 100.15 ms 131.13 ms 154.99 ms Tamaño Máximo de la Cola 14875 Bytes 16651 Bytes 14432 Bytes Tamaño Promedio de la Cola 3118 Bytes 3328 Bytes 3056 Bytes Numero de Paquetes Descartados 0 0 0 Porcentaje de Paquetes descarados 0% 0% 0%En el caso de la cola de baja prioridad, se observa como el tamañopromedio de la cola se incrementa a medida que aumenta la carga otasa de transmisión de la información, así mismo como el número depaquetes que son descartados por el sistema. Para esto se recuerdaque los programas realizados en JAVA fueron configurados de formatal que las colas no aceptan paquetes si éstas ya tienen su buffer100.000Bytes.Ahora, teniendo en cuenta los datos arrojados por el simulador parael flujo de datos de alta prioridad es posible apreciar que no existenpaquetes descartados, debido a que todo paquete que entra en la colasiempre es servido y además se muestra que en promedio la tasa dellegada de los paquetes a su cola es inferior a la tasa de salida de es-tos. Por otro lado, también es posible apreciar como el tamaño, tantopromedio como máximo de la cola de alta prioridad posee valores muyinteriores a los arrojados por el simulador para el caso de la cola debaja prioridad. 4. Conclusiones• Luego de realizar las simulaciones en JAVA y analizar los resultados en Matlab fue posible demostrar de una forma clara que las colas de prioridad son altamente confiables cuando se trata de aislar un tipo de tráfico de otro. Esto se demuestra en el caso en el que el tráfico de alta prioridad se comportó de una forma estable ante la presencia de diferentes cargas de tráfico de baja prioridad. Simulaciones con generación de tráfico como las mostradas, se constituyen en una herramienta fundamental para futuros experimentos en netFPGA, en donde se necesite probar algoritmos de gestión o tiempos de retardo en LAN o WAN.• Por ser colas que permiten un gran aislamiento del tráfico son al- tamente importantes para el transporte de información en tiempo real, tales como audio y video en vivo. 37
    • Nº 25 - julio - diciembre / 2011• En cuanto a los resultados arrojados por el simulador, para su análisis también es necesario considerar que se trata de tráfico VBR – Variable BitRate – lo cual, al interactuar con la diferencia de tasas de transmisión y por ende diferente funcionamiento de la cola de baja prioridad presenta resultados con leves diferencias en números pero que son concordantes con el comportamiento general esperado de la cola de alta prioridad.• La variabilidad de los datos arrojados por la simulación es debida a la no dedicación exclusiva del procesador a realizar las tareas asignadas por la Cola de prioridad, y un próximo paso hacia la comprobación de resultados, sería la implementación del algoritmo en un dispositivo de dedicación exclusiva como un FPGA.• Es necesario tener en cuenta que la sincronización en las colas juega un papel preponderante, debido a que se pueden dar ca- sos en los que un elemento esté ingresando a la cola mientras otro esté siendo retirado. Si no se pone cuidado a este tipo de eventos se incurre en errores de cálculo y pérdidas de paquetes. Para evitar esto, se utilizó la clase “Vector” en java, la cual por herencia ya se encuentra sincronizada. BibliografíaCOOSBU, Raúl (2002) Simulación: Un enfoque práctico. México: Limusa, 157 p. ISBN: 9681815068.DAIGLE, John N. (2010). Queueing Theory with Applications to Packet Telecommunication. 2 ed. Mississippi (USA): Springer, 315 p. ISBN: 0-387-22857-8DONAHUE, Gary A. (2008) Network Warrior: Everything you need to know that wasn’t on the CCNA exam. Sebastopol (USA): O’Reilly, 545 p. ISBN: 978-0-596-10151-0.DUNRKIN, James F. (2003) Voice-enabling The Data Network: H.323, MGCP, SIP, QOS, SLAS, AND SECURITY. Indianapolis (USA): Cisco Press. 227 p. ISBN: 1-58705-014-5.FOSTER, James C. (2004) Sockets, Shellcode, Porting & Coding: Reverse Engineering Exploits and Tool Coding for Security Profesionals. Rockland (USA): Syngress Publishing Inc, 653 p. ISBN: 1-597490-05-9.GARCÍA, Alberto and WIDJAJA, Indra. (2003) Communication Networks: Fundamental Concepts and Key Architectures. 2 ed. New York (USA): McGraw-Hill, 871 p. ISBN: 0-07-246352-X.GROSS, Donal; SHORTLE, John; THOMPSON, Jim and HARRIS, Carl (2008). Fundamentals of Queueing Theory. New York (USA): John Wiley & Sons, 600 p. ISBN: 978-0470547830.KAY, Steven (2005) Intuitive Probability and Random Processes using MATLAB. Kingston (USA): Springer, 851 p. ISBN: 978-0387241579LAWRENCE, Harte (2006). Introduction to MPEG; MPEG-1, MPEG-2 and MPEG-4. Fuquay Varina (NC, USA): Althos, 92 p. ISBN: 978-1932813531LE BOUDEC, Jean-Yves and THIRAN, Patrick (2001) Network Calculus: A Theory of Deterministic Queuing Systems for the Internet. New York (USA): Springer Verlag. 274 p. ISBN: 354042184X.NEMBAUM, Andrew (2003) Redes de Computadoras. 5 ed. México (México). Prentice- Hall, 34 p. ISBN: 970-26-0162-2OLIFER, Natalia (2009). Redes de Computadoras. México (México): McGraw-Hill, 751 p. ISBN: 978970107249338
    • Universidad de Manizales Facultad de Ciencias e IngenieríaREFORGIATO, Diego (2011). A Traffic Monitor on NetFPGA platform: Comparisons against a Software Implementation on the Click Modular Router. Rome (Italy): Lambert, 84 p. ISBN: 978-384338140RICHARDSON, Iain (2010). The H.264 Advanced Video Compression Standard. London (United Kingdom): Wiley, 256 p. ISBN: 978-0-470-51692-8SNIDERMAN, Andrew (2011). VGA Conferencing in Lync Server 2010 [on line]. Redmond (WA, USA): Markmonitor. <http://blogs.technet.com/b/nexthop/archive/2011/06/22/vga-conferencing- in-lync-server-2010.aspx> [consult: 30/06/2011].TANEMBAUM, Andrew (2003). Redes de Computadoras. 5 ed. México (México): Prentice- Hall, 912 p. ISBN: 970-26-0162-2TSUHAN, Chen (2005). Multimedia Systems Standards and Networks. Pittsburgh (USA): Marcel Dekker, 631 p. ISBN: 0-8247-9303-XYOUNGJAE, Lee (2008). Characterization of Large-Scale SMTP Traffic: the Coexistence of the Poisson Process and Self-Similarity. In: IEEE International Symposium on Modeling, Analysis and Simulation of Computers and Telecommunication Systems. MASCOTS. p. 1-10. ISSN: 1526-7539. 39
    • Nº 25 - julio - diciembre / 201140
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Certificación de la calidad del proceso y producto: ruta para pymes colombianas que fabrican software*1 [Certification process and product quality: route colombian SME manufacturing software] Luis Eduardo PELÁEZ-VALENCIA2, Ricardo Alonso HURTADO-MOSQUERA3 Jorge Alberto FRANCO-ESCOBAR4Recibo: 20.08.2011 - Ajuste: 22.10.2011 - Ajuste: 15.11.2011 - Aprobación: 17.12.2011 Resumen En el contexto del desarrollo del software, se hace relevante implementar modelos de reconocimiento internacional que bus- quen lograr la calidad que tienen los procesos y productos de las grandes industrias. Así, si las MiPymes productoras de software de Colombia se quieren comparar con el mercado mundial de su sector, deben comprender la importancia de las certificaciones de calidad que estas últimas ya han logrado. Sin embargo, lograr de- terminado nivel de certificación, exige seguir modelos reconocidos* Modelo para citación de este artículo científico: PELÁEZ VALENCIA, Luis Eduardo; HURTADO MOSQUERA, Ricardo Alonso y FRANCO ESCOBAR, Jorge Alberto (2011). Certificación de la calidad del proceso y producto: Ruta para pymes colombianas que fabrican software. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 41-61. ISSN: 0123-96781 Artículo proveniente de la investigación titulada Propuesta de aseguramiento de la calidad del software para que las pymes colombianas puedan medir su proceso y producto, desarrollada desde la Universidad Católica de Pereira.2 Magister en Ingeniería del Software, Especialista en Propiedad Intelectual: Propiedad indus- trial, Derechos de autor y Nuevas tecnologías, Ingeniero de Sistemas. Líder del Grupo de Investigación TICs. Docente Investigador, Universidad Católica de Pereira, Pereira (Colombia). Correo electrónico: luis.pelaez@ucp.edu.co3 Estudiante de Magister en Ingeniería de Sistemas y Computación, Ingeniero de Sistemas y Telecomunicaciones. Integrante Grupo de Investigación TICs. Docente Investigador, Universi- dad Católica Popular del Risaralda, Pereira, Colombia). Correo electrónico: ricardo.hurtado@ ucp.edu.co4 Ingeniero de Sistemas y Telecomunicaciones. Gerente de Ingecol Internacional, Pereira (Colombia). Correo electrónico: gerencia@ingecolint.com Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 41-61 41
    • Nº 25 - julio - diciembre / 2011 en la industria del software, aunque su adopción represente altos riesgos por la inexperiencia en el campo para una MiPyme colom- biana. Lo anterior se debe a que las principales propuestas fueron desarrolladas principalmente para ser implantadas por empresas con una trayectoria marcada, experiencia notable, disponibilidad de recursos económicos, entre otras características, que impo- sibilitan que una pyme en el contexto colombiano pueda aspirar fácilmente a la implementación de un modelo de calidad. Con lo anterior, es necesario explorar el estado de las propuestas enfo- cadas a la calidad en el software, existentes y más reconocidas en el contexto y las certificaciones y organizaciones enfocadas en el mejoramiento de la calidad en el software colombiano. Palabras Clave: Mejora de Procesos de Software (SPI), CMMI, ITMark, ISO/IEC 15504, Agile MECPDS. Abstract In the context of software development, it becomes very important to implement models internationally recognized, whose aim might be to reach the quality that processes and products have in large industries. Thus, if the SMEs from Colombia which produce soft- ware want to be compared to those of the same sector included in the worldwide market, they must consider the importance of quality certification these have already achieved. However, rea- ching a certain level of certification requires the consideration of recognized models in the software industry, although its adoption represents high risk due to inexperience in the field for a Colombian SME. This is because the main proposals were developed prima- rily to be implemented by companies with a strong track record, remarkable experience, and availability of financial resources, among other conditions, which limits a SME in the Colombian context to implement a quality model. With this, it is necessary to explore the status of proposals focused on the software quality which exist and are the most recognized in our context and also the certifications and organizations focused on improving software quality in Colombia. Keywords: Software Processes Improvement (SPI), CMMI, IT- Mark, ISO/IEC 15504, Agile MECPDS.42
    • Universidad de Manizales Facultad de Ciencias e Ingeniería IntroducciónLa dependencia generada por parte de la sociedad a las tecnologíasde la información, la demanda generada por usuarios que reclamanservicios que den solución a sus necesidades y las exigencias de unentorno cambiante, han impulsado un número significativo de compañíasdesarrolladoras de software a buscar soluciones enfocadas en mejorarorganizacional y estratégicamente sus procesos para desarrollar pro-ductos software de mayor calidad.En Colombia, muchas de las soluciones propuestas por pymes desarro-lladoras de software no cumplen con los requerimientos mínimos que sa-tisfagan las necesidades puntuales de sus clientes, ni mucho menos queles permita competir a nivel de calidad del software en mercados interna-cionales, provocando problemas de diversa índole que pueden acarrear nosolo grandes costos de inversión si no de mantenimiento, administración,adecuación y reparación de las soluciones software implantadas.Es por este motivo que surge la necesidad de hacer uso de propuestas,metodologías y guías avaladas por organismos reconocidos en el áreade la calidad del software en el ámbito internacional, que se enfoquenprincipalmente en el contexto y la idiosincrasia Colombiana, cuyo obje-tivo se centre en auditar y certificar la forma como se emplean métodosorganizados y sistemáticos que contribuyan a mejorar los procesos delas empresas enfocadas en el desarrollo del software y por ende lograrproductos de mayor calidad.El artículo inicia con la presentación y evolución del concepto de ca-lidad en el contexto del proyecto de investigación; seguidamente, elsignificado de la calidad en la industria del software. Se continúa conlas propuestas de evaluación y certificación de calidad del softwareexplicando la metodología seguida en el proyecto para clasificarlas ysistematizarlas y finalmente algunas conclusiones, a manera de reco-mendaciones, para las MiPymes5 de Colombia. 1. Marco teórico1.1 Importancia y evolución del concepto de calidadExiste calidad cuando las necesidades del cliente son cubiertas y elmismo está dispuesto a pagar y contratar a la misma empresa en otras5 La pequeña y mediana empresa, conocida también como PYME, es una empresa con ca- racterísticas distintivas. Las pymes son agentes con lógicas, culturas, intereses y un espíritu emprendedor específicos. Usualmente se ha visto también el término MiPyME (acrónimo de “micro, pequeña y mediana empresa”), que es una expansión del término original, en donde se incluye a la microempresa. 43
    • Nº 25 - julio - diciembre / 2011ocasiones por el mismo u otro servicio. La calidad ha sido un temade constante evolución que, según Clarke (2000), se ha hecho cadavez más importante en el último siglo, el mismo se evidencia en lassiguientes etapas:• Primera etapa: La calidad se relaciona con el proceso de producción que parte de la década de 1920, mediante la inspección, el control estadístico y el concepto de calidad como principio de productos sin defectos.• Segunda Etapa: La calidad se integra como objetivo de la adminis- tración a partir de la mitad de la década de 1940, con el asegura- miento de la calidad, como un concepto necesario para el desarrollo adecuado de las áreas funcionales de las empresas. La meta es evitar productos defectuosos, y su responsabilidad se centra en el conocimiento sobre el control estadístico de la calidad. En el ase- guramiento de la calidad, la administración involucra a todos los integrantes de la empresa.• Tercera etapa: Se inicia en la década de 1970 e implica la interpre- tación de la calidad como una estrategia fundamental para alcanzar la competitividad, y como un símbolo organizacional que trasciende las fronteras a través de la propuesta de calidad. Aparece un cambio paulatino en la actitud de la alta gerencia, surgen nuevos paradigmas en la administración representados por la cultura corporativa, la rein- geniería de procesos y el aprendizaje organizacional. La doctrina de la calidad involucra a la empresa, coordinándose los esfuerzos de la dirección y de los empleados para favorecer la calidad de productos y servicios y así responder a los requerimientos del consumidor y ser competitivos en los mercados internacionales.• Cuarta etapa: A partir de 1980, la calidad es sinónimo de cliente, en donde todas las entidades de una compañía deben trabajar en conjunto por llenar las expectativas de su cliente final y como único fin desarrollar productos y soluciones que cubran sus necesidades directas. Como describe Barba Álvarez (2001), el concepto de la calidad asume un alto contenido simbólico al constituirse como un compromiso interiorizado y compartido por la empresa y sus inte- grantes, que implica cambio de actitudes y mejora continua en todos los niveles, actividades y procesos de la empresa, con un punto focal hacia la satisfacción de necesidades y expectativas del cliente.Con esta visión, muchas empresas mundiales empezaron a ver la calidadcomo la forma de acceder a las expectativas del cliente lo que ha aunadoa rebajar costos, lograr el compromiso de los empleados y asegurar lamejora continua. De esta forma se generó una cultura de la calidad, que44
    • Universidad de Manizales Facultad de Ciencias e Ingenieríabuscaba siempre el beneficio del usuario final, pero que de esta formabeneficiaba directamente a la empresa que producía dicho producto oservicio, tal y como lo describía Clarke (2000), se enmarcaba en la con-secución de una cultura de calidad y una administración activa y eficiente.Según la norma ISO 8402:1994, descrita por Peach (1999), «calidad esel total de las características de una entidad que atañe a su capacidadpara satisfacer necesidades explícitas e implícitas de un usuario o clien-te»; al estudiar la calidad como una estrategia total, amplía un poco másla definición el introducir el factor proceso. De esta forma lo ha definidoFeigenbaum (1986): «La calidad es la suma de los valores agregadosque se incorporan al producto y/o servicio a lo largo del proceso; es elvalor final a través del cual los clientes satisfacen sus necesidades yexpectativas». El mencionado autor, a estos elementos, les une el factoreconómico y da una definición sobre la meta de la industria competitivarespecto a la calidad del producto, que es «Proporcionar un producto oservicio en el cual su calidad haya sido diseñada, producida y conser-vada, a un costo económico y que satisfaga por entero al consumidor».Con estas definiciones, la calidad se puede dividir en dos agrega-dos: - el primero habla sobre eficiencia de la producción, que obligaa las organizaciones a mejorar los procesos de producción y cuidarel diseño del producto final, con el personal y los recursos técnicos yeconómicos necesarios; - el segundo, definido por Espinosa y Pérez(1994), da cuenta de los valores, la cultura y la filosofía que apoya a lacalidad entendiéndola como un valor, con actitudes y comportamientosen el trabajo y en la vida privada de los trabajadores y con estándaresdeseables.También es importante entender las diferentes perspectivas desde lascuales se puede definir la calidad:• Enfoque basado en el juicio, con calidad como sinónimo de excelencia.• Enfoque hacia los productos, que reflejan la diferencia en algún atributo.• Enfoque hacia el usuario, de acuerdo con lo que el cliente quiere.• Enfoque hacia el valor: la relación entre el uso o la satisfacción con el precio.En la actualidad existen definiciones por parte de autores reconocidoscon respecto a la calidad, pero es importante reconocer que la calidaden la industria de software es diferente a la de otras industrias, como lodefinen Fairley, Aguilar y Rangel (1987), al afirmar que «la calidad enel software es diferente al de la manufactura ya que el producto de un 45
    • Nº 25 - julio - diciembre / 2011proyecto de software es intangible, flexible; el proceso de desarrollo noes estandarizado, muchos proyectos se hacen una sola vez y no sonparecidos a otros proyectos». Con base en lo anterior, el empresariode software considera su trabajo como una labor de servicio más quede manufactura, por lo que:- Es difícil identificar y medir las necesidades de los clientes y los estándares de desempeño.- La producción de servicios requiere de un mayor grado de perso- nalización y su calidad sólo se puede medir comparándola con las expectativas de los clientes.- Es necesario prestar mucha atención a la capacitación y la integración de la calidad en el servicio, como medio de asegurar la calidad.Por lo anterior, es importante definir un concepto de calidad único en-focado principalmente a la calidad para el desarrollo de soluciones yproductos software. IEEE (2003), en su estándar 610-1990, consideraque «el concepto de calidad en el software es el grado con el que unsistema, componente o proceso cumple los requerimientos especifica-dos y las necesidades o expectativas del cliente o usuario». Y al igualque consideran Espinosa y Pérez (1994), puede englobarse en lasdimensiones del producto y el servicio:- Calidad del producto: Es el resultado de actividades o procesos que comprende servicio, hardware, materiales procesados, software o una combinación de ellos y está en función de aspectos como los requerimientos del cliente, proyecto, diseño de la solución tecnoló- gica, entrega a tiempo, etc.- Calidad en el servicio: El servicio se define como el resultado ge- nerado por actividades en la interrelación entre proveedor y cliente. Diversos autores señalan ciertas proposiciones acerca de la calidad y del trabajo del software, así Sanders y Curran (1994), indican que la calidad es la llave del éxito en el negocio de software y el modo más barato de mejorar la productividad, es visualizar la gente y la cultura como entes tan o más importantes que la tecnología, pero es necesario mejorar el proceso de software que incluye personal, instalaciones, equipo, tecnología y metodología, esto quiere decir que las personas deben trabajar de la mano con la tecnología para simplificar el trabajo y llegar a productos de mejor calidad; la direc- ción debe de mostrar un mando y un compromiso genuino, la calidad debe adaptarse a las necesidades y circunstancias de la empresa o no será ni eficaz ni eficiente.46
    • Universidad de Manizales Facultad de Ciencias e IngenieríaUn buen proceso de desarrollo de software debe permitir la entrega deproductos de calidad económicamente y de modo oportuno, a travésde una práctica eficaz, base de los principios de calidad siguientes:prevención y corrección de defectos y trabajo de conformidad conestándares y procedimientos, consideran Sanders y Curran (1994),quienes expresan que un programa de mejora de calidad debe teneraspectos técnicos y culturales; el aspecto técnico implica desarrollarestándares y procedimientos para poner en práctica la calidad en todaslas actividades y en el aspecto cultural la calidad es el valor central de lacompañía, con conciencia de responsabilidad personal y un programade capacitación permanente.A diferencia de los anteriores, Pulido (2005), menciona que los factoresprincipales del funcionamiento de la industria del software son «el apoyogubernamental, el uso de la lengua inglesa, su cultura organizacional,exportaciones, disponibilidad de mano de obra especializada, están-dares de calidad y disponibilidad de recursos humanos en cantidad ycalidad». Por su parte, Verdines (1992), indica que para determinar elestado actual de los productos de software en una organización, hayque situarse en alguno de los niveles de la escala de calidad:- Nivel inferior. La responsabilidad del producto terminado recae total- mente en la persona que tiene que crear, revisar y probar el producto. El proceso de desarrollo es una actividad individual, enfatizando la solución de problemas en un contexto puramente técnico y con una nula confiabilidad en los productos.- Nivel intermedio. Se cuenta con métodos y procedimientos de desa- rrollo, ordenados y consistentes, pero no tomados en cuenta en cada una de las etapas del ciclo de desarrollo del producto de software. Ya existe cierta interacción entre los equipos de desarrollo y el usuario del producto y ya se considera la capacitación del personal y una visión de cambio hacia la filosofía de calidad.- Nivel superior. Existe un grupo de aseguramiento de calidad del software responsable de establecer estándares, existe la actitud de creatividad individual compatible con el espíritu de equipo necesario.1.2 Descripción de la calidad en la industria del softwareEl software es una industria relativamente nueva, su origen puede si-tuarse en 1955. Algunas de las características de esta fase inicial sonla elaboración y distribución gratuita de programas por parte de losfabricantes de hardware y el intercambio de programas e informaciónentre usuarios expertos. 47
    • Nº 25 - julio - diciembre / 2011Sin embargo, a medida que crecía la venta de computadores, aumentabala demanda insatisfecha entre los usuarios pequeños y medianos que nocontaban con recursos o capacidades tecnológicas para producir softwareinternamente. En la línea de los planteamiento de Hoch et al. (1999),durante la segunda mitad de los años 1950, algunas empresas daríanel primer paso en el cubrimiento de estos requerimientos demandadospor los usuarios y las mismas organizaciones; más tarde, «en los años70´s, factores como el incremento de la relación precio desempeño, elsurgimiento de la ingeniería de software y en especial la decisión de IBMde vender separadamente hardware y software, contribuyeron a la con-solidación de la industria de productos de software» (Hoch et al., 1999).Este desarrollo dio lugar a importantes economías de escala en laproducción de software empaquetado para un mercado masivo. Porotro lado, la demanda y la variedad de aplicaciones requeridas porun número creciente de usuarios reforzaron la especialización de losproductores de software independientes, «provocando y creando unamayor división del trabajo entre productores de software. Y aunque lahistoria demuestra la importancia de la industria, en términos genera-les sigue teniendo características artesanales y poco especializadas.Lo anterior se ve reflejado en los problemas de calidad, confiabilidad,cumplimiento de tiempos que aún se presentan en actividades comoel desarrollo de software» (Torrisi, 1998).Esto ha llevado, entre otras cosas, a crear nuevos modelos para laproducción de software, implementar nuevas técnicas y herramientasde programación6 (CASE, UML, programación orientada a objetos,etc.), optar por el diseño y módulos reusables de software, emplearherramientas específicas para la adecuada gestión de los proyectos desoftware e implantar certificaciones, debido a «la importancia de intro-ducir estándares de calidad y gestión propios de esta industria, comonormas, modelos y metrologías reconocidas a nivel internacional, porejemplo, el modelo CMMI o SPICE» (López, 2003).Infortunadamente, todas las estrategias ya planteadas para evitar quela industria del software siga llevando a cabo procesos artesanales,están presentes en muchos países solo en el papel. Según uno de losreportes de la consultora Cooper y Fisher (2002), el caso colombianoes desalentador, ya que la cantidad de empresas de software repor-tadas ante el SEI (Software Enhineering Institiute) con posibilidad decertificación en CMMI (Capability Maturity Model Integrated) es muybaja, y las certificaciones logradas no superan las 35 evaluaciones, en6 Como CASE (Computer Aided Software Engineering), UML (Unified Modeling Language), y Programación orientada a objetos, entre otras.48
    • Universidad de Manizales Facultad de Ciencias e Ingenieríacomparación con países, como Estados Unidos, que cuentan con 718evaluaciones reportadas.1.3 Clasificación del producto en la industria del softwareLa industria de software es una actividad relacionada con la codificacióndel conocimiento y la información, siendo sus entradas de informacióny sus salidas de información de carácter virtual o inmaterial. Según laforma en que se generan dichas salidas, puede considerarse la calidaddel producto o servicio.Bitzer (1997), así como otros autores, introduce una clasificación deproductos software basada en el grado de estandarización, que se daen función del número de usuarios que pueden resolver sus problemaso necesidades con el mismo software, al considerar que «en un grupoestaría el software totalmente personalizable o adaptable, que es de-sarrollado por petición de un solo usuario o empresa. En la otra ramade la clasificación estaría el software de tipo “universal”, que puede serutilizado prácticamente sin cambios por cualquier usuario».Los productos de software universal o estandarizado se pueden clasi-ficar en dos grandes grupos: soluciones empresariales y productos demercado masivo. La distinción entre ambos va más allá del mercado alcual se dirigen (en este sentido, un procesador de texto como MicrosoftWord, puede apuntar tanto al mercado empresarial como al masivo).Una diferencia sustancial entre un producto de mercado masivo y unasolución empresarial radica en que esta última, aunque haga partede los productos estandarizados, siempre exige, en mayor o menormedida de acuerdo a su complejidad, algún grado de configuración opersonalización a los requerimientos específicos de la organización enla cual va a ser implementada.En este último caso, la puesta en marcha de la aplicación (es decir, suinstalación y los ajustes necesarios para su correcto funcionamiento),suele implicar una inversión importante en términos de tiempo y dinero.Desde el punto de vista de su aplicación, el software puede ser de trestipos, según describe López (2003):- Software de sistema y utilitarios: En este grupo se encuentran los sistemas operativos, lenguajes de programación, herramientas de medición de performance, programas de mantenimiento y seguridad, convertidores, sistemas para el manejo de redes, etc.- Herramientas de aplicación: Aquí están incluidos todos los progra- mas que le permiten al usuario recuperar, organizar, administrar y manipular datos y bases de datos. Este grupo se divide en cuatro grandes categorías: recuperación y acceso a datos, administración 49
    • Nº 25 - julio - diciembre / 2011 de datos, manipulación de datos y por último, diseño y desarrollo de programas. Como ejemplos de este grupo se tienen: sistemas de administración de bases de datos, sistemas de soporte e información para la toma de decisiones, planillas de cálculo, herramientas CASE, entre otras aplicaciones.- Soluciones de aplicación: Son programas diseñados para ofrecer solu- ciones a problemas propios de una industria, o bien para desempeñar una función específica del negocio. En este grupo se encuentran aplica- ciones para manejo de contabilidad, recursos humanos, administración de proyectos, procesamiento de texto y otras actividades de oficina. También se involucran aquí soluciones para mercados verticales (por ejemplo, bancos y sector financiero, manufactura, salud, exploración y explotación de recursos naturales, entre otros).En cuanto a los servicios asociados a la industria del software, se pue-den incluir diversas actividades: consultoría, capacitación, instalacióny mantenimiento de productos de software, migración de sistemas,adaptación y/o personalización de aplicaciones, diseño de solucionesa medida, seguridad y recuperación de información, integración desistemas y aplicaciones, diseño de páginas web, entre otras.1.4 El concepto de Sistema de Calidad en el SoftwareSe entiende por Sistema de Calidad a «la estructura organizacional,las responsabilidades, los procedimientos, procesos y recursos que serequieren para la gestión de la calidad. En este contexto la definiciónde la política de calidad establece la relación entre la estrategia de laempresa y su visión de la calidad. Esto debe a su vez correspondercon la estructura organizacional, las responsabilidades, procedimien-tos, procesos y recursos que se definan para el sistema de calidad»(Sanders y Curran, 1994).Dentro del campo de la evaluación de la calidad del software, se hanrealizado múltiples estudios, análisis y metodologías. En su mayoría,estos estudios tienden hacia enfoques formales, en donde los mode-los estadísticos basados en métricas de software son la base para elaseguramiento, control y evaluación de la calidad de un producto oproceso de software. Grandes compañías, como IBM, Hewlett Pac-kard, Motorola y Siemens, han adoptado este enfoque en su marcode producción, para implementar atributos de calidad y así llegar a susistema de gestión de calidad.El objetivo principal del proceso de evaluación es lograr el control delproceso de desarrollo y del producto de software. Esto se logra medianteel monitoreo y la medición de los atributos de las actividades que inter-50
    • Universidad de Manizales Facultad de Ciencias e Ingenieríavienen en el coste, calidad y todas aquellas características que afectanla producción de software. Para mejorar la calidad se necesita verificarel software y sus defectos, para disminuirlos a medida que avanza eldesarrollo del proyecto. Este proceso de evaluación es posible mediantela medición del software. Sin embargo, el software no es fácil de medir,es posible medir algunos atributos del software, y estos sólo puedenser medidos de manera indirecta. Las métricas pueden utilizarse paracontrolar tanto el proceso de desarrollo como el producto de software,de ahí la importancia de la certificación.Evaluar la calidad del proceso y el producto software, puede variardependiendo del número de líneas de código o de la complejidad delsoftware en medición. Las métricas no son simples valores, sino quedependen de la magnitud del sistema y del tiempo estimado que setiene para su obtención. Una vez que se ha obtenido el conjunto devalores de las evaluaciones, se procede a modelar los resultados paraobtener un estimado del comportamiento del sistema de acuerdo a latendencia que manifiestan los resultados. 2. Metodología para la revisión general de propuestas de certificaciónEl proyecto de investigación propuso la realización de una revisión gene-ral y un estudio exploratorio sobre la situación actual de la certificaciónde calidad en las empresas productoras de software colombianas, losentes de certificación existentes y las normas, modelos y metodologíasimplantadas por pymes y empresas de gran tamaño que les ha servi-do de guía y apoyo para ser competitivos en mercados nacionales einternacionales.Para llevar a cabo la recolección de la información, se busca analizar labibliografía y documentación relacionada con la calidad en el softwareen Colombia, sustentada con información, artículos y noticias recopila-das de Internet de los sitios web oficiales de cada uno de los entes decertificación más importantes y sus propuestas para el mejoramientode la calidad en el software en el ámbito internacional, para de estaforma conocer los más importantes en la industria, y por consiguientesu acogida y nuevas soluciones que se encuentran aptas para las em-presas productoras de software colombianas.Para concluir lo anterior, se han desarrollado una serie de etapas quehan permitido tener organización y control en el proceso de recolecciónde la información, permitiendo llegar a conclusiones claras y concisassobre el estado del software colombiano: 51
    • Nº 25 - julio - diciembre / 2011Etapa 1: Analizar el estado socioeconómico de Colombia con relaciónal crecimiento de la industria del software en los últimos años, ingresosgenerados, acogida e importancia que representa la certificación delmejoramiento de la calidad en el software en la industria y el impactoque ha generado en la sociedad.Etapa 2: Analizar las normas, modelos y metodologías de mejora deprocesos más empleadas en el contexto internacional y que están siendoimplantadas por pymes colombianas que buscan el mejoramiento de lacapacidad y la madurez de los procesos en el software.Etapa 3: Analizar nuevas iniciativas, modelos y metodologías agilesde mejora de procesos de software que se encuentren desarrolladasprincipalmente para el entorno y el contexto de las pymes colombianas. 3. Resultados y discusión a partir de la revisiónLas MiPymes son una pieza muy importante en el avance económiconacional y mundial. La industria del software en la mayoría de los paí-ses se encuentra compuesta en gran parte por Pymes, según CEPAL(2009), y por ello se hace necesario fortalecer este tipo de organiza-ciones con prácticas eficientes de Ingeniería del Software adaptadasa su tamaño y tipo de negocio para sobresalir y ser competitivas en sumercado. Empresas pertenecientes a estas disciplinas han expresadoen la última década especial interés en mejorar sus procesos de soft-ware con el fin de aumentar la calidad y productividad en el desarrollode sus productos Software.Sin embargo, hay una tendencia generalizada a resaltar que el éxito delos programas de mejora de calidad en los procesos de software sóloson posibles para empresas grandes, que cuentan con los recursoseconómicos necesarios y una estructura organizacional implantaday madura, que les permite alcanzar el éxito mucho más rápidamentede lo que lo podría realizar una Pyme con pocos recursos y pocaexperiencia, provocando en muchos casos que pequeñas y media-nas empresas en el contexto Colombiano, no puedan seguir buenasprácticas de desarrollo de software y por lo tanto no alcanzar procesoseficientes de calidad.En un mercado globalizado donde las empresas deben innovar y mejorarcontinuamente para crecer y ser más competitivas, es necesario teneracceso a certificaciones de calidad reconocidas que les den un respaldoy les ayuden a ser más productivas disminuyendo costos y tiempo enel desarrollo de sus actividades y productos. La improvisación de los52
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaprocesos, sobreestimación de tiempos y recursos de desarrollo sontan solo unos de los muchos inconvenientes que se pueden presentarcuando una organización no logra certificar o implantar un modelo quele permita mejorar sus procesos de calidad.La calidad de un producto o servicio siempre es compleja de evaluar.La razón es simple, la medida de la calidad puede abordarse desdediferentes perspectivas y tiene multitud de posibles soluciones. Por estarazón, para hablar de calidad de la forma más objetiva posible, se debeprimero definir qué se entiende por esa calidad, segundo especificarcómo proceder a evaluar esa calidad y tercero dejar claro qué nivel decalidad se desea lograr y, si de acuerdo al entorno o a la estructura or-ganizacional de la empresa se puede alcanzar. Lo anterior se logra conun modelo, una norma o una metodología que disponga de una seriede pasos sistemáticos que orienten y guíen a la empresa a mejorar susprocesos y sus actividades que contribuyan a mejorar la forma comose desarrolla software.Diferentes normas y modelos se han especializado en la disciplina dela calidad en la ingeniería del software, y se basan en los conceptos decapacidad del proceso y Madurez del proceso que les permite lograrmejores prácticas enfocadas en la Calidad. La capacidad del procesocorresponde a la habilidad para producir los resultados esperados encada uno de los procesos individuales de una empresa y la madurez,al crecimiento en la capacidad general de los procesos de una organi-zación que permite a la misma certificarse en niveles de 1 a 5 y por lotanto competir en calidad con compañías del mismo sector.Alcanzar un nivel de capacidad y madurez óptimo es una tarea arduaen la cual se debe gestionar un proceso de mejoramiento que permitatomar un camino de acciones para aplicar en cualquier proyecto, estasacciones a realizar vienen representadas por la SPI (Mejora de Procesosdel Software), cuyo objetivo busca establecer las bases para que lasorganizaciones puedan adaptar el modelo a sus necesidades. Un SPIes un proyecto continuo7 que conduce el mejoramiento de los procesosde software de una organización.Dentro de las iniciativas que se han generado en la última década, exis-ten dos grandes grupos de modelos, normas y estándares que buscanmejorar la calidad en las prácticas llevadas a cabo por las empresasdesarrolladoras de software. El primer grupo persigue la mejora de losprocesos de producción de software (denominado modelo de calidad7 Se dice que es un proyecto continuo porque tiene un inicio pero no tiene un fin, debido a que está constituido por ciclos de mejora y cada ciclo por fases, es decir, es un proyecto con ciclo de vida iterativo e incremental. 53
    • Nº 25 - julio - diciembre / 2011orientado a proceso), mientras el segundo grupo persigue la mejorade producción del producto software (denominado modelo de calidadorientado a producto).El grupo de modelos orientados a procesos son los más usados porla industria del software en el ámbito mundial, ya que se encuentrandiseñados principalmente para el mejoramiento en las capacidadesde las organizaciones para alcanzar niveles de calidad aptos para laindustria del software.En Colombia, dentro del marco de los modelos de calidad enfocadosen el proceso del software, se emplean algunas de las iniciativas delos organismos más reconocidos en materia de calidad del software,siendo los modelos de SEI y los estándares de ISO, los pilares básicosa seguir en la industria del software para la mejora de procesos. Den-tro del grupo de modelos reconocidos internacionalmente orientadosal mejoramiento de los procesos del software, los más destacados enColombia son: CMMI (Desarrollado por el SEI) y la norma ISO/IEC15504 (Desarrollada por la ISO).En la actualidad, es posible encontrar pequeñas empresas del sectorsoftware que a pesar de no contar con certificaciones de calidad reco-nocidas, cuentan con sólidos procesos, muchas veces documentadosy soportados por herramientas informáticas que les permite avanzary lograr productos enfocados en la calidad. Entonces es importantepreguntarse ¿Por qué muchas de estas Pymes, con procesos biendesarrollados, no avanzan masivamente hacia los modelos de ISO oCMMI que son los más reconocidos del mercado?En los países con industrias de software emergente, como es el casocolombiano, la iniciativa de las Pymes por emprender proyectos demejoramiento de procesos crece de manera acelerada. Sin embargo,diversos autores coinciden en que los estándares de ISO y modelosdel SEI (considerados como estándares para grandes empresas) difí-cilmente pueden ser aplicados a empresas pequeñas debido a que unSPI supone gran inversión en dinero, tiempo y recursos. No obstante,gran parte de las Pymes desarrolladoras de software adaptan y utilizanestos estándares en la actualidad por propia decisión o por descono-cimiento de otros modelos, para emprender sus esfuerzos de mejoracausándoles grandes problemas para alcanzar el mejoramiento ensus procesos ya que su estructura empresarial no se acomoda a unmodelo que ha sido diseñado para una empresa con mayor experienciay mayores recursos.A manera de hipótesis, se considera que las Pymes no certifican susprocesos de mejoramiento del software, debido a factores como:54
    • Universidad de Manizales Facultad de Ciencias e Ingeniería- El cambio de filosofía de trabajo que implican los modelos y sus me- todologías impulsa a una Pyme a actuar organizacionalmente como si fuera una empresa mucho mayor, propiciando en algunos casos la dilatación en tiempos de respuesta de muchos de sus procesos.- El cambio de organización, así como la creación de un departamento o área de calidad y nuevas contrataciones o especialización de per- sonal cualificado para el seguimiento y control en temas de calidad.- Los altos costes que conlleva la adopción de cualquier modelo tiene inmerso entre otros las auditorías y certificaciones, costes en recursos humanos y formación, costes de adquisición de herramientas que los soporten, y muchos más costos adicionales que son muy altos para ser tenidos en cuenta por una Pyme colombiana.- Escepticismo ante los beneficios que puede aportar una certificación.Lo anterior, son tan solo algunos de los muchos factores existentes queimpiden o no motivan la certificación o el mejoramiento de los procesosdel software en las Pymes colombianas, y es por este motivo que se hagenerado en los últimos años, una corriente opuesta formada por lasllamadas metodologías ágiles, las cuales reclaman un mayor protago-nismo de las personas sobre los procesos de desarrollo por sí mismos.Los Métodos Ágiles son nuevas formas de permitir el acceso al me-joramiento de la calidad en los procesos del software a Pymes y em-presas medianas con base en las metodologías formales reconocidas(como CMMI-DEV, ó ISO IEC 15504/SPICE) a las que se consideranexcesivamente rígidas por su carácter normativo y fuerte dependenciade planificaciones detalladas previas al desarrollo. De estos se handesprendido nuevas iniciativas que buscan beneficiar a las Pymes delsector, como los modelos ITMark y Light MECPDS, que se muestranen la figura 1.CMMI SEI (2011) es una de las normas de certificación de procesos dedesarrollo de software más reconocidas en el mundo, que, en Colom-bia, se constituye como la más reconocida y con mayor implantaciónpor parte de Pymes y empresas del sector software. Este modelo decalidad del software clasifica las empresas en niveles de madurez, loscuales permiten conocer la madurez de los procesos que se realizanpara producir software y se encuentra en una escala de evaluación de0 a 5, por lo que se ha convertido en una guía que ayuda a tener controlsobre los procesos organizacionales y de desarrollo para así mantenery generar un software de mayor calidad.CMMI presenta un conjunto de prácticas recomendadas en una seriede 22 áreas clave que permiten mejorar el potencial del proceso de 55
    • Nº 25 - julio - diciembre / 2011software, mediante la evaluación de procesos, que van desde la Gestiónde la Configuración y de los Requisitos hasta la formación organizacio-nal. Las mismas se encuentran diseñadas para ser evaluadas en cinconiveles enfocadas en la capacidad y madurez de los procesos de laempresa desarrolladora de software. Figura 1. CMMI (Capability Maturity Model Integration)3.1 ITMarkEl modelo ITMark, basado totalmente en CMMI, según ESI (2008), esuna guía de pasos sistemáticos y organizados que permite alcanzarniveles de capacidad y de madurez óptimos para competir en mercadosglobalizados mejorando la efectividad organizacional y el éxito me-diante la mejora de los procesos de micro y pequeñas empresas quese dedican al desarrollo y mantenimiento de sistemas, aplicaciones yproductos de software.Es el primer modelo de calidad internacional diseñado en particularpara las micro y pequeñas empresas que disponen de menos de 20empleados y tiene por objetivo brindar un sello de calidad que acreditala madurez y capacidad de desarrollo de software, y su nivel de eva-luación corresponde hasta al nivel 2 de los cinco de CMMI.3.2 Norma ISO/IEC 15504 (SPICE)De acuerdo con ISO (2011) es un estándar internacional para la eva-luación y mejora de procesos software, en el cual se desarrolla unconjunto de medidas de capacidad estructuradas con el objetivo deevaluar el proceso de ciclo de vida del software. La norma fue creadacon el objetivo de ser un estándar de certificación, cuyo objetivo esproveer un modelo conceptual y marco para la evaluación, validación,optimización y certificación del proceso de desarrollo o construcciónde software de calidad.56
    • Universidad de Manizales Facultad de Ciencias e IngenieríaPuede implementarse en empresas con departamentos de desarrolloa partir de 10 a 15 personas, suponiendo una difícil implementaciónen empresas con menor número de integrantes. Al igual que CMMI,requiere gran cantidad de herramientas, de las cuales muchas deellas tienen un coste elevado. El retorno de inversión se obtiene amedio plazo, siendo este un tiempo elevado para la implementaciónen Pymes.3.3 Modelo Ágil Light MECPDSConsidera Pino et al (2006), que es un modelo ágil de procesos de me-jora del software basado principalmente en metodologías y principioságiles, requerimientos livianos y adaptaciones de modelos internaciona-les enfocado en Pymes y medianas empresas, cuya finalidad es motivarla aplicación de proyectos de mejora de procesos en las empresas dedesarrollo de software iberoamericanas con el objetivo de crear, aplicary probar un sistema de mejora de procesos con base en otros modelosde calidad reconocidos internacionalmente.Se encuentra desarrollado principalmente para ser implementado porlas Pymes y microempresas colombianas con menos de 15 empleados,se basa en la norma ISO/IEC 15504:2003 y esta a su vez en ISO/IEC12207:2002. Se encuentra respaldado bajo el proyecto Simep-Sw8ejecutado conjuntamente entre Colciencias y la Universidad del Cauca.A la vista de la situación expuesta hasta el momento en el presenteartículo, apuntan al modelo de mejora de procesos de capacidad ymadurez del software CMMI como el mejor modelo posible a la horade mejorar los procesos de calidad en una compañía desarrolladorade software, inclusive porque se encuentra respaldado por la ESI, unaorganización con mucho peso, experiencia e importancia en cuanto atemas de calidad en el software.Sin embargo, a pesar de existir normas, modelos y metodologías re-conocidas, con renombre internacional, el desconocimiento palpablesobre otros modelos agiles y certificaciones enfocadas a las micro ypequeñas empresas, o el afán por conseguir un sello reconocible comométodo de aumento de competitividad, llevan a la errónea idea de queCMMI o ISO/IEC 15504 deban ser los modelos a implantar, ya que suprestigio internacional es tan grande como su complejidad a la hora deobtenerlos, tanto por los costos humanos y monetarios, así como porlos cambios organizativos y de mentalidad que implica su adopción,siendo estos no viables para ser implantados en empresas con menosde 20 empleados.8 Sistema Integral de Mejoramiento de Procesos – Software. 57
    • Nº 25 - julio - diciembre / 2011Mientras que las grandes empresas pueden realizar implementacionesde modelos de calidad del software reconocidos de forma exitosa, larealidad en Colombia, es que el mayor porcentaje de empresas co-rresponde a micro y pequeñas empresas, lo que hace que esta visiónsobre los modelos existentes más exitosos deba ser replanteada enlas Pymes colombianas.Por este motivo surgen además, las propuestas, normas o metodologíasenfocadas en las Pymes, también denominadas metodologías agiles,como lo son ITMark que se basa principalmente en CMMI, y en el cualsu principal objetivo es preparar una pequeña o mediana empresa haciala certificación de sus procesos de calidad en el software respaldadapor una metodología y una empresa reconocida a nivel internacionalcomo lo es el SEI. Y el modelo ágil Light MECPDS que se encuentrabasado en la norma ISO/IEC 15504/SPICE, que busca brindar unametodología fácil y accesible a Pymes latinoamericanas, principalmentelas colombianas.La cuantificación de los beneficios obtenidos con la implementaciónde una metodología y/o un modelo de calidad ágil o no ágil, no puedeser realizada a corto plazo y las últimas iniciativas e implantaciones demodelos de mejora en Pymes Colombianas son suficientemente recien-tes como para no disponer de datos actualizados y de interés para lasempresas interesadas. Es por ello que la sensación que tienen muchasempresas desarrolladoras de software y empresarios del sector, es queno se dispone de un beneficio claro en la implantación de un modelo;aunque, como se ha comentado anteriormente, sitúan el interés por lacompetitividad del mercado y el afán de distinguirse mediante el valorañadido que otorga un sello de calidad para el marketing de la empresay los requerimientos de los grandes clientes.Por lo anterior, es importante documentar, analizar y revisar cuales sonlas últimas tendencias en cuanto a calidad en el software, pero estosanálisis deben estar enfocados directamente con el tamaño y la capa-cidad de una la compañía en donde se requiera mejorar la capacidadde sus procesos de software. 4. Conclusiones / recomendaciones• Con la reciente aprobación del Tratado de Libre Comercio, TLC, con los Estados Unidos, en el que se encuentra relacionado el software como un producto/servicio en el que se competirá bajo las mismas reglas, pero no en las mismas condiciones, se hace necesario e inmediato que las empresas productoras de software en Colombia58
    • Universidad de Manizales Facultad de Ciencias e Ingeniería asuman en sus procesos estándares internacionales que las per- mitan ser objeto de certificaciones de calidad, de tal manera que puedan llegar a la competencia con condiciones similares a las grandes multinacionales.• A pesar de que el modelo ágil Light MECPDS busca apoyar a las pymes colombianas, en la actualidad, la Industria del Software no evidencia, no se informa o no se tiene claro concretamente un modelo, estándar, guía o metodología que permita fácilmente a las micro y pequeñas empresas desarrolladoras de software enmarcar sus procesos en un estándar de calidad definido.• En los últimos años han sido consideradas propuestas como el mo- delo CMMI avalado por el SEI y la norma ISO/IEC 15504 avalado por la ISO, como referentes internacionales en el mejoramiento de la capacidad y madurez de procesos en el software. Sin embargo, si las MiPymes quieren enrutarse en estos modelos, deben seguir metodologías que les permitan aceptar evaluaciones y supervisiones de organizaciones internacionales.• Pero también es necesario comprender que implantar una norma, modelo o metodología enfocada en empresas grandes, puede gene- rar problemas de diversa índole para las Pymes colombianas, ya que los mismos han sido desarrollados principalmente para empresas grandes que cuentan con una trayectoria marcada, con los recur- sos económicos, la estructura organizacional y la disponibilidad de personal necesario para alcanzar la certificación de sus procesos.• Finalmente, la competitividad generada en la industria de software en los últimos años ha propiciado que organismos de estandari- zación en diversos países estén implantando modelos de mejora de procesos que les permita el aseguramiento de la calidad. En el caso de Colombia, se ha implantado ITMark y Light MECPDS como las prácticas más recomendadas para el mejoramiento de calidad en los procesos del software que se adapta a la estructura y organización de las Pymes colombianas. 59
    • Nº 25 - julio - diciembre / 2011 BibliografíaBARBA ÁLVAREZ, Anton (2001). Calidad total en las organizaciones: poder, ambigüedad y aspectos simbólicos [CD-ROM]. En: V Congreso Nacional de Investigación en Ciencias Administrativas: Los Desafíos de la Investigación Científica. Zapopan (Jalisco, México): Academia de las Ciencias Administrativas, Acacia, (28/02-02/03/2001) Memoria.BITZER, Jugen (1997). The computer software industry in East and West: Do Eastern Eu- ropean countries need a specific science and technology policy? In: DIW Discussion Paper No. 149 (may.). Berlin (Germany): Deustches Institut for Wirtschaftsforschung, 50 p. ISSN: 1619-4535. <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=68977> [consult: 13/08/2011]BASTOS TIGRE, Paulo y SILVEIRA MARQUES, Felipe (ed.) (2009). Desafíos y oportunidades de la industria del software en América Latina, Bogotá (Colombia): CEPAL & Mayol Ediciones. 316 p. ISBN 978-958-8307-56-5CLARKE, Thomas and CLEGG, Stewart (2000). Changing Paradigms: The transformation of Management Knowledge for the 21st Century. London (UK): Harper Collins Business, 512 p. ISBN 978-1861975225.CEPAL (2009). Desafíos y oportunidades de la industria del software en América Latina. Bogotá (Colombia): CEPAL. ISBN 978-958-8307-56-5.COOPER, Jack and FISHER, Matthew (ed.) (2002). Software acquisition Capability Maturity Model (SA-CMM) version 1.03 [on line]. Technical Report (mar.) 135 p. Pittsburgh (Pennsylvania, USA): Software Engineering Institute (SEI), University Carnegie-Mellon. <http://www.sei. cmu.edu/reports/02tr010.pdf> [consult: 19/08/2011].ESI (2008) Modelo IT Mark. [en línea]. Zamudio (Bizckaia, España): European Software Institute TECNALIA. <http://www.fedesoft.org/downloads/Sinertic/RESUMEN_MODELO_IT_MARK. pdf> [consulta: 22/04/2011]ESPINOSA INFANTE, Elvia Y PÉREZ CALDERÓN, Rebeca (1994) Calidad Total: Una Alternativa de Organización del Trabajo en México [en línea]. En: Revista Gestión y Estrategia. No. 5 (ene-jun.). México (D.F., México): Departamento de Administración, Universidad Autónoma de México. ISSN: 0188-8234. <http://www.azc.uam.mx/publicaciones/gestion/num5/doc05. htm> [consulta: 17/08/2011]FAIRLEY, Richard; AGUILAR SÁNCHEZ, Antonio y RANGEL GUTIÉRREZ, Raymundo (1987). Ingeniería de software. México: McGraw-Hill Interamericana, 390 p. ISBN: 9789684518544FEDESOFT (2011). Informe de cifras del sector software y servicios relacionados 2005.2010 [en línea]. Bogotá (Colombia): Fedesoft. <http://www.fedesoft.org/novedades/informe-de- cifras-del-sector-del-software-y-servicios-relacionados-2005-2010> [consulta: 18/08/2011]FEIGENBAUM, Armand (1986). Control Total de la Calidad. México: CECSA. ISBN 9789682612589ISO (2011). La norma ISO 15504 SPICE [en línea] Las Rosa (Madrid, España): Calidad Soft- ware 15504.es, Kybele Consulting, S.L. <http://www.iso15504.es/> [consulta: 13/11/2011]HOCH, Deltiv J. (ed.); ROEDING, Cyriac R.; PURKERT, Gert; KINDNER, Sandro and RALPH, Muller (1999). Secrets of Software Success. Managements Insights from 100 Software Firms around the World. Boston (MA, USA): Harvard Business School. 312 p. ISBN: 9781578511051.KANER, Cem (2003). What is a good test case? [on line]. In: Software Testing Analysis & Review Conference (STAR) (12-16/05/2003). East, Orlando, (FL, USA): Software Quality Engineer- ing, SQE. <http://www.kaner.com/pdfs/GoodTest.pdf> [19/08/2011]LÓPEZ, Andrés (2003). Estudio 1.EG.33.4. Estudios de competitividad sistémica: Componente B: la sociedad de la información, servicios informáticos, servicios de alto valor agregado y software [en línea]. Buenos Aires (Argentina): CEPAL. 122 p. <http://www.eclac.org/argentina/ noticias/paginas/3/12283/Informe334B.pdf> [consulta: 18/08/2011].MINTIC (2010). Plan Vive Digital Colombia: Diagnóstico y punto de partida de Colombia [en línea]. Bogotá (Colombia): Ministerio de Tecnologías de Información y Comunicaciones, MinTIC. <http://aprendeenlinea.udea.edu.co/lms/moodle/file.php/681/Plan_Vive_Digital. pdf> [consulta: 17/08/2011]60
    • Universidad de Manizales Facultad de Ciencias e IngenieríaPEACH, Robert (1999). Manual de ISO 9000. México: McGraw-Hill. 926 p. ISBN: 970-10-2264-5.PINO, Francisco J.; GARCÍA, Félix; SERRANO, Manuel y PIATTINI, Mario (2006). Medidas para estimar el rendimiento y capacidad de los procesos software de conformidad con el estándarISO/IEC 15504-5:2006 [en línea]. En: Revista Española de Innovación, Calidad e Ingeniería del Software, REICIS, Vol. 2 No. 3 (dic.). Barcelona (España): Asociación de Técnicos d eInformática, ATI. p. 17-30. ISSN: 1885-4486 <http://www.ati.es/IMG/pdf/Pino- Vol2Num3.pdf> [consulta: 11/11/2011)PULIDO CUERVO, Zhoe (2005). Análisis Comparativo de las Estructuras Periféricas en Empre- sas de la Industria de Software India-México. Tesis de Maestría (Magíster en Administración de Tecnologías de Información). Monterrey (México): Instituto Tecnológico y de Estudios Superiores de Monterrey. Campus Monterrey.SANDERS, Joc and CURRAN, Eugene (1994). Software Quality: A Framework for Success in Software Development and Support. Boston (MA, USA): Addison Wesley Longman. 196 p. ISBN 978-0201631982SARAVIA ARAMAYO, Roger (2007). Estándar ISO/IEC-14598 - Evaluación del Producto Soft- ware: ISO 14598 [en línea] La Plata (Argentina): Universidad Mayor de San Andrés. <http:// es.scribd.com/doc/14897492/Estandar-ISOIEC14598-Evaluacion-del-Producto-Software> [consulta: 18/0872011].SEI, SOFTWARE ENGINEERING INSTITUTE (2011). CMMI Overview [on line]. Pittsburgh (PA, USA): Software Engineering Institute, Carnegie Mellon University. <http://www.sei.cmu.edu/ cmmi/> [consult: 13/11/2011].TORRISI, Salvatore (1998). Industrial Organization and Innovation: An International Study of the Software Industry. Cheltenham (UK): Edward Elgar Pub. 197 p. ISBN: 978-1858988948VERDINES ARREDONDO, Martha Patricia (1992). La cultura de Calidad y los Ingenieros de Software {en línea]. En: Revista Transferencia, Vol. 5, No. 20, (oct.). Monterrey (México): Tecnológico de Monterrey. p. 23-24. ISSN: 1870-6835 (desde 11/2006). <http://viewer.zmags. com/publication/95a389f8#/95a389f8/1> [consulta: 15/08/2011]. 61
    • Nº 25 - julio - diciembre / 201162
    • Universidad de Manizales Facultad de Ciencias e Ingeniería EquipAsso: un algoritmo para el descubrimiento de conjuntos de ítems frecuentes sin generación de candidatos* [EquipAsso: an algorithm for discovery large itemsets without candidate generation] Ricardo TIMARÁN-PEREIRA1Recibo: 20.08.2011 - Ajuste: 20.09.2011 - Ajuste: 25.11.2011 - Aprobación: 10.12.2011 Resumen Con las grandes cantidades de datos continuamente recolectadas y almacenadas en las bases de datos, el problema de derivar asociaciones a partir de los datos ha sido siempre un foco de in- vestigación en Minería de Datos. Todo el rendimiento de generar reglas de asociación es determinado por el descubrimiento de conjuntos de ítems frecuentes. Un conjunto de ítems es frecuen- te si su soporte excede un predeterminado soporte mínimo. La gran mayoría de algoritmos propuestos para reglas de Asociación (Apriori, AprioriTid, AprioriHibrido, DHP y DIC entre otros), se ba- san en la generación de conjuntos de ítems candidatos, para el cálculo de los conjuntos frecuentes. En este artículo se propone el algoritmo EquipAsso. Este algoritmo encuentra directamente los conjuntos de ítems frecuentes sin la generación de conjuntos candidatos, utilizando los operadores algebraicos relacionales EquiKeep y Associator. Palabras Clave: Minería de Datos, Reglas de Asociación, Con- junto de Ítems Frecuentes, Operadores Algebraicos.* Modelo para citación de este reporte de caso TIMARÁN PEREIRA, Ricardo (2011). EquipAsso: Un algoritmo para el descubrimiento de conjuntos de ítems frecuentes sin generación de candidatos. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 63-82. ISSN: 0123-96781 PhD. en Ingeniería; MSc. en Ingeniería; Especialista en Multimedia; Ingeniero de Sistemas y Computación. Director grupo de investigación GRIAS, Profesor Asociado, Departamento de Sistemas, Facultad de Ingeniería, Universidad de Nariño, Pasto (Colombia).Correo electrónico: ritimar@udenar.edu.co Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 63-82 63
    • Nº 25 - julio - diciembre / 2011 Abstract With the huge amounts of continually gathered data and stored in the databases, the problem of deriving associations from the data has been always a research focus in data mining. The over- all performance of mining association rules is determined by the discover the large itemsets. An ítemset is large if has his support above a pre-determined minimum support. The most proposed algorithms for association rules (Apriori, AprioriTid, AprioriHibrido, DHP, DIC and others), are based on the generation of candidate itemsets for the calculation of large itemsets. In this paper, the algorithm EquipAsso is proposed. This algorithm finds the large itemsets directly without the candidate generation, using the re- lational algebraic operators Associator and EquiKeep. Keywords: Data Mining, Association Rules, Large Itemsets, Algebraic Operators. IntroducciónLa minería de datos es una de las etapas del proceso de Descubrimien-to de Conocimiento en Bases de Datos -DCBD que permite descubririnformación oculta y útil para la toma de decisiones entre grandes vo-lúmenes de datos, según Cabena et al. (1997), Fayyad et al. (1996a) yHan y Kamber (2001). La tarea de Reglas de Asociación ha sido siem-pre un centro de gran atención, importancia e investigación en el áreade minería de datos, afirman Fayyad (1996b) y Hernández, Ramírez yFerri (2004). Esta fue formulada por Agrawal, Imielinski y Swami (1993)y a menudo se referencia como el problema de canasta de mercado(market-basket). La entrada del problema consiste de un conjunto deítems y una colección de transacciones que son subconjuntos de ellos.La tarea es encontrar relaciones entre los ítems de esas transacciones.La formalización de este problema es encontrar reglas de asociaciónque cumplan unas especificaciones mínimas dadas por el usuario,expresadas en forma de soporte y confianza. Un conjunto de ítems, sedenomina frecuente si su soporte excede un umbral dado.Todo el rendimiento de generar reglas de asociación es determinadopor el cálculo de los conjuntos de ítems frecuentes. Una vez identifi-cados los conjuntos frecuentes, las correspondientes reglas de aso-ciación pueden ser derivadas de una manera directa, de acuerdo conAgrawal, Imielinski y Swami (1993) y Savasere, Omiecinski y Navathe(1995). La investigación en este campo se ha centrado en diseñaralgoritmos eficientes para encontrar los conjuntos frecuentes: Apriori64
    • Universidad de Manizales Facultad de Ciencias e Ingeniería(Agrawal y Srikant, 1994), Standing for Direct Hashing and PruningDHP (Park, Chen y Yu, 1995), Dynamic Ítemset Counting DIC (Brinet al., 1997), FP-growth (Han y Pei (2000) y Han, Pei y Yin (2000)),entre otros.Para el cálculo de los itemsets frecuentes, los algoritmos Apriori, DHPy DIC se basan en la generación de itemsets candidatos. El algoritmoFP-growth encuentra los itemsets frecuentes sin generar conjuntos deítems candidatos. El algoritmo FP-growth construye un árbol denomi-nado FP-tree para calcular los itemsets frecuentes.En este artículo se propone el algoritmo EquipAsso, algoritmo queencuentra directamente los conjuntos de ítems frecuentes sin la gene-ración de conjuntos candidatos, utilizando los operadores algebraicosrelacionales EquiKeep y Associator, presentados por Timarán, Millány Machuca (2003).Para cada tupla de una relación, el operador algebraico Associator gene-ra todas las posibles combinaciones (conjuntos de ítems) de los valoresde los atributos de esa tupla, de tamaños diferentes, determinados pordos parámetros: tamaño inicial y tamaño final. A pesar de que generartodas las posibles combinaciones de los valores, para cada tupla deuna relación, es un proceso computacionalmente costoso, Associatorlo hace en una sola pasada sobre la base de datos.El operador algebraico EquiKeep, restringe los valores de los atributosde cada una de las tuplas de una relación a, únicamente, aquellos quesatisfacen una expresión lógica. El resto de los valores se vuelven nulos.Una vez calculados los conjuntos de ítems frecuentes de tamaño uno,EquipAsso utiliza el operador EquiKeep para dejar, en cada registro dela relación, únicamente éstos conjuntos de ítems. Posteriormente, utilizael operador Associator para generar, por cada tupla de la relación, todoslos conjuntos de ítems posibles de tamaño 2 hasta máximo el gradode la relación. Estos conjuntos se agrupan y se cuentan, restringiendola relación a únicamente aquellos que cumplan un soporte mínimo. Deesta manera se calculan todos los conjuntos de ítems frecuentes.La ventaja del algoritmo con respecto a los demás, es que al basarseen nuevos operadores algebraicos relacionales facilita su integraciónal interior de cualquier SGBD, acoplando la tarea de Asociación deuna manera fuerte, según Timarán (2001). Debido a que es ejecutadoconjuntamente con los datos en el SGBD, tiene la ventaja potencial deresolver los problemas de escalabilidad y rendimiento de las arquitec-turas débilmente acopladas y facilita la aplicación de técnicas de opti-mización de consultas, de acuerdo con Sarawagi, Thomas y Agrawal(1998) y (2000). Al implementarse EquipAsso con nuevas primitivas 65
    • Nº 25 - julio - diciembre / 2011SQL permite la realización de consultas de minería de datos ad hoc yel desarrollo de aplicaciones en esta área.El resto del artículo está organizado en secciones. En la sección 1, seda el marco teórico necesario para la implementación del algoritmoEquipAsso. En la sección 2, se describe dicho algoritmo y su implemen-tación en el lenguaje SQL. En la sección 3, se muestran las pruebasde rendimiento del algoritmo EquipAsso con respecto a los algoritmosApriori y FP-growth. Finalmente, en la sección 4, se presentan las con-clusiones y futuros trabajos. 1. Conceptos preliminares1.1 Reglas de asociaciónLas asociaciones persiguen patrones en los que la presencia de algoimplica la presencia de algo más. Dado una base de datos de ventas,se desea descubrir las asociaciones importantes entre ítems tal que lapresencia de algún ítem en una transacción implicara la presencia deotros ítems en la misma transacción. El modelo matemático fue pro-puesto por Agrawal et al. (1993), para afrontar el problema de encontrarreglas de asociación.Formalmente, sea I = {i1, i2, ...,im} un conjunto de literales, llamados ítems.Sea D un conjunto de transacciones, donde cada transacción T es unconjunto de ítems tal que T⊆I. Las cantidades de ítems comprados enuna transacción no son considerados, lo que significa que cada ítemes una variable binaria representando si un ítem fue comprado o no.Cada transacción se asocia con un identificador, llamado TID. Sea Xun conjunto de ítems. Se dice que una transacción T contiene a X siy solo si X⊆T. Una regla de asociación es una implicación de la formaX⇒Y, donde X y Y son conjuntos de ítems tal que X⊆I, Y ⊆I y X∩Y=f.El significado intuitivo de tal regla es que las transacciones de la basede datos que contienen X tienden a contener Y. La regla X⇒Y se cum-ple en el conjunto de transacciones D con una confianza c si el c% delas transacciones en D que contienen X también contienen Y. La reglaX⇒Y tiene un soporte s en el conjunto de transacciones D si el s% delas transacciones en D contienen X∪Y.La confianza denota la fuerza de la implicación y el soporte indica lafrecuencia de ocurrencia de los patrones en la regla. Es a menudodeseable poner atención solamente a esas reglas que pueden tenerrazonablemente un soporte largo. Tales reglas con una confianza altay soporte fuerte son referidas como reglas fuertes (strong rules) porAgrawal et al. (1993). La tarea de encontrar reglas de asociación es66
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaesencialmente para descubrir reglas de asociaciones fuertes en gran-des bases de datos. Agrawal et al. (1993) y Agrawal y Srikant (1994),consideran que el problema de minar reglas de asociación es encon-trar todas las reglas de asociación que satisfagan un soporte mínimoespecificado por el usuario y una mínima restricción de confianza. Elproblema se descompone en los siguientes pasos:- Descubrir los conjuntos de ítems frecuentes, por ejemplo, el conjunto de ítems que tienen el soporte de transacciones por encima de un predeterminado soporte s mínimo.- Usar los conjuntos de ítems frecuentes para generar las reglas de asociación para la base de datos.Después de que los conjuntos de ítems frecuentes son identificados,las correspondientes reglas de asociación se pueden derivar de unamanera directa.Un uso clásico de asociaciones es el análisis de la canasta de mercado,en donde la asociación es una lista de afinidades de productos. Porejemplo, observar las compras de los clientes en un supermercado,puede generar una regla: ‘el 30% de las transacciones que contienencerveza también contienen pañales; el 2% de todas las transaccionescontienen a ambos ítems’. Aquí el 30% es la confianza de la regla y el2%, el soporte de la regla, según Agrawal et al. (1996).Otras aplicaciones de reglas de asociación son los análisis de deman-das médicas para determinar procedimientos médicos que se realizanya sea al mismo tiempo o a lo largo de un periodo de tiempo para undiagnóstico en particular. También se aplican para el análisis de textos,diseño de catálogos, segmentación de clientes basado en patrones decompra, en mercadeo, entre otros.1.2 Operadores algebraicos para asociaciónPara lograr eficiencia en las operaciones de minería de datos, un nuevooperador algebraico debe facilitar los procesos de minería de datos com-putacionalmente más costosos. Los operadores algebraicos propuestospor Timarán, Millán y Machuca (2003), con los que se extiende el álgebrarelacional facilitan este proceso y los cuales se describen a continuación.1.2.1 Operador Asociator (α). Associator es un operador algebraicounario que a diferencia del operador Selección o Restricción (σ), aumen-ta la cardinalidad de una relación. Associator genera, a partir de cadatupla de una relación, todas las posibles combinaciones de los valoresde sus atributos, como tuplas de una nueva relación, conservando elesquema de la relación inicial, acorde con Timarán, Millán y Machuca(2003). Su sintaxis es la siguiente: 67
    • Nº 25 - julio - diciembre / 2011 α tamaño_inicial, tamaño_final(R)Donde <tamaño_inicial> y <tamaño-final> son dos parámetrosde entrada que determinan el tamaño inicial y tamaño final de lascombinaciones.El operador Associator genera, por cada tupla de la relación R, todossus posibles subconjuntos (conjuntos de ítems) de diferente tamaño.Associator toma cada tupla t de R y dos parámetros: <tamaño_inicial> y<tamaño_final> como entrada, y retorna, por cada tupla t, las diferentescombinaciones de atributos Xi, de tamaño <tamaño_inicial> hasta tama-ño <tamaño_final>, como tuplas en una nueva relación. El orden de losatributos en el esquema de R determina los atributos en los subconjuntoscon valores, el resto se hacen nulos. El tamaño máximo de un conjuntode ítems y por consiguiente el tamaño final máximo (<tamaño_final>)que se puede tomar como entrada es el correspondiente al valor delgrado de la relación.Formalmente, sea A={A1, ..., An} el conjunto de atributos de la re-lación R de grado n y cardinalidad m, IS y ES el tamaño inicial yfinal respectivamente de los subconjuntos a calcular . El operadorα aplicado a RαIS, ES(R)={∪all XiXi⊆ti,ti∈R,∀i ∀k(Xi=<vi(A1),vi(A2),null, ...,vi(Ak), null>,vi(Ak)<>null), (i≤(2n -1)*m), (k=IS ..ES), A1<A2< ...<Ak, IS≥1, ES≤n}produce una nueva relación cuyo esquema R(A) es el mismo de Rde grado n y cardinalidad m’≤(2n -1) * m y cuya extensión r(A) estáformada por todos los subconjuntos Xi generados a partir de todas lascombinaciones posibles de los valores no nulos vi(Ak) de los atributosde cada tupla ti de R. En cada tupla Xi únicamente un grupo de atributosmayor o igual que IS y menor o igual que ES tienen valores, los demásatributos se hacen nulos.A pesar de que generar todas las posibles combinaciones de los valores,para cada tupla de una relación, es un proceso computacionalmentecostoso, Associator lo hace en una sola pasada sobre la base de datos.Associator facilita el cálculo de conjuntos de ítems frecuentes para eldescubrimiento de reglas de asociación multidimensionales, según Hany Kamber (2001).Ejemplo 1. Sea la relación R(A, B, C, D) de la tabla 1. Encontrar lasdiferentes combinaciones de tamaño 2 hasta tamaño 4, es decir R1=α2,4(R).68
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Tabla 1. Relación R A B C D a1 b1 c1 d1 a1 b2 c1 d2El resultado del operador Associator R1=α2,4(R) se muestra en la tabla 2. Tabla 2. Resultado operación R1=α2,4(R) A B C D a1 b1 null null a1 null c1 null a1 null null d1 null b1 c1 null null b1 null d1 null null c1 d1 a1 b1 c1 null a1 b1 null d1 a1 null c1 d1 null b1 c1 d1 a1 b1 c1 d1 a1 b2 null null a1 null c1 null a1 null null d2 null b2 c1 null null b2 null d2 null null c1 d2 a1 b2 c1 null a1 b2 null d2 a1 null c1 d2 null b2 c1 d2 a1 b2 c1 d21.2.2 Operador EquiKeep (χ). EquiKeep es un operador unario, quese asemeja a la Selección o Restricción por tener una expresión lógicaque evaluar sobre una relación R, y conserva su esquema. Se diferen-cia de la Restricción (s) en que en lugar de aplicar la condición a lasfilas (tuplas) de la relación, EquiKeep aplica la expresión lógica a lascolumnas (atributos) de R, es decir restringe los valores de los atribu-tos de cada una de las tuplas de la relación R, a únicamente aquellosque satisfacen una condición determinada, haciendo nulos al resto devalores y conserva el esquema de la relación, según Timarán, Millán yMachuca (2003). Su sintaxis es la siguiente: 69
    • Nº 25 - julio - diciembre / 2011 χexpresión_lógica(R)Donde <expresión lógica> es la condición que deben cumplir los valoresde los atributos de la relación R para no hacerse nulos.El operador EquiKeep, restringe los valores de los atributos de cadauna de las tuplas de la relación R a únicamente los valores de los atri-butos que satisfacen una expresión lógica <expresión_lógica>, la cualestá formada por un conjunto de cláusulas de la forma Atributo=Valor,conectivos lógicos AND, OR y NOT. En cada tupla, los valores de losatributos que no cumplen la condición <expresión_lógica> se hacennulos. EquiKeep elimina las tuplas vacías, es decir, aquellas tuplas enlas cuales los valores de todos sus atributos son nulos.Formalmente, sea A= {A1,..., An} el conjunto de atributos de la relaciónR de esquema R(A), de grado n y cardinalidad m. Sea p una expresiónlógica integrada por cláusulas de la forma Ai = const, unidas por losoperadores booleanos AND (^), OR (v), NOT (¬). El operador c aplicadoa la relación R con la expresión lógica p:χp(R)={ti(A)|∀i∀j(p(vi(Aj))=vi(Aj) si p =true y p(vi(Aj))= null si p=false),i=1..m’, j=1..n, m’≤m}produce una relación de igual esquema R(A) de grado n y cardinalidadm’, donde m’≤m. En su extensión, cada n-tupla ti, está formada por losvalores de los atributos de R, vi(Aj), que cumplan la expresión lógica p,es decir p(vi(Yj)) es verdadero, y por valores nulos si p(vi(Yj)) es falso.EquiKeep optimiza el trabajo del operador Associator en el cálculo deconjuntos de ítems frecuentes en la tarea de Asociación, al disminuirel número de combinaciones.Ejemplo 2. Sea la relación R(A, B, C, D) de la tabla 3.Restringir los valores de los atributos A=a1, B=b1, C=c2 y D=d1, esdecir, R1=χ A=a1 v B=b1 v C=c2 v D=d1 (R). Tabla 3. Relación R A B C D a1 b1 c1 d1 a1 b2 c1 d2 a2 b2 c2 d2 a2 b1 c1 d1 a2 b2 c1 d2 a1 b2 c2 d1El resultado del operador EquiKeep R1=c A=a1 v B=b1 v C=c2 v D=d1 (R) semuestra en la tabla 4.70
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Tabla 4. Operación R1=c A=a1 v B=b1 v C=c2 v D=d1 (R) A B C D a1 b1 null d1 a1 null null null null null c2 null null b1 null d1 null null null null a1 null c2 d1En este ejemplo, la tupla {a2, b2, c1, d2} es eliminada por resultar todossus valores nulos.1.3 Primitivas SQL para asociaciónLos operadores algebraicos Associator y EquiKeep extienden el álge-bra relacional para soportar la tarea de minería de datos Asociación.Con el fin de que estos operadores se puedan expresar en el lenguajeSQL, es necesario implementarlos como primitivas SQL. De esta for-ma, consideran Timarán, Millán y Machuca (2003), el lenguaje SQLserá capaz de soportar eficientemente el descubrimiento de reglasde Asociación.1.3.1 Primitiva Associator Range. Esta primitiva implementa el ope-rador algebraico Associator en la cláusula SQL SELECT. Associatorpermite obtener por cada tupla de una tabla, todos los posibles sub-conjuntos desde un tamaño inicial hasta un tamaño final determinadopor la cláusula RANGE, de acuerdo con Timarán, Millán y Machuca(2003).Dentro de la cláusula SELECT, la primitiva Associator Range tiene lasiguiente sintaxis:SELECT <ListaAtributosTablaDatos> [INTO<NombreTablaAssociator>]FROM <NombreTablaDatos>WHERE <CláusulaWhere>ASSOCIATOR RANGE <valor1> UNTIL<valor2>GROUP BY <ListaAtributosTablaDatos><ListaAtributosTablaDatos>::=Atributo>,<ListaAtributos><ListaAtributos>::=<Atributo>,<ListaAtributos><ListaAtributos>::=<Atributo><valor1>::=1,2,3, 4 ..<valor2>::=1,2,3,4 ... 71
    • Nº 25 - julio - diciembre / 2011Donde:- La cláusula SELECT <ListaAtributosTablaDatos> permite seleccio- nar los atributos de la tabla de datos <NombreTablaDatos> cuyos valores formarán los diferentes subconjuntos o conjuntos de ítems como tuplas de la nueva tabla <NombreTablaAssociator>.- La cláusula INTO <NombreTablaAssociator> define el nombre de la tabla <NombreTablaAssociator> donde se almacenarán los resulta- dos de ASSOCIATOR RANGE con los atributos especificados en la cláusula SELECT <ListaAtributosTablaDatos> como esquema. Si no se especifica la cláusula INTO, el resultado se almacenará en una tabla temporal como sucede normalmente en el lenguaje SQL.- La cláusula FROM <NombreTablaDatos> WHERE <CláusulaWhere> determina el nombre de la tabla <NombreTablaDatos> de donde se extraerá el conjunto de tuplas que cumplan las restricciones de la <CláusulaWhere> para formar las diferentes combinaciones o con- juntos de ítems.- La cláusula ASSOCIATOR RANGE <número1> UNTIL <número2> determina el tamaño inicial hasta el final de los diferentes subcon- juntos o conjuntos de ítems que formará el operador Associator.- La cláusula GROUP BY <ListaAtributosTablaDatos> agrupa la tabla <NombreTablaDatos> por los atributos especificados en <ListaAtributosTablaDatos>.Ejemplo 3. Sea la tabla Estudiantes (PROGRAMA, EDAD, SEXO,ESTRATO, PROMEDIO) de la tabla 5, obtener los conjuntos de ítemsfrecuentes de tamaño 2 y 3 que cumplan con un soporte mínimo mayoro igual a 2. Tabla 5. Tabla EstudiantesPrograma Edad Sexo Estrato PromedioSistemas 16..20 M 2 Medio altoIdiomas 21..25 F 3 RegularSistemas 16..20 F 3 RegularFísica 21..25 M 2 BajoSistemas 21..25 F 2 AltoDerecho 25..30 F 1 BajoLos conjuntos de ítems frecuentes se obtienen con la siguiente sen-tencia SQL:SELECT programa,sexo, estrato, count(*) AS soporte INTOassostudent72
    • Universidad de Manizales Facultad de Ciencias e IngenieríaFROM estudiantesASSOCIATOR RANGE 2 UNTIL 3GROUP BY programa,sexo,estrato HAVING count(*)>=2El proceso de obtención del resultado final se muestra en las tablas 6 y 7. Tabla 6. Resultado primitiva Associator Range 2 until 3 Programa Sexo Estrato Soporte Sistemas F 2 Sistemas M 1 Sistemas F 2 1 Sistemas F 3 1 Sistemas M 2 1 Sistemas 2 2 Sistemas 3 1 Idiomas F 1 Idiomas F 3 1 Idiomas 3 1 Física M 1 Física 2 1 Física M 2 1 Derecho F 1 Derecho 1 1 Derecho F 1 1 F 1 1 F 2 1 M 2 2 F 3 2 Tabla 7. Assostudent con el conjunto de Ítems frecuentes Programa Sexo Estrato Soporte Sistemas F 2 Sistemas 2 2 F 3 2 M 2 21.3.2 Primitiva Equikeep On. Esta primitiva implementa el operadoralgebraico EquiKeep en la cláusula SQL SELECT. EquiKeep On con-serva en cada registro de una tabla los valores de los atributos quecumplen una condición determinada. El resto de valores de los atributosse hacen nulos.Dentro de la cláusula SELECT, EquiKeep On tiene la siguientesintaxis: 73
    • Nº 25 - julio - diciembre / 2011SELECT <ListaAtributosTablaDatos> [INTO <NombreTablaEquiKeep>]FROM <NombreTablaDatos>WHERE <CláusulaWhere>EQUIKEEP ON <CondiciónValoresAtributos ><ListaAtributosTablaDatos>::=<Atributo>, <ListaAtributos><ListaAtributos>::=<Atributo>, <ListaAtributos><ListaAtributos>::=<Atributo><CondiciónValoresAtributos>::=<Atributo=Valor><operador><ListaCondición><CondiciónValoresAtributos>::=<Atributo><operador><(Listavalores)>,<ListaCondición><ListaCondición>::=<Atributo=Valor><ListaCondición>::=<Atributo><operador><(Listavalores)><operador>::=AND,OR,NOT,IN<Listavalores>::=1,2,3, 4 ...<Valor>::=1,2,3, 4 ...Donde:- La cláusula SELECT <ListaAtributosTablaDatos> permite seleccionar los atributos de la tabla de datos <NombreTablaDatos> cuyos valores se conservarán si cumplen la condición <CondiciónValoresAtributos>, especificada en la primitiva EquiKeep On.- La cláusula INTO <NombreTablaEquiKeep> define el nombre de la tabla <NombreTablaEquiKeep> donde se almacenarán los resulta- dos de EquiKeep On con los atributos <ListaAtributosTablaDatos> como esquema. Si no se especifica la cláusula INTO, el resultado se almacenará en una tabla temporal.- La cláusula FROM <NombreTablaDatos> WHERE <CláusulaWhe- re> determina el nombre de la tabla de datos <NombreTablaDatos> con el conjunto de registros que cumplan las restricciones de la <CláusulaWhere>.- La primitiva EQUIKEEP ON <CondiciónValoresAtributos> conserva los valores de los atributos de <ListaAtributosTablaDatos> que cum- plan la condición especificada en <CondiciónValoresAtributos>. El resto de valores de los atributos se hacen nulos.Ejemplo 4. Sea la tabla Estudiantes (PROGRAMA, EDAD, SEXO, ES-TRATO, PROMEDIO) de la tabla 5. Eliminar de la tabla Estudiantes losconjuntos de ítems tamaño 1 que no cumplan con el soporte mínimo74
    • Universidad de Manizales Facultad de Ciencias e Ingenieríamayor o igual a 2, teniendo en cuenta que el conjunto de ítems frecuen-tes tamaño 1 son {sistemas: 3}, {F: 4}, {M: 2}, {2:3} y {3:2}La sentencia SQL que permite obtener esta consulta utilizando la pri-mitiva EquiKeep On es la siguiente:SELECT programa,sexo, estrato INTO equistudentFROM estudiantesEQUIKEEP ON programa=”Sistemas”, sexo in (F, M), estrato in (2,3)El resultado final se muestra en la tabla 8. Tabla 8. Equistudent con el resultado de la primitiva Equikeep On Programa Sexo Estrato Sistemas M 2 Sistemas F 3 Sistemas F 2 Idiomas F 3 Física M 2 2. Algoritmo EquipAssoEquipAsso es un algoritmo que se basa en los operadores del álge-bra relacional Associator y EquiKeep, aseguran Timarán, Millán yMachuca (2003) para el cálculo de conjuntos de ítems frecuentes.Este hecho facilita su integración al interior de cualquier SGBD,acoplando la tarea de Asociación de una manera fuerte y favorecela aplicación de técnicas de optimización de consultas para mejorarsu rendimiento.2.1 Descripción del algoritmo EquipAssoEn el primer paso del algoritmo se cuenta el número de ocurrencias decada ítem para determinar los 1-conjuntos de ítems frecuentes L1. Enel subsiguiente paso, se aplica el operador EquiKeep para extraer detodas las transacciones en D, los conjuntos de ítems frecuentes tamaño1, haciendo nulos el resto de valores. Luego, a la relación resultante R,se aplica el operador Associator para generar todos los conjuntos deítems tamaño 2 (Is = 2) hasta máximo tamaño n, donde n es el gradode R. Finalmente, se calculan todos los conjuntos de ítems frecuentesL, contando el soporte de las diferentes combinaciones generadas porAssociator en la relación R1. En la figura 1 se muestra el algoritmoEquipAsso. 75
    • Nº 25 - julio - diciembre / 20112.2 Implementación del algoritmo EquipAsso en SQLLa figura 1 muestra el algoritmo SQL-EquipAsso. Utilizando las primi-tivas SQL que implementan los operadores algebraicos Equikeep yAssociator, el algoritmo EquipAsso de la tabla 9, se implementa en ellenguaje SQL en la cláusula SELECT conjuntamente con las primitivasEquikeep On y Associator Range. Figura 1. Algoritmo EquipAsso y Algoritmo SQL-EquipAssoLa ventaja de esta implementación es que facilita su integración al inte-rior de cualquier SGBD, acoplando la tarea de Asociación de una manerafuerte, según Timarán (2001). Debido a que el algoritmo es ejecutadoconjuntamente con los datos en el SGBD, la ventaja potencial de esteenfoque es que resuelve los problemas de escalabilidad y rendimientode las arquitecturas débilmente acopladas y facilita la aplicación detécnicas de optimización de consultas. Al implementarse este algoritmocon primitivas SQL permite la realización de consultas de minería dedatos ad hoc y el desarrollo de aplicaciones en esta área. Tabla 9. Resultado primitiva Equikeep OnPrograma Sexo EstratoSistemas M 2Sistemas F 3Sistemas F 2Idiomas F 3Física M 276
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEjemplo 5. Sea la tabla Estudiantes (PROGRAMA, EDAD, SEXO,ESTRATO, PROMEDIO) de la tabla 5. Con el algoritmo EquipAsso,obtener los conjuntos de ítems frecuentes de tamaño 2 y 3 que cum-plan con un soporte mínimo mayor o igual a 2, teniendo en cuentaque el conjunto de ítems frecuentes tamaño 1 son {sistemas: 3}, {F:4}, {M: 2}, {2:3} y {3:2}.El algoritmo SQL-EquipAsso que permite obtener esta consulta utili-zando conjuntamente las primitivas EquiKeep On y Associator Rangees la siguiente:SELECT programa,sexo, estrato INTO equistudentFROM estudiantesEQUIKEEP ON programa=”Sistemas”, sexo in (F, M), estrato in (2,3)ASSOCIATOR RANGE 2 UNTIL 3GROUP BY programa,sexo,estrato HAVING count(*)>=2El proceso de obtención del resultado final se muestra en las tablas 9,10 y 11. Tabla 10. Resultado primitiva Associator Range 2 until 3 Programa Sexo Estrato Soporte Sistemas F 2 Sistemas M 1 Sistemas F 2 1 Sistemas F 3 1 Sistemas M 2 1 Sistemas 2 2 Sistemas 3 1 F 2 1 M 2 2 F 3 2 Tabla 11. Resultado final de EquipAsso Programa Sexo Estrato Soporte Sistemas F 2 Sistemas 2 2 F 3 2 M 2 2Comparando las tablas 6 y 11 se nota que la primitiva Equikeep Ondisminuye el número de combinaciones que realiza Associator Range. 77
    • Nº 25 - julio - diciembre / 2011Con grandes volúmenes de datos esta disminución es supremamenteimportante para el rendimiento del algoritmo EquipAsso. 3. Evaluación de rendimiento del algoritmo EquipAssoDebido a que no es posible implementar en SQL el resto de algoritmosde Asociación y con el fin de comparar el rendimiento del algoritmo Equi-pAsso, con respecto al rendimiento de los algoritmos Apriori (Agrawaly Srikant, 1994) y FP-growth (Han y Pei, 2000 y Han, Pei y Yin, 2000),estos se implementaron en una herramienta para minería de datosdébilmente acoplada con el SGBD PostgreSQL denominada TaryKDD(Timarán et al., 2008).El conjunto de datos utilizados en las pruebas pertenecen a lastransacciones de uno de los supermercados más importantes deldepartamento de Nariño (Colombia) durante un periodo determinado.El conjunto de datos contiene 10.757 diferentes productos. Los con-juntos de datos utilizados con la herramienta TariyKDD se muestranen la tabla 12. Tabla 12. Conjunto de datos pruebas Nomenclatura Número de registros Número de transacciones Promedio de ítems BD85KT7 555.123 85.692 7 BD40KT5 197.337 40.256 5Las pruebas consistieron en evaluar el rendimiento de los algoritmosApriori, FP-Growth y EquipAsso, comparando los tiempos de respuestapara diferentes soportes mínimos. Los resultados de la evaluación deltiempo de ejecución de estos algoritmos, aplicados a los conjuntos dedatos BD85KT7 y BD40KT5, se pueden observar en las tablas 13, 14y la figura 2. Tabla 13. Rendimiento algoritmos para el conjunto de datos BD85KT7 Tiempo (ms) Soporte (%) A priori FP-Growth EquipAsso 4.15 750 166 85 4.75 362 162 82 5.35 365 164 83 5.95 365 162 83 6.55 120 159 8078
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Tabla 14. Rendimiento algoritmos para el conjunto de datos BD40KT5 Tiempo (ms) Soporte (%) Apriori FP-Growth EquipAsso 1.90 268 66 29 2.00 265 64 29 2.10 132 63 27 2.20 45 61 27 2.30 44 61 27Figura 2. Rendimiento algoritmos para los conjuntos de datos BD85KT7 y BD40KT5En general, observando el comportamiento de los algoritmos FP-Growthy EquipAsso con los diferentes conjuntos de datos, se puede decir quesu rendimiento es similar, contrario al tiempo de ejecución de Apriori, quese ve afectado significativamente a medida que se disminuye el soporte. 4. Conclusiones y trabajos futuros• Actualmente se cuenta con un algoritmo que permite calcular los conjuntos de ítems frecuentes en la tarea de Asociación sin generar conjuntos candidatos. Este algoritmo denominado EquipAsso genera el conjunto de ítems frecuentes directamente en cada tupla de una relación ya que se basa para su cálculo en dos operadores del ál- gebra relacional para minería de datos: Associator y EquiKeep. Esto facilita la integración fuerte de la tarea de Asociación con un Sistema de Gestión de Bases de Datos, al extender el lenguaje SQL con las primitivas Associator Range y EquiKeep On que implementan estos 79
    • Nº 25 - julio - diciembre / 2011 operadores y favorece la aplicación de técnicas de optimización de consultas para mejorar su rendimiento.• Como resultado de las pruebas realizadas, se puede observar que los algoritmos EquipAsso y FP-Growth tienen tiempos de ejecución semejantes. Con respecto a Apriori se puede apreciar que a medida que se disminuye el soporte sus tiempos de ejecución se incremen- tan hasta llegar a límites incomparables con respecto a EquipAsso y FP-Growth.• Para soportes bajos, donde la cantidad de itemsets frecuentes aumen- ta y lo mismo su tamaño, EquipAsso tuvo un mejor desempeño que FP-Growth. En soportes altos, no existe una diferencia representativa entre el rendimiento de los algoritmos FP-Growth y EquipAsso.• En la herramienta TariyKDD, el algoritmo EquipAsso, aunque pre- senta mejores tiempos de ejecución, consume más recursos del sistema, en especial la memoria principal.• El rendimiento de cualquier algoritmo de minería de datos en una herramienta débilmente acoplada con un SGBD depende de la cantidad de memoria RAM disponible. Con grandes volúmenes de datos, el rendimiento de estos sistemas se ve afectado y es posible que se llegue a desbordar la memoria.• Como trabajos futuros están el evaluar el rendimiento del algoritmo EquipAsso, utilizando grandes volúmenes de datos, en el sistema gestor de bases de datos PostgreSQL en el cual ya se encuentra implementado y acoplado de una manera fuerte.80
    • Universidad de Manizales Facultad de Ciencias e Ingeniería BibliografíaAGRAWAL, R. and SRIKANT, R. (1994). Fast Algorithms for Mining Association Rules. In: The 20th International Conference on Very Large Data Bases – VLDB, (12-15/09/1994), Santiago de Chile (Chile): Morgan Kaufmann. Proceedings, p. 487-499. ISBN: 1-55860-153-8.AGRAWAL, R.; IMIELINSKI, T. and SWAMI, A. (1993). Mining Association Rules between Sets of Ítems in Large Databases. In: SIGMOD International Conference on Management of Data, (26-28/05/1993), Washington DC (USA): ACM. Proceedings, p. 207-216. ISBN: 0-89791-592-5AGRAWAL, R.; MANNILA, H.; SRIKANT, R.; TOIVONEN, H. and VERKAMO, A.I. (1996). Fast Discovery of Association Rules. In: Advances in Knowledge Discovery and Data Mining. Menlo Park (USA): AAAI Press / The MIT Press. 595 p. ISBN: 0-262-56097-6.BRIN, S.; MOTWANI, R.; ULLMAN, J. and TSUR S. (1997). Dynamic Ítemset Counting and Implica- tion Rules for Market Basket Data. In: SIGMOD International Conference on Management of Data, (11-15/05/1997), Tucson (USA): ACM. Proceedings, p. 255-264. ISBN: 0-89791-911-4.CABENA, P.; HADJINIAN, P.; STADLER, R.; VERHEES, J. and ZANASI, A. (1997). Discovering Data Mining from Concept to Implementation. New York (USA): Prentice Hall. 224 p. ISBN: 978-0137439805.CHEN, M.; HAN, J. and YU, P. (1996). Data Mining: An Overview from Database Perspectiva. In: Journal IEEE Transactions on Knowledge Data Engineering. Vol. 8, No. 6 (dec.). New Jersey (USA): IEEE Educational Activities Department Piscataway. p. 866-883. ISSN: 1041-4347.FAYYAD, U.; PIATETSKY-SHAPIRO, G. and SMYTH, P. (1996a). From Data Mining to Knowledge Discovery: An Overview. In: Advances in Knowlege Discovery and Data Mining. Menlo Park (USA): AAAI Pres/ The MIT Press. 595 p. ISBN: 0-262-56097-6.FAYYAD, U.; PIATETSKY-SHAPIRO, G. and SMYTH, P. (1996b). The KDD Process for Extracting Useful Knowledge from Volumes of Data. En: Communications of the ACM. Vol. 39, No 11 (nov.). New York, NY (USA): ACM. p. 27-34. ISSN: 0001-0782.HAN, J. and KAMBER, M. (2001). Data Mining: Concepts and Techniques. San Diego (USA): Morgan Kaufmann Publishers Inc. 745 p. ISBN: 978-1-55860-901-3.HAN, J.; PEI, J. and YIN, Y. (2000). Mining Frequent Patterns without candidate Generation. En: SIGMOD International Conference on Management of Data, (16-18/05/2000), Dallas (USA): ACM. Proceedings, p. 1-12. ISBN: 1-58113-218-2.HAN, L. and PEI, J. (2000). Mining Frequent Patterns by Pattern-Growth: Methodology and Im- plications, En: SIGKDD Explorations. Vol 2, No. 2 (dec.). New York (USA): ACM. p. 14-20. ISSN: 1931-0145HERNÁNDEZ, O.J.; RAMIREZ, Q. M. y FERRI, R.C. (2004). Introducción a la Minería de Datos. Madrid (España): Pearson Prentice Hall. 656 p. ISBN: 84-205-4091-9.IMIELNSKI, T. and MANNILA, H. (1996). A Database Perspective on Knowledge Discovery. En: Communications of the ACM. Vol. 39, No.11 (nov.): New York (USA): ACM. p. 58-64. ISSN: 0001-0782.PARK, J.S.; CHEN, M. and YU, P. (1995). An Effective Hash-Based Algorithm for Mining Associa- tion Rules. In: SIGMOD International Conference on Management of Data, (22-25/05/1995), San José (USA): ACM. Proceedings, p. 175-186. ISBN: 0-89791-731-6.SARAWAGI, S.; THOMAS, S. and AGRAWAL, R. (1998). Integrating Association Rule Mining with Relational Database Systems: Alternatives and Implications, In: SIGMOD International Conference on Management of Data, (02-05/06/1997), Seattle (USA): ACM. Proceedings, p. 343-354. ISBN: 0-89791-995-5.SARAWAGI, S.; THOMAS, S. and AGRAWAL, R. (2000). Integrating Association Rule Mining with Relational Database Systems: Alternatives and Implications. In: Data Mining and Knowledge Discovery. Vol. 4, No. 2-3 (jul.): Hingham (USA): Springer. p. 89-125. ISSN: 1384-5810.SAVASERE, A.; OMIECINSKI, E. and NAVATHE, S. (1995). An Efficient Algorithm for Mining Association Rules in Large Databases. In: The 21th International Conference on Very Large Data Bases – VLDB, (11-15/09/1995), Zurich (Switzerland): Morgan Kaufmann. Proceedings, p. 432-444. ISBN: 1-55860-379-4.TIMARÁN, R. (2001). Arquitecturas de Integración del Proceso de Descubrimiento de Conocimiento con Sistemas de Gestión de Bases de Datos: un Estado del Arte. En: Revista Inge- 81
    • Nº 25 - julio - diciembre / 2011 niería y Competitividad, Vol. 3, No. 2 (dic.). Cali (Colombia): Universidad del Valle. ISSN 0123-3033.TIMARÁN, R.; CALDERÓN, A.; RAMÍREZ, I.; ALVARADO, J. y GUEVARA, F. (2008). TariyKDD una Herramienta de Minería de Datos Débilmente Acoplada con un SGBD. En: VII Jornadas Iberoamericanas de Ingeniería del Software e Ingeniería del Conocimiento - JIISIC, (30- 1/02/2008), Guayaquil (Ecuador): Escuela Superior Politécnica del Litoral. Memoria Técnica, p 3-11. ISSN No. 1390-292X.TIMARÁN, R.; MILLÁN, M. and MACHUCA, F. (2003). New Algebraic Operators and SQL Primi- tives for Mining Association Rules. In: IASTED International Conference Neural Networks and Computational Intelligence, (19-21/05/2003), Cancun (Mexico): The International Association of Science and Technology for Development. Proceedings, p. 227-232. ISBN: 0-88986-347-4.82
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Buses de campo y protocolos en redes industriales*1 [Fieldbus and protocols in industrial networks] César Augusto SALAZAR SERNA2 Luis Carlos CORREA ORTIZ3Recibo: 16.05.2011 - Ajuste: 07.06.2011 - Ajuste: 03.10.2011 - Aprobación: 10.12.2011 Resumen El presente artículo describe el funcionamiento de las redes industriales, sus componentes y principales protocolos. Ini- cialmente se muestra la pirámide CIM, que explica un orden jerárquico de comunicación por medio de los buses de campo y los elementos (sensores, actuadores, PLC) que componen una red industrial; a continuación se expone la introducción de Ethernet que ha tenido un grande impacto en la industria. Por último, se presenta una aplicación de un sistema SCADA, donde se identifican las ventajas que ofrecen las redes industriales y como pueden ser integradas con las redes de datos prestán- doles muchos beneficios a las compañías. La finalidad de este artículo es exponer la temática de las redes industriales como un espacio propicio para la investigación. Palabras clave: Bus de campo, CIM, Ethernet, OSI, SCADA.* Modelo para citación de este artículo de reflexión SALAZAR SERNA César Augusto y CORREA ORTIZ, Luis Carlos (2011). Buses de campo y Protocolos en redes industriales. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 83-109. ISSN: 0123-96781 Artículo proveniente del trabajo presentado por el primer autor, como opción de grado de la Especialización en Telecomunicaciones, de la Facultad de Ciencias e Ingeniería, Universidad de Manizales, bajo la asesoría del segundo.2 Ingeniero de Sistemas y Telecomunicaciones; Especialista en Telecomunicaciones. Analista de Sistemas, Universidad Jorge Tadeo Lozano. Bogotá (Colombia). Correo electrónico: ce- saraugustosalazar@hotmail.com3 Ingeniero Electrónico; MSc en Educación y Desarrollo Humano. Docente, Facultad de Ciencias e Ingeniería de la Universidad de Manizales. Manizales (Colombia). Correo electrónico: lcco@ umanizales.edu.co Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 83-109 83
    • Nº 25 - julio - diciembre / 2011 Abstract This paper describes the industrial networks operation, its main components and protocols. Initially CIM pyramid shown, that ex- plains a hierarchical communication order through field buses and elements (sensors, actuators PLC) that component an industrial network; below introduces Ethernet, a huge impact in industry. Finally, an application of a SCADA is presented; identifying the main advantages of industrial networks and how can be integrated with other networks, bringing many benefits to companies. The purpose of this paper is present the industrial networks as a future research subject. Keywords: CIM, Ethernet, Fieldbus, OSI, SCADA. IntroducciónLas comunicaciones industriales son aquellas que permiten el flujo deinformación del controlador4a los diferentes dispositivos a lo largo delproceso de producción: detectores, actuadores, sensores entre otros.Dada la gran variedad de sistemas de comunicación entre equiposindustriales, de los cuales la mayoría son cerrados, se ha optado porel desarrollo de un entorno que permita tanto la implementación deprotocolos de especificaciones conocidas en un sistema de comuni-cación completo, desde el medio físico hasta el nivel más alto de red,siguiendo un paralelismo; con el conocido modelo CIM (ComputerIntegrated Manufacturing). En la industria este concepto correspondea una estructura piramidal jerarquizada, produciéndose en la cúspidedecisiones de política empresarial. En la base lo que se pretende esque las denominadas islas de automatización (autómatas programables,máquinas de control numérico, robots) se integren en un sistema decontrol jerarquizado y distribuido que permita la conversión de decisio-nes de política empresarial; en operaciones de control de bajo nivel.Una de las principales tendencias en el entorno industrial actual esla migración hacia sistemas automatizados abiertos y totalmente es-pecializados. Sin duda alguna, uno de los principales factores que haimpulsado esta creciente tendencia ha sido la introducción de Etherneten el entorno industrial.Ethernet ha tenido un profundo impacto en la industria debido a suscapacidades para control de planta y datos de oficina, aportando a los4 Dispositivo con una salida que cambia, de una manera específica, para regular una variable de control.84
    • Universidad de Manizales Facultad de Ciencias e Ingenieríafabricantes una gran cantidad de ventajas que incluyen una integraciónmás fácil entre los sistemas de planta y de administración (desde eloperario a los gestores y clientes), y la posibilidad de utilizar una solainfraestructura de red para distintas funciones proporcionando la inte-gración completa del sistema productivo. 1. Pirámide CIMEn una red industrial las comunicaciones se agrupan jerárquicamenteen función de la información; cada subsistema debe tener comunicacióndirecta con los subsistemas del mismo nivel y los niveles superior einferior. Así aparecen cinco niveles (Figura 1) representados por mediode la pirámide CIM (Rodríguez, 2007).1.1 Nivel 0: nivel de proceso o de instrumentaciónEstá formado por elementos de medida (sensores) y mando (actuadorestales como motores, válvulas calentadores) distribuidos en una línea deproducción. Son los elementos más directamente relacionados con elproceso productivo ya que los actuadores son los encargados de eje-cutar las órdenes de los elementos de control para modificar el procesoproductivo, como característica los sensores y actuadores suelen serdispositivos que necesitan ser controlados por otros elementos. Figura 1.Pirámide CIM (Rodríguez, 2007)1.2 Nivel 1: nivel de campoEn este nivel se sitúan los elementos de mando y control capaces degestionar sensores y actuadores de nivel 0 como PLC de gama mediay baja, sistemas de control numérico, transporte automatizado, equi- 85
    • Nº 25 - julio - diciembre / 2011pos basados en microprocesadores como robots, tarjetas de control,proporcionando información de actuación al nivel 0 y de estado al nivel2. Los dispositivos de este nivel junto con el inferior poseen entidadsuficiente para realizar trabajos productivos por si mismos, poseyendounas buenas características de interconexión con el nivel superior ge-neralmente a través de buses de campo.1.3 Nivel 2: nivel de célulaEste nivel emite órdenes de ejecución al nivel 1y recibe situaciones deestado de dicho nivel, igualmente recibe los programas de producción ymantenimiento del nivel 3 realimentando dicho nivel con las incidenciasocurridas en la planta de producción. Las tareas generadas en el nivelsuperior de área o de fábrica se descomponen en un conjunto de ope-raciones más sencillas que se trasladan de forma sincronizada hacialos procesos de nivel inferior (almacenamiento y transporte fabricaciónensamblado control de calidad).1.4 Nivel 3: nivel de plantaEn este nivel se encuentran los dispositivos de control existentes enla planta; que son posible monitorearlos si existe un sistema capaz decomunicar estos elementos el cual está constituido por computadoreso sistemas de visualización como pantallas industriales, visualizándosecomo se está llevando el proceso de la planta, por medio de entornosSCADA (Supervisión Control y Adquisición de Datos), donde se mues-tran las posibles alarmas, fallos o alteraciones en cualquiera de losprocesos que se llevan a cabo.1.5 Nivel 4: nivel de fábricaEn este nivel se gestiona la producción completa de la empresa. Seencarga de comunicar distintas plantas, mantener relaciones con losproveedores y clientes, se emplean PC, estaciones de trabajo y servido-res, el volumen de información intercambiada es muy alto y los tiemposde respuesta no son críticos.El flujo de información existente en la pirámide debe ser: vertical,que incluye las órdenes enviadas por el nivel superior al inferior (des-cendente) y los informes sobre la ejecución de las órdenes recibidas(ascendente); y horizontal, en el cual debe existir un intercambio entreentidades del mismo nivel. 2. Buses de campoA finales de los ‘80 y sobre todo en los ‘90 aparecen en el mercadonuevas opciones de comunicación: los buses de campo. Un bus de86
    • Universidad de Manizales Facultad de Ciencias e Ingenieríacampo es un sistema de transmisión de información por un sólo cablede comunicación que simplifica enormemente la instalación y operaciónde máquinas y equipamientos industriales utilizados en el proceso deproducción.Debido a la falta de estándares, las compañías han desarrollado variassoluciones cada una de ellas con diferentes prestaciones y campos deaplicación. Se tiene una clasificación en los siguientes grupos:- Buses de alta velocidad y baja funcionalidad. Están diseñados para integrar dispositivos simples como finales de carrera, fotocélulas, relés y actuadores simples, funcionando en aplicaciones de tiempo real, y agrupados en una pequeña zona de la planta, típicamente una máquina. Básicamente comprenden las capas física y de enlace del modelo OSI5, es decir, señales físicas y patrones de bits de las tramas.- Buses de alta velocidad y funcionalidad media. Se basan en el diseño de una capa de enlace para el envío eficiente de bloques de datos de tamaño medio. Estos mensajes permiten que el dispositivo tenga mayor funcionalidad de modo que permite incluir aspectos como la configuración, calibración o programación del dispositivo. Son buses capaces de controlar dispositivos de campo complejos, de forma eficiente y a bajo costo. Normalmente incluyen la especificación completa de la capa de aplicación, lo que significa que se dispone de funciones utilizables desde programas basados en PC para acce- der, cambiar y controlar los diversos dispositivos que constituyen el sistema. Algunos incluyen funciones estándar para distintos tipos de dispositivos perfiles que facilitan la interoperabilidad de dispositivos de distintos fabricantes.- Buses de altas prestaciones. Son capaces de soportar comunica- ciones a nivel de todos los niveles de la producción CIM. Aunque se basan en buses de alta velocidad, algunos presentan problemas debido a la sobrecarga necesaria para alcanzar las características funcionales y de seguridad que se les exigen. La capa de aplicación tiene un gran número de servicios a la capa de usuario, habitual- mente un subconjunto del estándar MMS6. Entre sus características incluyen:5 OSI: Norma universal para protocolos de comunicación lanzado en 1984, propuesta por ISO y que divide las tareas de la red en siete niveles.6 MMS (Manufacturing Message Specification) define un protocolo de nivel de aplicación del modelo de referencia OSI (ISO/IEC 9506-1 y 9506-2). 87
    • Nº 25 - julio - diciembre / 2011 - Redes multimaestro7 con redundancia. - Comunicación maestro-esclavo según el esquema pregunta-respuesta. - Recuperación de datos desde el esclavo8 con un límite máximo de tiempo - Capacidad de direccionamiento unicast, multicast y broadcast. - Petición de servicios a los esclavos basada en eventos. - Comunicación de variables y bloques de datos orientada a objetos. - Descarga y ejecución remota de programas. - Altos niveles de seguridad de la red, opcionalmente con procedi- mientos de autentificación. - Conjunto completo de funciones de administración de la red.En la Tabla 1 se presentan las características propias de los buses decampo, así como sus ventajas con respecto a los otros sistemas Tabla 1. Características y ventaja de los buses (infoPLC.net, 2007) Servicios que debe proporcionar Ventajas respecto a otros sistemas de comunicación • Respuesta rápida a mensajes cortos. • Reducción del cableado. • Alta fiabilidad del método de señalización • Mayor precisión. y del medio. • Diagnóstico de los instrumentos de campo. • Una red mantenible y ampliable por el • Transmisión digital. personal de la planta. • Calibración remota. • Una red que pueda ser conectada al • Mecanismos fiables de certificación. sistema de comunicaciones principal • Reducción del ciclo de puesta en marcha de un de la empresa. sistema. • Conectividad a diferentes componentes • Operación en tiempo real. de distintas marcas.2.1 Algunos buses estandarizadosLas redes de campo son una tecnología para la aplicación en entornosindustriales, y son de reciente desarrollo. En la Figura 2 se sintetiza laevolución de las tecnologías de automatización industrial y las redesde campo.2.1.1 Interbus. Protocolo propietario, inicialmente, de la empresaPhoenix Contact GmbH, aunque posteriormente ha sido abierta suespecificación, normalizado bajo DIN 19258, norma europea EN 50254.7 Maestro: dispositivo que determina la temporización y la dirección del tráfico de datos en el bus.8 Esclavo: Cualquier dispositivo conectado al bus incapaz de generar pulsos de reloj. Reciben señales de comando y de reloj proveniente del dispositivo maestro.88
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Figura 2. Evolución de los buses de campo (Muñoz, 2007)Se basa en un esquema maestro esclavo, el maestro del bus actúasimultáneamente como interfaz con los niveles superiores de la je-rarquía de comunicaciones. La topología es anillo, es decir, todos losdispositivos forman un camino cerrado, el anillo principal es el que partedel maestro aunque pueden formarse otros anillos para adaptarse a laestructura particular de cada sistema. Una característica de interbusesque las líneas de envío y recepción de datos están contenidas dentrode un mismo cable que une todos los dispositivos, típicamente la capafísica se basa en el estándar RS-485 debido a la estructura de anillo yaque es necesario transportar la masa de las señales lógicas. Interbusrequiere un cable de cinco hilos para interconectar dos estaciones convelocidades de transmisión de 500Kbps, que pueden alcanzar distanciashasta 400 m entre dispositivos.La estructura en anillo ofrece dos ventajas: la primera es que permite elenvío y recepción simultánea de datos -full duplex-, en segundo lugarla capacidad de auto diagnóstico del sistema se ve mejorada ya quela conexión de cada nodo a la red es activa. Interbus permite la detec-ción de errores preventiva, por medio de una evaluación estadísticade calidad de las transmisiones, la determinación de la frecuencia delos errores de transmisión permite prever la aparición de fallo de uncomponente de la red2.1.2 Profibus FieldBus. De acuerdo con Profibus Profinet (2010),se desarrolló bajo un proyecto financiado por el gobierno alemány se encuentra normalizado en Alemania por DIN E 19245 y enEuropa por EN 50170.El desarrollo y posterior comercialización hacontado con el apoyo de importantes fabricantes como ABB, AEG, 89
    • Nº 25 - julio - diciembre / 2011Siemens, Klóckner-Moeller. Está controlado por la PNO (ProfibusUser Organization) y la PTO (Profibus Trade Organization). Existentres versiones de Profibus, cada una de ellas especializada para uncampo de comunicación:- Profibus-DP (Decentralized Periphery). Optimizado para aplicaciones de velocidad y bajo costo, orientado a sensores/actuadores enlazados a procesadores (PLC) o terminales.- Profibus-PA (Process Automation). Está diseñado para el control de proceso y cumple normas especiales de seguridad en ambientes peligrosos y con riesgo de explosión como la industria química (IEC 1 1 15 8-2, seguridad intrínseca), su velocidad es de 31,25 Kbps y es aplicable a una distancia de 1,9 Km.- Profibus-FMS (Fieldbus Message Specification). Es la solución para comunicación entre células de proceso o equipos de automatización, la evolución de Profibus hacia la utilización de protocolos TCP/IP para enlace al nivel de proceso hace que este perfil esté perdiendo importancia. Brinda una alta velocidad de 9,6 Kbps a 1500 Kbps sobre distancias superiores a 100 Km.Profibus utiliza diferentes capas físicas, la más importante, en Profibus-DP, la cual está basada en ElA RS-4859. Profibus-PA utiliza la normaIEC 11158-2 (norma de comunicación síncrona entre sensores de cam-po que utiliza modulación sobre la propia línea de alimentación de losdispositivos y puede utilizar los antiguos cableados de instrumentación4-20 mA) y para el nivel de proceso se tiende a la utilización de Ethernet.También se contempla la utilización de enlaces de fibra óptica. Existenpuentes para enlace entre diferentes medios, además de gatewaysque permiten el enlace entre perfiles y con otros protocolos. La figura3 ilustra las características de Profibus.Se distingue entre dispositivos maestros y dispositivos esclavo: El ac-ceso al medio entre maestros se arbitra por paso de testigo, el accesoa los esclavos desde un maestro es un proceso de interrogación cíclico(polling). Se pueden configurar sistemas multimaestro o sistemas mássimples maestro-esclavo. En Profibus-DP se diferencia entre: maestroclase 1 (estaciones de monitorización y diagnóstico), maestro clase 2(elementos centralizadores de información como PLC, PC, entre otros)y esclavo (sensores, actuadores).9 RS485 o EIA-485 Estándar de comunicaciones multipunto de la EIA. Es una especificación eléctrica (de la capa física en el modelo OSI) de las conexiones half-duplex, two-wire y multipoint.90
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEl transporte en Profibus-DP se realiza por medio de tramas segúnIEC 870-5-1. La comunicación se realiza por medio de datagramas enmodo broadcast o multicast. Se utiliza comunicación serie asíncronapor lo que es utilizable una UART genérica. Profibus-DP prescindede los niveles OSI 3 a 6 y la capa de aplicación ofrece una ampliagama de servicios de diagnóstico, seguridad, protecciones etc. Esuna capa de aplicación relativamente compleja debido a la necesidadde mantener la integridad en el proceso de paso de testigo (uno ysólo un testigo). Figura 3 .Profibus (Profibus Trade Organization, 1999)Profibus-FMS es una compleja capa de aplicación que permite la gestióndistribuida de procesos al nivel de relación entre células dan posibilidadde acceso a objetos, ejecución remota de procesos, etc. Los dispositi-vos de definen como dispositivos de campo virtuales, cada uno incluyeun diccionario de objetos que enumera los objetos de comunicación.Los servicios disponibles son un subconjunto de los definidos en MMS(ISO 9506).Las plataformas hardware utilizadas para soportar Profibus se basanen microprocesadores de 16 bits más procesadores de comunicacionesespecializados o circuitos ASIC como el LSPM2 de Siemens. Entresus perspectivas de futuro se encuentra la integración sobre la basede redes Ethernet al nivel de planta y la utilización de conceptos detiempo real y filosofía productor-consumidor en la comunicación entredispositivos de campo con repetidores y fibra óptica). La velocidad decomunicación puede ir de 9600 bps a 12 Mbps, utilizando mensajesde hasta 244 bytes de datos. Profibus se ha difundido ampliamente en 91
    • Nº 25 - julio - diciembre / 2011Europa y también tiene un mercado importante en América y Asia. Elconjunto Profibus-DP - Profibus-PA cubre la automatización de plan-tas de proceso discontinuo y proceso continuo cubriendo normas deseguridad intrínseca.2.1.3 Control Area Network, CAN. Este sistema desarrollado por Bosch(1986) para el uso dentro de los automóviles reduciendo la cantidadde hilos conductores, actualmente se usa como bus multimaestro paraconectar dispositivos inteligentes de todo tipo y está estandarizadocomo ISO 11898-1, el cual solo define el protocolo hasta la capa 2.Sobre CAN se han desarrollado otros protocolos como DeviceNet yCANOpen. Las velocidades de transmisión van de 50 Kbps (distancia1 m), a 1 Mbps (distancia 40 m) con un volumen de información de 64bits de datos de usuario.2.1.4 CANOpen. Bus de campo basado en CAN, resultado de un pro-yecto de investigación financiado por la Comunidad Europea y se estáextendiendo de forma importante entre fabricantes de maquinaria eintegradores de célula de proceso. Está soportado por la organizaciónCiA (CAN in Automation), organización de fabricantes y usuarios deCAN que también apoya DeviceNet, SDS, etc.2.1.5 DeviceNet. Bus basado en CAN, cuya capa física y capa deenlace se basan en ISO 11898, y en la especificación de Bosh10 2.0.DeviceNet, que define una de las más sofisticadas capas de aplicacio-nes industriales sobre bus CAN, fue desarrollado por Allen-Bradley en1994, posteriormente pasó a ser una especificación abierta soportadaen la ODVA (Open DeviceNet Vendor Association). Cualquier fabrican-te puede asociarse a esta organización y obtener especificaciones,homologar productos. Es posible la conexión de hasta 64 nodos convelocidades de 125 Kbps a 500 Kbps en distancias de 100 a 500 m,utiliza una definición basada en orientación a objetos para modelar losservicios de comunicación y el comportamiento externo de los nodos.Define mensajes y conexiones para funcionamiento maestro-esclavo,interrogación cíclica, strobing o lanzamiento de interrogación general dedispositivos, mensajes espontáneos de cambio de estado, comunicaciónuno-uno, modelo productor-consumidor, carga y descarga de bloquesde datos y ficheros, etc.2.1.6 Fieldbus. Un bus orientado sobre todo a la interconexión de dispo-sitivos en industrias de proceso continuo, asegura (Foundation Fieldbus,2006). Su desarrollo ha sido apoyado por importantes fabricantes deinstrumentación (Fisher-Rosemount, Foxboro). En la actualidad, existeuna asociación de fabricantes que utilizan este bus, que gestiona el10 Empresa alemana creada por Robert Bosch, desarrolladora del bus de campo CAN.92
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaesfuerzo normalizador, la Fieldbus Foundation. Normalizado como ISASP50, IEC-ISO 61158 (ISA es la asociación internacional de fabricantesde dispositivos de instrumentación de proceso).En la capa física –nivel H1- sigue la norma IEC 11158-2 para comu-nicación a 31,25 Kbps, es por tanto, compatible con Profibus-PA, suprincipal contendiente. Presta especial atención a las versiones quecumplen normas de seguridad intrínseca para industrias de proceso enambientes combustibles o explosivos. Se soporta sobre par trenzado yes posible la reutilización de los antiguos cableados de instrumentaciónanalógica 4-20 mA. Se utiliza comunicación síncrona con codificaciónManchester Bifase-L. El nivel H2 (dos) está basado en Ethernet de altavelocidad (100 Mbps) y orientado al nivel de control de la red industrial.La capa de aplicación utiliza un protocolo sofisticado, orientado a obje-tos con múltiples formatos de mensaje, distingue entre dispositivos concapacidad de arbitración (Link Master) y normales. En cada momentoun solo Link Master arbitra el bus, puede ser sustituido por otro en casode fallo utiliza diversos mensajes para gestionar comunicación por pasode testigo, comunicación cliente-servidor, modelo productor-consumidor,etc. Existen servicios para configuración, gestión de diccionario de obje-tos en nodos, acceso a variables, eventos, carga descarga de ficherosy aplicaciones, ejecución de aplicaciones, etc.2.1.7 FIP – World-FIP. Desarrollado en Francia a finales de los ochentay normalizado por EN 50170, que también cubre Profibus. Sus capasfísica y de aplicación son análogas a las de Foundation Fieldbus H1y Profibus-PA respectivamente. La división Norteamérica de World-FIP se unió a mediados de los noventa a la Fieldbus Foundation enel esfuerzo por la normalización de un bus industrial común. Utiliza unmodelo productor-consumidor con gestión de variables cíclicas, eventosy mensajes genéricos.2.1.8 Lonworks. La empresa Echelon, localizada en California, fuefundada en 1988 y comercializa el bus de campo LonWorks basadoen el protocolo LonTalk y soportado sobre el NeuronChip. Alrededorde estas marcas ha construido toda una estructura de productos yservicios, hábilmente comercializados, dirigidos al mercado del controldistribuido en domótica, edificios inteligentes y control industrial. Aseguraque varios miles de empresas trabajan con LonWorks, que cientos deempresas comercializan productos basados en su bus y que se haninstalado millones de nodos.El protocolo LonTalk cubre todas las capas OSI y se soporta en hardwarey firmware sobre el NeuronChip. Se trata de un microcontrolador queincluye el controlador de comunicaciones y toda una capa de firmware 93
    • Nº 25 - julio - diciembre / 2011que, además de implementar el protocolo, ofrece una serie de serviciosque permiten el desarrollo de aplicaciones en el lenguaje Neuron C,una variante de ANSI C. Motorola y Toshiba fabrican el NeuronChip,además Echelon ofrece la posibilidad de abrir la implementación deLonWorks a otros prosadores.La red Lonworks ofrece una variada selección de medios físicos y topo-logías de red, par trenzado en bus, anillo y topología libre, fibra óptica,radio, transmisión sobre red eléctrica. El soporte más usual es partrenzado a 38 o 78 Kbps. Se ofrece una amplia gama de servicios dered que permiten la construcción de extensas arquitecturas con multitudde nodos, dominios y grupos, típicas de grandes edificios inteligentes.El método de comparación de medio es acceso CSMA11 predictivo eincluye servicios de prioridad de mensajes.2.1.9 Smart Distributed System, SDS. Junto con DeviceNet y CANO-pen, es uno de los buses de campo basados en CAN más extendidos.Fue desarrollado por el fabricante de sensores industriales Honeywellenen 1989 y se ha utilizado sobre todo en aplicaciones de sistemas dealmacenamiento, empaquetado y clasificación automática. Se define unacapa física que incluye alimentación de dispositivos en las conexiones.La capa de aplicación define autodiagnóstico de nodos, comunicaciónpor eventos y prioridades de alta velocidad.2.1.10 Modbus. En su definición inicial Modbus era una especificaciónde tramas, mensajes y funciones utilizadas para la comunicación conlos PLC Modicon. Puede implementarse sobre cualquier línea de comu-nicación serie y permite la comunicación por medio de tramas binariaso ASCII con un proceso interrogación-respuesta simple. Debido a quefue incluido en los PLC de la firma Modicon en 1979, ha resultado unestándar de facto para el enlace serie entre dispositivos industriales.En la actualidad, Modbus es soportado por el grupo de automatizaciónSchneider (Telemechanique, Modicon), la velocidad de transmisión coneste protocolo generalmente es de 38.4 Kbps, 9,6Kbps y 19,2 Kbps; ysoporta 32 nodos sin repetidores y 64 nodos con repetidores.2.1.11 Industrial Ethernet. La norma IEEE 802.3 basada en la Ethernetde Xerox se ha convertido en el método más extendido para interco-nexión de computadores personales en redes de proceso de datos. Enla actualidad, se vive una auténtica revolución en cuanto a su despla-zamiento hacia las redes industriales. Es indudable esa penetración dediversos buses de campo establecidos como Profibus y Modbus hanadoptado Ethernet como la red apropiada para los niveles superiores.11 CSMA (Carrier Sense Multiple Access o Acceso Múltiple por Detección de Portadora). Es un protocolo de red para poder compartir un canal.94
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEn todo caso, se buscan soluciones a los principales inconvenientesde Ethernet como soporte para comunicaciones industriales: Prime-ro, el intrínseco indeterminismo de Ethernet se aborda por medio detopologías basadas en conmutadores, y segundo, en todo caso esasopciones no son gratuitas, se han de aplicar normas especiales paraconectores, blindajes, rangos de temperatura lo que se traduce en quela tarjeta adaptadora Ethernet empieza a encarecerse cuando se la dotade robustez para un entorno industrial.Parece difícil que Ethernet tenga futuro a nivel de sensor, aunque puedeaplicarse en nodos que engloban conexiones múltiples de entrada-salida. Ethernet está ocupando un área importante entre las opcionespara redes industriales, pero parece aventurado afirmar, como se hallegado a hacer, que pueda llegar a penetrar en los niveles bajos de lapirámide CIM, como lo afirman Kashel y Pinto (2002)2.1.12 Actuator Sensor Interface, ASI. Es un bus de campo desarro-llado inicialmente por Siemens para la interconexión de actuadores ysensores binarios. Actualmente está recogido por el estándar IEC TG17B. A nivel físico la red puede adoptar cualquier tipo de topología12: es-tructura en bus, en árbol, en estrella o en anillo. Permite la interconexiónde un máximo de 31 esclavos, la longitud máxima de cada segmento esde 100 metros entre cada nodo y su velocidad de transmisión es de 167Kbps. Además dispone de repetidores que permiten la unión de hastatres segmentos, y de puentes hacia redes Profibus. Como medio físicode transmisión, emplea un único cable que permite tanto la transmisiónde datos como la alimentación de los dispositivos conectados a la red.Su diseño evita errores de polaridad al conectar nuevos dispositivos a lared. La incorporación o eliminación de elementos de la red no requierela modificación del cable.El cable consta de dos hilos sin apantallamiento para lograr inmunidad alruido, la transmisión se hace basándose en una codificación Manches-ter, cada esclavo dispone de hasta cuatro entradas/salidas, lo que haceque la red pueda controlar hasta 124 E/S digitales. La comunicaciónsigue un esquema maestro-esclavo, en la cual el maestro interroga alas estaciones enviándoles mensajes (llamados telegramas) de 14 bits yel esclavo responde con un mensaje de siete bits. La duración de cadaciclo pregunta respuesta es de 150 µs. En cada ciclo de comunicaciónse deben consultar todos los esclavos, añadiendo dos ciclos extraspara operaciones de administración del bus (detección de fallos). Elresultado es un tiempo de ciclo máximo de -5 ms.12 Formas físicas de integrar y distribuir una red de computadores. La topología a usar está directamente relacionada con el tamaño de la red (número de PC), tamaño de la empresa o laboratorio. 95
    • Nº 25 - julio - diciembre / 20112.1.13 Bitbus. Introducido por Intel a principios de los 80, es un busmaestro-esclavo soportado sobre RS485 y normalizado en IEEE-1118.Debido a su sencillez ha sido adoptado en redes de pequeños fabrican-tes o integradores. En su capa de aplicación se contempla la gestión detareas distribuidas, es decir es, en cierto modo, un sistema multitareadistribuido. Existe una organización europea de soporte denominadaBitbus European User’s Group.2.1.14 ARCNet. Originalmente desarrollada como red para procesode datos en los años 70 ARCNet ha encontrado aplicación en el mun-do industrial. Su técnica de paso de testigo hace que sea predecible,determinista y robusta. Está normalizada como ANSI/ATA 878.1. Lavelocidad de comunicación es de 2,5 Mbps con paquetes del 0 a 512bytes, soporta topología en bus y estrella y diversos medios físicos (cablecoaxial, par trenzado, fibra óptica). Es una red muy apropiada para unnivel intermedio en la jerarquía CIM, algunos fabricantes proponen comojerarquía ideal para control industrial una basada en Ethernet en el nivelsuperior ARCNet intermedio y CAN al nivel de celda de fabricación.2.1.15 Controlnet. Bus de alta velocidad (5 Mbps) y distancia (hasta 5Km), muy seguro y robusto promovido por Allen-Bradley. Utiliza cableRG6/U (utilizado en televisión por cable) y se basa en un controladorASIC de Rockwell. No es soportado por muchos fabricantes y resultade elevado precio por nodo. Se ha utilizado para interconexión de redesde PLC y computadores industriales en aplicaciones de alta velocidady ambientes muy críticos.2.1.16 Hart. Es un protocolo para bus de campo soportado por la HartCommunication Foundation y la Fieldbus Foundation. Su campo deaplicación básico es la comunicación digital sobre las líneas analógicasclásicas de los sistemas de instrumentación, manteniendo éstas enservicio. Sus prestaciones como bus de campo son reducidas.Utiliza el bus analógico estándar 4-20 mA sobre el que transmite unaseñal digital modulada en frecuencia (modulación FSK 1200-2200 Hz).Transmite a 1,2Kbps manteniendo compatibilidad con la aplicación ana-lógica inicial y sobre distancias de hasta 3 Km, normalmente funcionaen modo maestro-esclavo.En la Tabla 2 se presentan una comparación entre algunos buses yprotocolos mencionados anteriormente.96
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Tabla 2. Comparación de características entre algunos buses (Construida a partir de AIE 2011) Máximo Ratetrans Distancia Nombre Topología Soporte Comunicación Dispositivo bps Max Km Profibus Par hasta línea, estrella, 0.1segm Master/Slave, trenzado, 127/segm 1.5M y DP anillo 24fibra Peer to peer Fibra óptica 12M Profibus Par línea, estrella, 14400/ 0.1segm Master/Slave, trenzado, 31.5K PA anillo segm 24fibra Peer to peer Fibra óptica Par Master/Slave, Profibus-FMS trenzado, 127/segm 500K Peer to peer Fibra óptica Par 240p/segm Foundation Single/multi estrella trenzado, 100M 0.1par 2fibra Fieldbus 32.768 sist master Fibra óptica Par Bus, anillo, trenzado, Master/Slave, LonWorks 32768/dom 500K 2 estrella, lazo Fibra óptica, Peer to peer coaxial radio Par 400/segm Interbus Segmenta-do trenzado, 256/nodos 500K Master/Slave Fibra óptica 12.8 total Troncal/ Par Master/Slave, 2018 DeviceNet puntualc/ trenzado, 500K 0.5 6c/repetid Multi-master, nodos bifurcación Fibra óptica Peer to peer Par bus, estrella, 0.1, 0.3 c/rep ASI trenzado, 31 p/res 167K Master/Slave anillo, estrella 24fibra Fibra óptica Par línea, estrella, trenzado, 1250 p/ 1.2 a Modbus árbol, red con 0.35 Master/Slave Coaxial, segm 115.2K segmentos radio Coaxial, Par Ethernet bus, estrella, 0.1 100 mono Master/Slave trenzado, 400p/segm 10, 100M industrial malla, cadena c/switch Peer to peer Fibra óptica 0.1segm Hart Par trenzado 15 p/segm 1.2K Master/Slave 24fibra 3. Ethernet industrialEthernet es un estándar que especifica la construcción y funciones deredes abiertas para transmisión de datos accesibles según el procesoCSMA/CD (Carrier Sense Multiple Access with Collision Detection)ampliamente utilizado en el ambiente de oficinas. Debido a la crecien-te necesidad de comunicaciones en el medio de la industria muchosfabricantes han respondido al llamado y han propuesto una plataforma 97
    • Nº 25 - julio - diciembre / 2011ampliamente probada, que con algunas modificaciones se ha ajustadoa las necesidades de la industria. La tabla 3 muestra una comparaciónentre las redes industriales y las de oficina. La utilización de esta tec-nología en el nivel de planta permite la simplificación y agrupación deredes existentes, y reduce los costos de instalación mantenimiento yentrenamiento. Los equipos para Ethernet industrial están diseñadospara operar en ambientes de planta cumpliendo o excediendo las co-municaciones de los equipos que interconectan tales como PLC, HMIy robots, entre otros.Tabla 3. Comparación entre la red industrial y de oficina (Construida a partir de Simatic Net, 2006) Industria OficinaDisponibilidad Prestaciones muy altas. Requisitos medios. Se necesitan caídas de red menores Se aceptan tiempos de caída de red de de 500ms para evitar paradas de segundos o minutos. planta.Tiempo de Tiempos de respuesta garantizados. La mejor respuesta posible sin ninguna garantíarespuesta (una transferencia de prioridad baja puede preceder a una prioridad altaInstalación Mediante personal de planta Mediante personal con formación específica (personal con formación específica). (administradores de red).Supervisión de Es un componente más del sistema Mediante personal con formación específicared de supervisión de planta (administradores de red)Disponibilidad En el armario, o fuera del armario. En rack de distribución de planta. Instalación universal Infraestructuras de red planeadas para el efecto. Alimentación DC 24V Rack de 19˝ Rango de temperatura 110/220V AC O -+60ºC. O…+45ºC temperatura ambiente Soporta vibracionesDensidad de Baja, switches con pocos puertos Alta, switches con gran número de puertosequiposTopología Topología en línea (opcionalmente Topología en estrella (estructurado), planta como anillo) edificio. Bus de gestión de planta o wirelessCambios en la Reducido número de tomas directos Alto.red a switches y terminales de datos Alta, densidad de cobertura con infraestructuras cableadas con puentes y bocas de conexiónComo principales ventajas de Ethernet Industrial pueden enumerarse:- Reducción del costo del hardware- Amplia selección de medios de transmisión: cobre, fibra óptica e inalámbrico.98
    • Universidad de Manizales Facultad de Ciencias e Ingeniería- Altas velocidades de transmisión de datos 10 y 100Mbpsy 1 y 10Gbps.- Provee una infraestructura de red sin fracturas, desde el nivel corpo- rativo hasta el nivel de planta donde se ubican sensores y actuadores.- La mayoría de los fabricantes de soluciones para buses de campo, han desarrollado protocolos propios basados en Ethernet (como Ethernet/IP, Modbus/TCP, Profinet, entre otros).Otros de los beneficios que más le interesan a la industria son el costo yel tiempo de instalación, los cuales se ven reducidos significativamentecomparados con cualquier otra tecnología del tipo. También el tiempode arranque de una planta se reduce debido a la sencillez de esta red.El uso de los dispositivos para Ethernet deben ser de grado industrialy los cables para la instalación del mismo deben ser STP (ShieldedTwisted Pair) para que tengan la protección suficiente contra el ruidoeléctrico y electromagnético. Una de las partes más importantes de estatecnología son los dispositivos de comunicación, en este caso switchesEthernet. Los switches13 deben ser diseñados para el uso rudo de laindustria, las especificaciones de éstos son iguales a cualquier otrodispositivo utilizado para la automatización, teniendo resistencia en elsoporte de temperatura, la cantidad de vibración y el shock que pue-dan soportar. Los switches industriales pueden contar con tecnologíaSNMP, lo que permite un completo análisis y diagnóstico del tráfico dela red mediante OPC14; de esta manera, desde cada SCADA se puedeanalizar donde se encuentra el mayor tráfico y donde se encuentraalgún cuello de botella.3.1 Protocolos industriales basados en Ethernet3.1.1 EtherCAT (Ethernet Control Automation Technology). Sis-tema de alto rendimiento que utiliza protocolos de Ethernet en unentorno industrial. El paquete Ethernet ya no es recibido, interpretadoy copiado como proceso de datos en cada conexión, en cambio latrama Ethernet se procesa sobre la marcha: el nuevo desarrolladoFMMU (Fieldbus Memory Management Unit), en cada nodo esclavolee los datos que le ha dirigido, mientras que el telegrama es enviadoal siguiente dispositivo, los datos de entrada se añaden al telegrama,mientras que pasa a través, siendo los telegramas solo un retraso deunos nanosegundos.13 Dispositivo de red transmite los datos de un segmento a otro según la dirección MAC de destino de las tramas en la red. Su tarea permite conectar distintas redes y fusionarlas.14 OPC (Ole for Process Control) es un conjunto de estándares para la conectividad de siste- mas, con el propósito de proporcionar una infraestructura estándar para el intercambio de información entre dispositivos industriales y sistemas de control. 99
    • Nº 25 - julio - diciembre / 2011La tecnología EtherCAT es plenamente compatible con Ethernet yverdaderamente abierto. El protocolo Ethernet tolera otros serviciosbasados en protocolos y en la misma red física por lo general, inclu-so con un mínimo de pérdida de rendimiento, además de no tenerrestricciones.3.1.2 Ethernet/IP. Es una solución abierta estándar para la interconexióny aplicaciones de redes industriales basadas en la normatividad IEEE802.3 compatible con los protocolos estándar TCP/IP permitiendo el usode aplicaciones de control con el Protocolo de Control e Información,CIP, para establecer un nivel de protocolo y poder configurar acceder ycontrolar dispositivos de E/S en tiempo real. Son muchas las ventajasdel nivel CIP sobre Ethernet/IP. La oferta de un acceso consistente aaplicaciones físicas significa que se puede utilizar una sola herramientapara configurar dispositivos CIP en distintas redes desde un único puntode acceso sin la necesidad de software propietario, una red Ethernet/IP utiliza una topología de estrella activa en la que los dispositivosestán conectados punto a punto con un conmutador el cual negociarála velocidad de transmisión. La ventaja de esta topología radica en lacompatibilidad con productos de 10 y 100Mbps ofreciendo conexionesfáciles de cablear o depurar en las que resulta sencillo detectar fallosy llevar a cabo tareas de mantenimiento.3.1.3 Powerlink. Es un protocolo determinista real-time basado en elestándar Ethernet el objetivo del desarrollo de este protocolo consistióen aplicar la tecnología Ethernet a las aplicaciones de automatizaciónindustrial donde varios elementos de control (PLC, pantallas de ope-rador, módulos de E/S, módulos de seguridad, sensores) tengan quecomunicar entre ellos de forma rápida en condiciones de tiempo realadversas garantizando que el proceso de comunicación sea fiable yrepetitiva.3.2 Criterios de selección de una red industrialDebido a la diversidad de características que se asocian a una red, laelección de una determinada red de campo puede resultar compleja,sin embargo, pueden agruparse las principales características comunesa cada red y determinar tres criterios principales a considerar para suelección:• Capacidad de la red se relacionan con sus características técni- cas y prestaciones: Nivel de automatización, volumen de datos, tipo de dato, método de acceso al medio, topología, número de nodos, distancia, métodos de comunicación, tasa de transmisión, respuesta de tiempo real garantizada, herramientas de software disponibles.100
    • Universidad de Manizales Facultad de Ciencias e Ingeniería• Eficiencia de la red se relaciona con la minimización de los costos, tanto económicos, de tiempo y técnicos, asociados con la solución: Reducción del tiempo y del diseño de la ingeniería del proyecto, reducción y simplificación del cableado de la red, reducción de la puesta en marcha del proyecto, eficiencia en la comunicación de la red, costos de los dispositivos.• Proyección de la red la proyección técnica y económica de la red se refiere a las posibilidades de ampliación y actualización que la red entrega a una determinada aplicación, lo cual se traduce en un ahorro de costos futuro: interoperabilidad, integración niveles CIM, ampliación de la red, actualización y grado de obsolescencia, servicios de post-venta. 4. SCADASCADA (Supervisory Control And Data Acquisition o Adquisición deDatos y Control de Supervisión) es un sistema industrial diseñado paraautomatizar el monitoreo y control de procesos industriales consisteen un computador principal o máster (generalmente llamada estaciónmaestra Master Terminal Unit o MTU), una o más unidades de controlobteniendo datos de campo (generalmente llamadas estaciones remo-tas, Remote Terminal Units o RTU), y software estándar usado paramonitorear y controlar remotamente dispositivos de campo. La comu-nicación se realiza mediante buses especiales o redes de área local.Todo esto se ejecuta normalmente en tiempo real, y están diseñadospara dar al operador de planta la posibilidad de supervisar y controlardichos procesos.Los sistemas SCADA han eliminado la necesidad de estar físicamentevigilando y ajustando los componentes del proceso, una red de senso-res transmite información del estado de los componentes a una sala deoperadores que deciden si hay que realizar alguna modificación sobre elproceso. Muchas veces esta toma de decisiones está apoyada por unaunidad central que descarga al operario de tareas repetitivas dejándoleactuar sobre el sistema a muy alto nivel.4.1 Funciones y requisitosEntre las funciones de un sistema SCADA es posible enumerar:- Posibilidad de crear paneles de alarma, que exigen la presencia del operador para reconocer una parada o situación de alarma, con registro de incidencias.- Generación de históricos de señal de planta, creando informes, avisos y documentación en general. 101
    • Nº 25 - julio - diciembre / 2011- Ejecución de programas, que modifica la ley de control, o incluso anular o modificar las tareas asociadas al autómata bajo ciertas condiciones.- Posibilidad de programación numérica, que permite realizar cálculos aritméticos de elevada resolución sobre la CPU del computador.Adicionalmente, son requisitos necesarios para la implementación deSCADA:- Deben ser sistemas de arquitecturas abiertas, capaces de crecer o adaptarse según las necesidades de la empresa.- Deben comunicarse con total facilidad y de forma transparente al usuario con el equipo de planta y LAN de la empresa.- Los programas deberán ser sencillos de instalar, sin excesivas exi- gencias de hardware, y fáciles de utilizar con interfaces amigables para el usuario (sonido, imágenes, pantallas táctiles).4.2 Componentes de hardware4.2.1 Master Terminal Unit, MTU. Se trata de un computador principalel cual supervisa y recoge la información del resto de las subestaciones,estos computadores suelen ser un PC el cual soporta el HMI (HumanMachine Interface). Las funciones principales del MTU son:- Interrogar en forma periódica a los RTU, y les transmite consignas siguiendo usualmente un esquema maestro- esclavo.- Actúa como interfaz al operador, incluyendo la presentación de infor- mación de variables en tiempo real, la administración de alarmas, y la recolección y presentación de información histórica.- Puede ejecutarse software especializado que cumpla funciones es- pecíficas asociadas al proceso supervisado por el SCADA.4.2.2 Remote Terminal Unit, RTU. Estos procesadores están situadosen los nodos estratégicos del sistema gestionando y controlando sub-estaciones del sistema, reciben señales de los sensores de campo, ycomandan los elementos finales de control ejecutando el software dela aplicación SCADA. Se encuentran en un nivel intermedio de automa-tización, a nivel superior está el MTU y a un nivel inferior los distintosinstrumentos de campo que son los que ejercen la automatizaciónfísica del sistema, control y adquisición de datos. Estos computadoresno tienen que ser PC ya que la necesidad de soportar un HMI no estan grande a este nivel suelen ser computadores industriales, aunqueen sistemas muy complejos puede haber subestaciones en formatoHMI. Una tendencia son los PLC (en función de E/S a gestionar) conla capacidad de funcionar como RTU gracias a un nivel de integraciónmayor y CPU con mayor potencia de cálculos.102
    • Universidad de Manizales Facultad de Ciencias e Ingeniería4.2.3 Red de comunicación. En este nivel se gestiona la informaciónque los instrumentos de campo envían a la red de computadores desdeel sistema. El tipo de bus utilizado en las comunicaciones puede ser muyvariado según las necesidades del sistema y del software escogido paraimplementar el SCADA, ya que no todos las aplicaciones de software(así como los instrumentos de campos como PLC) pueden trabajar contodos los tipos de bus.4.2.4 Instrumentos de campo. Son todos aquellos que permiten reali-zar la automatización o control del sistema (PLC, controladores de pro-cesos industriales, y actuadores en general) como los que se encargande la captación de información del sistema (sensores y alarmas). En laFigura 4 se muestra claramente la estructura del hardware. Figura 4. Estructura de un SCADA a nivel de hardware (Rodríguez, 2007) 5. Implementación de un sistema SCADAEl objetivo principal es implementar un sistema SCADA, mediante elcual se realizará el monitoreo y control permanente del proceso deproducción de placas onduladas, incluyendo todas sus variables. Elsistema de control consistirá en una serie de computadores, equiposelectrónicos y sensores, pulsadores y válvulas interconectados. Estosdispositivos serán los responsables del control directo de las tareasnecesarias como planificación de observaciones, archivos de datos,análisis de calidad de la información y control en tiempo real para pro-ducción de placa. 103
    • Nº 25 - julio - diciembre / 2011El sistema de control contará con una arquitectura segura, flexibley distribuida para proveer acceso y monitoreo independiente de lalocalización sedes en la ejecución del proceso que son requeridospara garantizar un nivel de calidad del funcionamiento del sistema, laconexión del sistema dentro de otras sedes se realizará por medio deredes dentro de una organización jerárquica. Este modelo se organi-zará siguiendo un modelo cliente-servidor permitiendo la operación entiempo real ofreciendo varios puntos de control, procesos controlados,estaciones de trabajo y servidores.El sistema de control tendrá en cuenta componentes de control distri-buido (DCS), unidades de control remoto (RTU), unidades de controlmaestro (MTU), controles lógicos programables (PLC), ejecutandoprocesos de lógica simple con un lenguaje de programación funcionalpara que corran en estos dispositivos siguiendo los estándares de lanorma IEC 6113115.5.1 Descripción generalEl sistema de control para la producción de placas onduladas permiti-rá la supervisión y manejo de todas las variables relacionadas con elproceso. Para lograr este control, se utilizarán dispositivos de controlremoto y programable que permiten el acceso y manejo de los datosproducidos por los elementos electrónicos conectados a los dispositivosque participan en el proceso, el sistema de control será implementadocon el fin de permitir la supervisión del proceso local y en sedes ubica-das geográficamente distantes.El sistema de control contará con una infraestructura que permite latransmisión de la información en tiempo real y de forma segura, lo queofrece un alto grado de confianza para la supervisión de la producciónteniendo en cuenta que una falla presentada puede producir grandespérdidas para la organización, tal como lo muestra la Figura 5.La RTU se conecta al equipo físicamente y lee los datos de estadocomo los estados abierto/cerrado desde una válvula o un intercam-biador, lee las medidas como presión, flujo, voltaje o corriente. Por elequipo, la RTU puede enviar señales que pueden controlarlo: abrirlo,cerrarlo, intercambiar la válvula o configurar la velocidad de la bomba.Las RTU que se utilizará se clasifica en un modelo single-board (unsolo módulo), compacto que contienen todas las entradas de datos enuna sola tarjeta. Un RTU tiene normalmente I/O fijas de 16 entradas deinformación digital, ocho salidas digitales, ocho entradas de informaciónanalógicas y cuatro salidas analógicas. Poseen la capacidad de adquisi-15 Estándar aplicado a los autómatas programables y sus periféricos, incluyendo los lenguajes de programación que se deben utilizar.104
    • Universidad de Manizales Facultad de Ciencias e Ingenieríación y mando de señales analógicas, digitales, conteos, capacidad entre280 y 700 variables según la aflicción, procesamientos y automatismosparametrizables, almacenamiento de datos a largo plazo, alertas haciaestaciones maestras, entre otros. Para hacer posible la comunicacióncon las RTU se utilizará el bus de campo Modbusque consiste en el usode conexiones dedicadas por cable entre los PLC y las RTU. Adicional-mente se utilizará una MTU como estación encargada de controlar losPLC y los RTU que se encuentran instalados en el sistema. Figura 5. Arquitectura de hardwareLa Figura 6 muestra una arquitectura de seguridad. Para proteger lainformación del proceso productivo contra los fenómenos definidos en laLAN, se implementará VLAN así se evitará que las otras dependenciasque componen la empresa tengan acceso a la información adquiridadel proceso esto con el fin de brindar seguridad y confidencialidad ala información. Figura 6. Arquitectura de seguridadSe implementará un servidor con servicios de control de tráfico, accesoprivado y protección de acceso con el fin de brindar un comportamiento 105
    • Nº 25 - julio - diciembre / 2011eficiente dentro de la red, incluyendo la implementación de todas laspolíticas de seguridad que ofrezcan protección de la información. Losswitches serán de capa tres con el fin de facilitar la configuración y elenrutamiento dentro de las diferentes redes.5.2 Descripción proceso productivoSe produce la placa a partir de una mezcla y se le da una longitud, anchoy espesor de acuerdo a los requerimientos técnicos del producto, estáconformada por los sistemas de vacío, lavado de fieltro, lavado pesca-dores, tanque controlador de espesores, tanques de mezcla, cilindrospescadores, rodillos metálicos y de caucho, filtro, cilindro de formato yrodillo motriz, tal como se muestra en las Figuras 7 y 8. Figura 7. Molida de Asbesto e Hidromezclador Figura 8. Estado de mezcla y Producto final• Molida de asbesto: Consiste en desfibrar el asbesto y mezclar los diferentes tipos o referencias, humectándolo adecuadamente. El asbesto molido y mezclado se almacena en el silo. El objeto de esta mezcla es mantener un valor técnico conservando unas proporcio- nes de fibras largas sobre cortas y un costo de producción aceptable.106
    • Universidad de Manizales Facultad de Ciencias e Ingeniería• Transporte asbesto Hidromezclador: El asbesto pesado en la báscula se deposita en el Hidromezclador. Luego se agita por un tiempo determinado hasta cumplir el ciclo. El asbesto queda listo para ser mezclado con las otras materias primas.• Estado de tanques de mezcla: Después de estar lista la compo- sición de la mezcla de acuerdo a la receta definida se procede con la formación de placa. 6. Conclusiones• La introducción de Ethernet ha tenido un profundo impacto en el entorno industrial, las industrias requieren redes de gestión más fácil con un ancho de banda superior, rendimiento más alto, aportando una gran cantidad de ventajas que incluye una integración entre los sistemas de una planta industrial y de administración utilizando una sola infraestructura de red trayéndole muchos beneficios, como disminución de los costos de administración y compartir información en tiempo real dentro de la factoría y hacia las oficinas desde una misma plataforma.• Las empresas al momento de implementar una solución industrial se deben basar en unos criterios básicos como: Capacidad en tiem- po real, migración (solución y marca), topología y elasticidad de la solución a nuevos productos, administración, rendimiento y costo.• Una empresa al momento de adquirir los equipos debe asegurarse que todos los componentes de red estén preparados para trabajar en ambientes industriales y que tengan todas las características técnicas para brindar, seguridad, alta disponibilidad rapidez y cali- dad de servicio.• Uno de los mayores errores que se presenta en las redes industriales es pensar que la red de ofimática se pueda emplear en un centro de producción, el tráfico corporativo puede ralentizar el tráfico de producción y hacer peligrar la naturaleza determinística de la red industrial. Una VLAN (Red de Área Local Virtual) es una forma de segmentar el tráfico de red. Las redes corporativas y de producción se pueden comunicar entre ellas.• El Campo de las Redes Industriales es susceptible de investigacio- nes adicionales que permitan documentar ampliamente la imple- mentación de las mismas y se conviertan en guías para aquellas pequeñas y medianas industrias que emprenden el camino de la automatización de sus procesos industriales.• Ethernet Industrial ofrece bajos costos, altos rendimientos, e inte- roperabilidad superior sobre soluciones de buses de campo tradi- 107
    • Nº 25 - julio - diciembre / 2011 cionales. Muchas variaciones de la tecnología de Ethernet se han desarrollado para dirigir varios requerimientos del tiempo del ciclo de aplicaciones industriales como resultado los clientes industria- les deben soportar multitud de estándares de Ethernet Industrial, haciendo más fácil la implementación de comunicaciones basadas en Ethernet en productos industriales nuevos y existentes.• Profibus, basado en el estándar de Fieldbus, es uno de los buses de campo más utilizados en la industria, permite acoplar equipos de marcas distintas, diferentes topologías y siempre con arquitectura abierta para poderla incluir en el protocolo y conservar siempre la compatibilidad con las nuevas tecnologías como Internet, TCP/IP, Ethernet Industrial. BibliografíaASOCIACIÓN DE LA INDUSTRIA ELÉCTRICA Y ELECTRÓNICA (2011). Protocolos de comunica- ciones industriales [en línea]. Vicuña (Chile): Asociación de la Industria Eléctrica y Electrónica, AIE. <http://www.aie.cl/files/file/comites/ca/articulos/agosto-06.pdf> [Consulta: 20/01/2011].BALCES, Josep y ROMERAL, José Luis (1997). Autómatas Programables. Barcelona (España): Marcombo. 223 p. ISBN 84-267-1089-1BOSCH WORLDWIDE (2011). Industrial Technology [on line]. Stuttgart (Germany): Bosch Group. <www.bosch.com/en/com/bosch_group/business_sectors_divisions/industrial_technology/ industrial-technology.html> [consult: 10/08/2011].CEKIT (1999). Bus de Campo. En: Revista Electrónica & Computadores. No. 53, (jun.). Pereira (Colombia): Publicaciones Cekit, p. 70-73. ISSN: 0121-9318CIA (2010). CAN Protocol [on line]. Nuremberg (Germany): CAN in Automation <http://www.can- cia.org/index.php?id=518> [consult: 10/08/2010].DOMINGO PENA, Joan y CARO GAMIZ, Juan (2003). Comunicaciones en el entorno industrial. Aragón (España): UOC. 113 p. ISBN: 84-9788-004-8ETHERCAT (2010). Ethernet for control automation technology [on line]. Port Orchard (USA): Ethercat Technology Group. <http://www.ethercat.org/en/ethercat.html> [consult: 10/08/2010].ETHERNET POWERLINK (2010). Ethernet basics an introduction [on line] Berlin (Germany): Ethernet Powerlink<http://www.ethernet-powerlink.org/index.php?id=33> [consult: 17/07/2010].FOUNDATION FIELDBUS (2006). Technical information Foundation Fieldbus [on line]. Frankfurt (Germany): Samson. <http://www.samson.de/pdf_en/l454en.pdf> [consult: 5/12/2010].GARCÍA MORENO, Emilio (2003) Automatización de procesos industriales. Valencia (España): CFP CERES-UPV. 120 p. ISBN: 84-77-21-759-9INFOPLC.NET (2010). Informe Ethernet Industrial [en línea]. Barcelona (España): InfoPLC. <http:// www.infoPLC_net_Ethernet_Industrial.html> [consulta: 10/08/2010].INFOPLC.NET (2007).Historia de las comunicaciones industriales [en línea]. Barcelona (Espa- ña): InfoPLC: Actualidad y recursos sobre Automatización Industrial. <http://www.infoplc.net/ Documentacion/Docu_Comunicacion/infoPLC_net_Historia_Comunicaciones_Industriales. html> [consulta: 17/01/2011].ISED (2010). Aplicaciones industriales Ethernet [en línea]. Valencia (España): Universidad Poli- técnica de Valencia <http://server-die.alc.upv.es/asignaturas/LSED/2002-03/Ethernet/noticias/ industria/apartado1/index.html> [consulta: 05/03/2011].KASHEL, Héctor y PINTO, Ernesto (2002). Análisis del estado del arte de los buses de campo aplicados al control de procesos industriales [en línea]. En: Ciencia Abierta, Vol. 19, Educación. (dic.) Santiago de Chile (Chile): Universidad de Chile. 8 p. ISSN: 0717-8948. <http://cabierta. uchile.cl/revista/19/artículos/pdf/edu3.doc> [consulta: 15/01/2011].108
    • Universidad de Manizales Facultad de Ciencias e IngenieríaMUÑOZ JORQUERA, Juan Maximiliano (2007). Estudio de aplicación de los estándares Devicenet y ControlNet de comunicaciones industriales como solución de una red de campo [en línea]. Trabajo de titulación (Ingeniero en Electrónica), Valdivia (Chile): Universidad Austral de Chile, Facultad de Ciencias de la Ingeniería, Escuela de Electricidad y Electrónica. 387 p. <http:// cybertesis.uach.cl/tesis/uach/2007/bmfcim971e/doc/bmfcim971e.pdf> [consulta: 15/01/2011].ODVA (2010). EtherNet/IP technology [on line]. Michigan (EEUU): ODVA. <http://www.odva.org/ Home/ODVATECHNOLOGIES/EtherNetIP/EtherNetIPTechnologyOverview/tabid/75/lng/en-US/ language/en-US/Default.aspx> [consult: 17/07/2010]PROFIBUS. PROFINET (2010). Share our vision Automation [on line]. Karlsruhe (Germany): Pro- fibus. <http://www.PROFIBUS.com/nc/downloads/forms-literature-list> [consult: 17/07/2010]RODRÍGUEZ PENIN, Antonio (2007). Sistemas SCADA. 2 ed. México D.F.: Marcombo. 19 p. ISBN: 978-84-267-1450-3SAMPERE, Víctor M., y CERDA, Sergio (2007). Comunicaciones industriales con Simatic S7 Valencia (España): de la UPV. 239 p. ISBN: 84-9705-858-5SIMATIC (2006). Industrial Ethernet [on line]. Munich (Germany): Siemens. <www.etitudela.com/ fpm/comind/downloads/ieversusoffices2.ppt> [consult: 17/07/2010]WEIDMULLER (2007). Ethernet Industrial [en línea]. Barcelona (España): Weidmuller. <http:// cmswebdav.weidmueller.de/cms/gu_es/Descargas/Catalogos/Ethernet_Industrial/Catalo- go_general/1067190000_CAT9_A_ES.pdf> [consulta: 01/03/2011] 109
    • Universidad de Manizales Facultad de Ciencias e Ingeniería SMA aplicado a la gestión de tráfico de voz en LAN*1 [MAS applied to voice’s traffic management at LAN] Néstor Jaime CASTAÑO-PÉREZ2, José Julián CARVAJAL-VARGAS3Recibo: 20.08.2011 - Ajuste: 21.09.2011 - Ajuste: 25.11.2011 - Aprobación: 17.12.2011 Resumen Este documento presenta la aplicación de un Sistema Multi- Agente (SMA) a la gestión de tráfico de Voz IP en una red de datos de área local (LAN) que no cuenta con equipos activos de alta gama. El SMA fue construido mediante la plataforma JADE (Java Agent DEvelopment), aplicando la metodología MAS CommonKads creando agentes y roles, así mismo, fue ejecutado en modalidad de simulación sobre la red de datos de la Universidad de Manizales, además el artículo presenta los resultados observados al ejecutar la simulación y las conclusiones que se derivan a partir del análisis de estos datos. Los valores registrados en la prueba se obtuvieron utilizando OPNET, un sistema especializado para simular llamadas IP. Palabras Claves: SMA Sistemas Multi-Agentes, VoIP, Gestión de Tráfico, LAN, Inteligencia Artificial.* Modelo para citación de este artículo científico: CASTAÑO PÉREZ, Néstor Jaime y CARVAJAL VARGAS, José Julián (2011). SMA Aplicado a la Gestión de Tráfico de Voz en LAN. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 111- 127. ISSN: 0123-96781 Artículo proveniente del proyecto titulado Gestión de Tráfico, ejecutado en el período 2010- 2011, en el marco investigativo en Telecomunicaciones de la Universidad de Manizales.2 Ingeniero Electrónico; Especialista en Telecomunicaciones; Magister en Automatización Industrial. Docente, Universidad de Manizales, Manizales (Colombia). Correo electrónico: ncastano@umanizales.edu.co.3 Ingeniero de Sistemas; Especialista en Gerencia de Proyectos. Docente, Universidad de Manizales, Manizales (Colombia). Correo electrónico: jucarva@umanizales.edu.co. Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 111-127 111
    • Nº 25 - julio - diciembre / 2011 Abstract This paper presents the application of Multi-Agent System (MAS) to the management of VoIP traffic in a data network (LAN) equipment that has no high-end assets. The SMA was constructed by the platform JADE (Java Agent Development), applying the methodo- logy MAS CommonKads creating agents and roles, likewise, was executed in simulation mode on the data network at the University of Manizales, in addition the article presents the results observed to run the simulation and the conclusions derived from the analysis of these data. The values recorded in the test were obtained using OPNET, specialized software to simulate IP calls. Keywords: MAS Multi-Agent System, VoIP, Traffic Management, LAN, Artificial Intelligence. IntroducciónLas redes de voz y datos vienen presentando un proceso aceleradode convergencia, la cual se presenta en las nuevas tecnologías detransmisión WAN (Wide Area Network) y LAN (Local Area Network),en este proceso surge la voz sobre IP conocida como VoIP, tecnologíaque viene reemplazando la telefonía convencional, según Wallingford(2005, 12).Este trabajo propone que el tráfico de VoIP se gestione por un SMA(Sistema Multi Agente), donde servicios distribuidos como los Web Ser-vices y VoIP imponen grandes retos a los paradigmas de programacióntradicionales (enfoque estructurado y programación orientada a objetos)como lo afirma Mosquera (2003, 145). Los SMA pueden considerarsecomo una forma de aplicación de la Inteligencia Artificial, la cual lepermite a una máquina tomar decisiones de forma autónoma, y es allídonde radica la importancia de su aplicación en la administración detráfico de datos sobre una LAN y corresponde al objeto de estudio delproyecto que origina este documento.Muchas aplicaciones que requieren gestión en tiempo real están sien-do abordadas con éxito por las metodologías de diseño de sistemasmulti-agente, según lo considera Vlassis (2007, 8); esta idea la ratificanBellifemine, Caire y Greenwood (2007, 29). Este proyecto se apoya enestas tesis y con la implementación de un SMA busca: - identificar lascondiciones de la LAN, - controlar el acceso a los recursos de VoIP porparte de los usuarios de acuerdo a diferentes criterios de administración,y - evitar el congestionamiento y garantizar la estabilidad de la red.112
    • Universidad de Manizales Facultad de Ciencias e IngenieríaFinalmente, este documento recopila los fundamentos teóricos paracomprender el desarrollo de la metodología propuesta, la metodología,un caso de uso donde fue aplicada y los resultados que se obtuvieronal monitorear sus variables en ejecución. 1. Fundamento teóricoCuando en una red no existen dispositivos y software que permitanmantener una gestión de tráfico diferenciado, los servicios que requierenfuncionar en tiempo real, como la voz y el vídeo, entran a competir porel acceso al medio, con otros servicios tales como el correo electrónico,web y ftp con las mismas prioridades y como lo expone García y Widjaja(2003, 740), cuando a la red existente se le agrega el tráfico de VoIP,el desempeño de los aplicativos que requieren tiempo real, baja pau-latinamente hasta llevar la calidad del servicio a niveles inaceptablespara los usuarios.El problema radica en, cómo plantear una metodología orientada a laimplantación de servicios de VoIP utilizando un SMA para la gestiónde tráfico, cuando la infraestructura de red existente no está diseñadapara aplicaciones en tiempo real y se tienen equipos activos de red concaracterísticas técnicas reducidas.A continuación se presentan algunos conceptos teóricos claves para lacomprensión general del documento.1.1 Clúster de CallManagerEs una solución de CISCO para agrupar el servicio que pueden prestarlos teléfonos IP en una compañía, como lo expone SoftNet Logicalis(2011, 1) se constituye en una solución escalable, distribuible y de altadisponibilidad, que permite concentrar de 1 a 30.000 teléfonos IP porgrupo (clúster).1.2 Direccionamiento IPConsiste en una técnica para identificar un equipo que se encuentraconecta a una red. «Cada dirección IP está dividida internamente en dospartes: un Id. de red y un Id. de host: El Id. de red, también conocidocomo dirección de red, identifica un único segmento de red dentro deun conjunto de redes (una red de redes) TCP/IP más grande» (Micro-soft, 2011a).1.3 DomainNameSystem (DNS)Este sistema permite convertir un nombre de dominio en una direcciónIP, con el mismo objetivo que persigue el direccionamiento IP. «El 113
    • Nº 25 - julio - diciembre / 2011sistema de nombres de dominio (DNS) es el protocolo de resoluciónde nombres para redes TCP/IP, como Internet. Los servidores DNShospedan la información que habilita los equipos cliente para resolvernombres DNS alfanuméricos fáciles de recordar en las direcciones IPque usan los equipos para comunicarse entre ellos» (Microsoft, 2011b).Por tanto, cuando un DNS toma la dirección http://www.umanizales.edu.co la convierte en http://201.228.3.222, es similar a la lista de contactosde un celular, en la cual es más fácil recordar el nombre del contactoque el número de su teléfono.1.4 Dynamic Host Configuration Protocol (DHCP)Corresponde a un protocolo de comunicación que reduce la carga ad-ministrativa y complejidad de configuración que requiere una máquinaconectada a una red basada en TCP/IP, como lo expone Microsoft(2011c).1.5 FirewallPlataforma de seguridad que busca establecer un control de acceso ysalida de información entre los usuarios de un sistema. «Un Firewall esun sistema (o conjunto de ellos) ubicado entre dos redes y que ejerce launa política de seguridad establecida. Es el mecanismo encargado deproteger una red confiable de una que no lo es (por ejemplo Internet)»(Seguridad de la Información, 2009).1.6 GatewayConsiste en un mecanismo de comunicación entre una LAN e Internet,«Gateway se refiere un software u ordenador ejecutando software quepermite la comunicación entre dos redes.Usando un gateway ProxyServer, usted será capaz de proteger su red contra intrusos. El Gatewayactúa como una barrera que le permitirá hacer peticiones a Internet yrecibir información, pero no permitirá el acceso a su red de usuarios noautorizados.» (Microsoft, 2011d).1.7 Inteligencia Artificial (IA)La definición del término es compleja, en la introducción del artículo serefiere a la capacidad que adquieren las máquinas para tomar decisionesde forma autónoma, sin embargo Russell y Norving (1996) compila unconjunto de definiciones que se exponen a continuación: «“La interesante tarea de lograr que las computadoras piensen… máquinas con mente, en su amplio sentido literal”. (Haugeland, 1985), “[La automatización de] actividades que vinculamos con procesos de pensamiento humano, actividades tales como toma de decisiones, resolución de problemas, aprendizajes…”. (Bell-114
    • Universidad de Manizales Facultad de Ciencias e Ingeniería man, 1978), “El arte de crear máquinas con capacidad de realizar funciones que realizadas por personas requieren inteligencia”. (Kurzweil, 1990), “El estudio de cómo lograr que las computadoras realicen tareas que, por el momento, lo humanos hacen mejor”. (Rich y Knight), “El estudio de las facultades mentales mediante el uso de modelos computacionales”. (Charniak y McDermott)» (Russell y Norving, 1996, p. 4-5).1.8 Internetwork Packet Exchange (IPX)Es un protocolo del modelo OSI cuyo propietario es Novell Netware, ysus principales características son: «a) Es un protocolo no orientado aconexión, b) Emplea transmisión full-duplex, c) Envía mensajes, perono garantiza que alcancen su destino, d) Utiliza sockets para distinguirlos diferentes protocolos de nivel superior» (Salaver, 2003, 64).1.9 Local Area Network (LAN) o Redes de Área LocalCorresponden a las redes que se tienen como objeto de estudio en elpresente proyecto, una definición muy apropiada es considerarlas como«redes de propiedad privada que se encuentran en un solo edificio o enun campo de pocos kilómetros de longitud. Se utilizan ampliamente paraconectar computadoras personales y estaciones de trabajo en oficinasde una empresa y de fábricas para compartir recursos (por ejemplo,impresoras) e intercambiar información» (Tanenbaum, 2003, 16).1.10 Network AddressTranslation (NAT)Este sistema le asigna una única dirección IP a una red completa,«NAT es necesario cuando la cantidad de direcciones IP que nos hayaasignado nuestro proveedor de Internet sea inferior a la cantidad deordenadores que queramos que accedan a Internet» (OpenBSD, 2011).1.11 Sistema Multi-Agente (SMA)Un sistema multiagente es una técnica de inteligencia artificial, dondea cada agente se le encarga una función específica y de allí tiene laposibilidad de comparar variables y tomar decisiones que afectan deforma autónoma el curso de acción de un proceso. «The goal of multiagent systems’ research is to nd methods that allow us to build complex systems composed of autonomous agents who, while operating on local knowledge and possessing only limited abilities, are nonetheless capable of enacting the desi- red global behaviors. We want to know how to take a description of what a system of agents should do and break it down into indi- vidual agent behaviors. At its most ambitious, multiagent systems aims at reverse-engineering emergent phenomena as typied by 115
    • Nº 25 - julio - diciembre / 2011 ant colonies, the economy, and the immune system. Multiagent systems approaches the problem using the well proven tools from game theory, Economics, and Biology. It supplements these with ideas and algorithms from artificial intelligence research, namely planning, reasoning methods, search methods, and machine learning» (Vidal, 2010, 9). 2. MetodologíaConsiderando los requerimientos del problema, es pertinente afirmarque el estudio se desarrolla sobre un modelo de investigación teóricopráctico en el campo de los sistemas digitales de telecomunicacionesy el desarrollo del software.2.1 Diseño del SMAMas (2005, 29) expone cómo enfrentar el desarrollo e implantación deun SMA lo que implica apropiarse de metodologías y herramientas queden solidez a la solución. Su implementación requiere el desarrollo dediferentes fases, para lo cual se ejecutan los siguientes pasos: Diseñoa nivel del Dominio, Diseño a nivel del Agente, Diseño de Componentey Diseño del Sistema. Bordini et al. (2005, 41), plantea los pasos en eldiseño a nivel del Dominio y define protocolos de coordinación.En la implantación del servicio de VoIP deben plantearse preguntasclaves como: «¿Qué impacto en la calidad del servicio tendrá la inser-ción del tráfico IP?,¿Cuántas llamadas de voz se realizarán al día enla red?,¿Qué algoritmos de control de congestión de tráfico se debenutilizar?» (Takanen y Thermos, 2007, 29).Los pasos específicos de diseño a nivel de agentes, implican:• Mapear las acciones identificadas en la conversación de los agentes a componentes internos.• Definir estructuras de datos identificadas en la conversación de agentes (input/outputs de los agentes).• Definir las estructuras de datos adicionales e internas al agen- te (representan los flujos de datos entre los componentes en la arquitectura).En cuanto al nivel de diseño del sistema, implican:• Seleccionar los tipos de agentes que son necesarios• Determinar el número de agentes requeridos para cada tipo• Definir la ubicación física o dirección de los agentes y los tipos de conversaciones que los agentes serán capaces de mantener.116
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEn el proyecto se definen las delimitaciones de la metodología enfocadasdesde la orientación, requerimientos y funcionalidad. La metodologíaestá orientada a:• Segmentar el tráfico• Proporcionar un direccionamiento IP adecuado• Dimensionar la capacidad de tráfico de una LAN existente• Implantar un Sistema Multi-Agente que de estabilidad a la transmi- sión de VoIP en los momentos de congestión de la red.2.2 RequerimientosUna LAN existente, Software de VoIP, Software para análisis de tráficocomo Ethereal, Software para simulación de redes OPNET, Plataformade desarrollo JADE, Firewall como Netlimiter.2.3 Contexto funcional• Los equipos activos de red switches y routers pueden ser adminis- trables o no administrables, con o sin priorización de tráfico.• Esta metodología es para la implantación de VoIP en una LAN, con técnica de acceso al medio CSMA/CD y cableado estructurado categoría 5, 5e, 6 de acuerdo a los estándares de cableado de la EIA/TIA.• La gestión de tráfico del sistema multi-agente es sobre los compu- tadores de la red y no sobre los teléfonos IP o los equipos activos.• Los cambios de topología de la red son requerimientos funcionales de la metodología.• La metodología está orientada a la gestión de tráfico de VoIP y no plantea políticas de seguridad informática.• Es independiente del tipo de codificación de VoIP.• Los computadores pueden tener un sistema operativo Windows XP o Linux.La metodología basada en lo planteado por Salah (2006, 1044) seorganiza en tres fases, la primera es la recopilación de informaciónde la red, la simulación y el rediseño de la topología, la segunda es eldimensionamiento de las capacidades de la red para transportar VoIPy en tercer lugar la implantación del sistema multi-agente.En la figura 1, se presenta el diagrama de flujo propuesto para la im-plementación de la metodología. A continuación se realiza una brevedescripción de los pasos de sugeridos y se hace énfasis especial en laimplantación del sistema multi-agente. 117
    • Nº 25 - julio - diciembre / 2011 Figura 1. Metodología para la implantación de VoIP controlada por SMA.2.4 Fases de la metodologíaEl proyecto busca definir una metodología que contempla siete fasesorientadas a replantear la topología lógica y física de una LAN, privile-giando el balanceo en el tráfico de voz y datos, además dela sectori-zación de las acciones de monitoreo y control que ejecutará el sistemamulti-agente.2.4.1 Evaluación y documentación de la infraestructura de datosexistente. Se requiere evaluar la infraestructura de la red de datosexistente, teniendo en cuenta los siguientes términos:- Nuevos requerimientos de desempeño de voz.- Requerimientos de disponibilidad.- Capacidad potencial de la red y cálculo del impacto de la inserción de VoIP.- SMA Aplicado a la Gestión de Tráfico de Voz en LAN.El análisis de la infraestructura determina los problemas de anchode banda que pueden afectar la calidad y disponibilidad de VoIP.Para realizarlo, se utilizan los procedimientos planteados por Cioara(2006), y se evalúa el plan de direccionamiento IP, la ubicación de losservidores TFTP (Trivial File Transfer Protocol), DNS (Domain NameSystem), DHCP (Dynamic Host Configuration Protocol), firewalls, NATgateways (Network Address Translation) y PAT (Port Address Transla-tion) gateways, la ubicación de gateway y clústeres de CallManager, laimplementación de protocolos, incluyendo enrutamiento IP, SpanningTree, VTP, IPX y protocolos IBM, el análisis de dispositivos, incluyen-118
    • Universidad de Manizales Facultad de Ciencias e Ingenieríado versiones de software, módulos, puertos, velocidades e interfaces,el tráfico de datos característico generado por los equipos, el tipo deconexión telefónica planta digital, análoga o sistema híbridos y las ca-racterísticas técnicas de la planta.2.4.2 Determinación del flujo y la distribución del tráfico de VoIP. Eneste punto existen dos variables a medir la cantidad de tráfico generadopor cada usuario y el flujo del mismo. Si la planta telefónica existentelo permite, se podrá extraer de esta la información necesaria, de locontrario se debe obtener la información de forma manual utilizandotécnicas de recolección estadística.Una vez se obtiene el sentido de flujo de tráfico de VoIP, éste se utilizapara realizar otra simulación y determinar de nuevo cuáles son losequipos activos de red que presentan mayor congestión y con estainformación, se procede a realizar un replanteamiento de la topolo-gía, sí es necesario. Como requisito para la implantación del SistemaMulti-Agente se requiere construir una infraestructura LAN utilizandoun modelo de acceso, distribución y núcleo jerárquico, comúnmenteconocida como una topología de red en estrella que se muestra enla figura 2. Figura 2. Topología de la red de datosEsta topología tiene ventajas, que expone Stallings (2001), y en el casoconcreto de la implementación del SMA, presenta una muy importante,como lo es la segmentación física y lógica de la acción de control. Encaso de existir una llamada de VoIP de Host 2 al Host 7 y producirse una 119
    • Nº 25 - julio - diciembre / 2011congestión es fácil determinar que la acción de control debe realizarsesobre equipos que estén conectados en el Switch P1 y en el Switch P3.La forma en que se produce esta acción de control se explicará conmás detalle en la arquitectura.2.4.3 Ubicación de servidores y Gateways. Una vez se establece elmapa de la topología, se le debe adicionar la ubicación de los servido-res TFTP, DNS, DHCP, Firewalls y Gateways. La ubicación topológicade los equipos, expuesta por Huidobro y Roldán (2003, 112), buscabalancear las cargas de tráfico en la red, la infraestructura existentede datos orienta su carga primordialmente a la granja de servidores yubicar el gateway para el tráfico de voz en el mismo switch produciríaun desbalance en el tráfico de la red, por tanto, es importante ubicarlos servidores DNS, DHCP, correo y web en un switch diferente al quese conecta el Gateway de Voz y el CallManager, sí el tamaño de lared los admite el Gateway y el CallManager deben estar en switchesdiferentes, pero no en la granja de servidores como se muestra enla figura 3. Figura 3. Arquitectura Básica de un Sistema de VoIP2.4.4 Plan de direccionamiento IP. El plan de direccionamiento IP esexpuesto por Huidobro y Millán (2008, 124), y en forma adicional sepropone considerar con respecto al direccionamiento IP:• Escalabilidad de enrutamiento con la telefonía IP.• Reserva de espacio para teléfonos en las subredes IP.• Funcionalidad de DHCP con direccionamiento secundario.• Sobreposición se subredes IP.• Direccionamiento IP duplicado.120
    • Universidad de Manizales Facultad de Ciencias e Ingeniería2.4.5 Cálculo del número de llamadas. Para realizar el cálculo delnúmero de llamadas VoIP que soporta el sistema es necesario ob-tener información sobre los elementos activos de la red, la mayoríade los datos necesarios pueden ser obtenidos utilizando un SNMP(Simple Network Management Protocol). En caso de no contar conesta opción, es posible realizar una simulación utilizando OPNET,tomando como referencia la información en la caracterización de lared.2.4.6 Instalación y configuración del SMA. La arquitectura propuesta,tiene como finalidad la distribución de los agentes de control de red, conel fin de reducir los tiempos de ejecución de las acciones de control. Enla figura 4 se muestra un prototipo de la distribución. Figura 4. Arquitectura Topológica del Sistema Multi-Agente2.4.7 Sistema Multi-Agente. A continuación se presenta los dife-rentes agentes que componen el SMA y sus funciones. De igualmanera, en la figura 5, se presentan las interacciones del SistemaMulti-Agente.• Estructura interna del sistema. El usuario puede, administrar yparametrizar el sistema (permisos, límite de llamadas) o interveniren una llamada (marcar o contestar). Se encarga de administrar elsistema, establecer permisos y determinar el número de llamadas deVoIP permitidas por el sistema con los datos arrojados por el dimen-sionamiento de la capacidad de la red, además define la topologíay el direccionamiento. 121
    • Nº 25 - julio - diciembre / 2011 Figura 5. Diagrama de Control• Equipo. Contiene el software de VoIP, a través del cual se va a rea-lizar la llamada. Puede estar ejecutando otras tareas que consumanrecursos de red. En él se encuentran instalados los agentes. Existendos tipos de equipos, uno el de uso normal y el otro el de control dela red, cuyas funciones consisten en permitir la ejecución del softwarede VoIP para realizar las llamadas y realizar las tareas de control de lared, si este cuenta con un ACT.• Agente de monitoreo de tráfico. Actúa como un sniffer capturando eltráfico que pasa por la NIC (Network Interface Card) para determinar sutipo y procesarlo. Dentro de la simulación el agente recibirá una copia deltráfico enviado de parte del equipo donde se encuentra instalado parapoder analizarlo. Sus funciones consisten en que el agente inicialmentesupervisa el tráfico entrante y saliente de la NIC, cuando detecta el trá-fico, autentica el tipo y el número de bits para determinar el uso comúndel equipo y se lo informa al agente de control, al detectar tráfico de unallamada VoIP determina si es entrante o saliente, es decir sí el equipodonde se encuentra hace la llamada o la recibe, reporta la estadísticadel sistema al agente de monitoreo de llamada y también reporta sí seestá realizando una llamada y sí ésta es entrante o saliente, cuandodetecta una llamada le reporta el equipo origen y el destino al agentede control de tráfico.122
    • Universidad de Manizales Facultad de Ciencias e Ingeniería• Agente de monitoreo de llamada. Se encarga de mantener informa-ción acerca de la llamada de VoIP para determinar el funcionamientode la misma, verifica el retardo que puede ser perjudicial para la fluidez.Las funciones que cumple se resumen en que el monitor de tráficoindica cuando se han enviado o recibido paquetes de VoIP para queeste determine el retardo, sí el retardo se mantiene dentro de los límitespermitidos se mantiene a la expectativa y mantiene estadísticas de lacomunicación, cuando el retardo se acerca al límite y la tendencia esa aumentar lo reporta al agente de control de red.• Agente de control de tráfico. Maneja la NIC de acuerdo con la in-formación que le sea enviada desde el control de la red, sí se le indicaque el equipo está causando congestión, éste disminuye el tráficode baja prioridad. Como funciones, se mantiene expectante a lo quele reporte el agente de control de tráfico, sí el agente de control dered le indica que es necesario bajar la cantidad de tráfico generado,este baja la tasa de transferencia en este equipo de acuerdo a lasprioridades que tenga.• Agente de control de la red. Se encarga de recolectar la informaciónacerca del uso de los equipos originados por los agentes de control.Además es el encargado de ejercer las funciones de control de la red apartir de dicha información, porque al recibir un reporte de congestión,éste determina que equipos no son prioritarios dentro de las redes afec-tadas y les indica a sus agentes de control de tráfico que disminuyanel uso de recursos.Tiene como función, cuando inicia, esperar la información estadísticaproveniente de los agentes de monitoreo de tráfico, permite establecerla llamada de VoIP, ya que el software de VoIP le consulta antes delanzar una llamada acerca del estado de la red, recibe de los agentesde monitoreo de llamada la información cuando hay una en progreso,dos agentes le indican esto, siendo uno el del equipo que marca y elotro el del equipo que contesta, con esta información el agente sabeya a qué segmento de red pertenece cada uno, sí los monitores dellamada le reportan retardo en algún caso, el equipo mira en su basede datos cuál es la utilización de los equipos en cada red y de acuerdoa las prioridades determine qué equipo o equipos deben disminuir sutráfico y le informa al agente de control de tráfico de dichos equipos,cuando ambos agentes de monitoreo de llamada le informan que lallamada ha finalizado le avisa a los agentes de control de tráfico delos PC, en los que hubiese sido necesario disminuir el tráfico para quepuedan restituirlo a niveles normales. 123
    • Nº 25 - julio - diciembre / 2011 3. Resultados y discusión3.1 Descripción de resultadosLa simulación se realizó en un segmento de red de la Universidad deManizales, específicamente en el centro de cableado de la Facultadde Ciencias e Ingeniería. La figura 8, muestra la arquitectura delsegmento. Figura 8. Red de datos experimentalCon el fin de propiciar la congestión, se conectaron 13 equipos a unHub de 10 Mbps, y se iniciaron descargas de Internet y de Intranet,se limitó el tiempo de retardo a 30 milisegundos como máximo, parapoder alcanzarlo en el entorno experimental. Se tomaron datos durante10 segundos. Para cada segundo se seleccionó el tiempo máximo deretardo entre dos paquetes de VoIP, mediante el uso de Asterisk comosoftware de VoIP y se midieron las comunicaciones punto a punto,utilizando Ethereal.En la tabla 1, se muestran los tiempos de retardo de una llamada deVoIP, tomados en un computador durante 10 minutos, con el SistemaMulti-Agente inactivo, donde ocurrió un retardo máximo de 72.71milisegundos y 39.77 milisegundos como promedio del retardo. Deigual manera, presenta los retardos cuando se activó el SMA, no-tándose un retardo máximo de 41,84 milisegundos, uno mínimo de11,01 milisegundos y en promedio el retardo establecido fue de 23,82milisegundos.124
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Tabla 1. Comportamiento del retardo de las llamadas de VoIP sin SMA y con SMA Tiempo de Retardo en segundos Muestra Sin SMA Con SMA 1 0,00123 0,01201 2 0,07271 0,01822 3 0,04381 0,02410 4 0,04451 0,04101 5 0,05541 0,02021 6 0,01784 0,04184 7 0,02932 0,03141 8 0,04244 0,02003 9 0,05401 0,01843 10 0,02532 0,011013.2 Discusión de resultadosEl pico de la 41,84 ms ocurrió en el momento que Sistema Multi-Agenteentró en funcionamiento, posteriormente se redujo el tráfico en el equipodonde se realizó las mediciones. Como se puede apreciar en el ins-tante que el sistema SMA entra en funcionamiento se produce un picono deseado el cual puede ser tolerado dentro de los límites subjetivosesperados para la calidad del servicio.En la simulación realizada para este proyecto se logró mantener el retar-do de la comunicación de VoIP, dentro de los parámetros establecidosen los momentos de congestión de la red. Con los datos arrojados poresta simulación se puede observar una diferencia de 16 milisegundosen promedio, esto significa que al aplicar el SMA al modelo, el tiempode retardo se reduce hasta en un 40,1%, generando un valor agregadoen eficiencia a los dispositivos de red utilizados.Se estableció una propuesta de metodología para la implantación deVoIP en una LAN utilizando Sistemas Multi-Agente, basada en la carac-terización del tráfico existente en la red, una simulación de carga y lametodología de diseño de agentes MAS CommonKads. Esta propuestade metodología debe comprobarse mediante su aplicación en otrassimulaciones donde se pueda estudiar que sucede reemplazando lasimulación de carga por carga real, y aplicándola en entornos similares,donde se usen equipos activos de baja gama. 4. Conclusiones• La metodología propuesta permite implantar un SMA sobre una LAN con equipos activos de baja gama y delegar bajo el concepto 125
    • Nº 25 - julio - diciembre / 2011 responsabilidad automatizada el realizar una gestión adecuada para el tráfico de VoIP.• Al ejecutar la gestión para el tráfico de VoIP con un SMA sobre una LAN con equipos activos de baja gama, se obtiene una mejora rele- vante al problema de retardo, por tanto, con este proyecto se logra establecer una solución que mejora la eficiencia en este aspecto hasta en un 40,1% frente a no gestionarlo mediante software.• De este proyecto se pueden derivar nuevos subproyectos, cuyos objetivos conduzcan a: - analizar las vulnerabilidades que producen los permisos que se otorgan a los agentes sobre las estaciones de trabajo, - utilizar los SMA para controlar los dispositivos acti- vos de red que posean SNMP, - diseñar un sistema que aplique políticas de gestión de tráfico en tiempo real, como un manejador de descargas, - desarrollar un software que permita escribir sobre paquetes creados por otros aplicativos, y - analizar la aplicación del SMA a la transmisión de video. Bibliografía3CX (2011). Software based PBX for Windows [on line]. Atlanta (Georgia, USA): 3CX Ltd. <http://www.3cx.es/voip-pbx/index.html?gclid=CISisf2K0qoCFQ9S7A odmCHw1A> [consult: 21/07/2011].ADSLFAQS (2007). ¿Qué es PAT (Port Address Translation)? [en línea]. San Telmo (Buenos Ai- res, Argentina): ADSLfaqs <http://www.adslfaqs.com.ar/que-es-pat-port-address-translation/> [consulta: 21/07/2011].BELLIFEMINE, Fabio Luigi; CAIRE, Giovanni and GREENWOOD, Dominic (2007). Developing Multi-Agent Systems with JADE. Southern Gate (Chichester, UK): Wiley. 300 p. ISBN: 978-0470057476.BORDINI, Rafael H.; DASTANI, Mehdi; DIX, Jürgen and SEGHROUCHNI, Amal El Fallah (ed.) (2005). Multi-Agent Programming: Languages, Platforms and Applications. Columbia (New York, USA). 296 p. ISBN: 13: 978-0387245683BREKEKE SOFTWARE (2011). Brekeke SIP Server - SIP Proxy, Registrar Server [on line]. San Mateo (USA): Brekeke Software, Inc. <http://www.brekeke.com/sip/> [consult: 21/07/2011].CIOARA, Jeremy (2006). CISCO IP Telephony (CIPT), 2 ed. Indianapolis (Indiana, USA): Cisco Press. 912 p. ISBN: 978-1587052613.DIGIUM (2010). Open Source Communications [on line]. Huntsville (Alabama, USA): DIGIUM. <http://www.asterisk.org/home> [consult: 21/07/2011].ETHEREAL (2007). Network professionals around the world for troubleshooting, analysis, software and protocol development, and education [on line]. Bainbridge Island (Washington, USA): OPNET. <http://www.ethereal.com/> [consult: 24/07/2011].GARCÍA, Alberto León y WIDJAJA, Indra. (2003). Redes de Comunicación: Conceptos Funda- mentales y Arquitecturas Básicas. McGraw-Hill. 2 ed. p. 740-745. ISBN-13: 978-0071198486.HUIDOBRO MOYA, José Manuel y ROLDÁN MARTÍNEZ, David (2003). Integración de voz y datos: Call centers, tecnología y aplicaciones. México (México): McGraw-Hill.389 p. ISBN: 978-8448138509.HUIDOBRO MOYA, José Manuel. (2007). Redes de datos y convergencia IP. México (México): Alfaomega. 364 p. ISBN-13: 978-9701512784.126
    • Universidad de Manizales Facultad de Ciencias e IngenieríaIBERCOM (2006). ¿Qué es PBX? [en línea]. Madrid (España): World Wide Web Ibercom, <https:// www.ibercom.com/soporte/index.php?_m=knowledgebase&_a=viewarticle&kbarticleid=86> [consulta: 21/07/2011].JADE (2011). JADE (Java Agent DEvelopment Framework) [on line]. Roma (Italy): JADE. <http:// jade.tilab.com/> [consult: 21/07/2011].LOCKTIME SOFTWARE (2008). NetLimiter - Ultimate Bandwidth Shaper [on line]. Praha (CZ): Locktime Software s.r.o. <http://www.netlimiter.com/> [consult: 21/07/2011].MAS, Ana (2005). Agentes Software y Sistemas Multi-Agente: Conceptos, Arquitecturas y Aplica- ciones. Madrid (España): Pearson. 285 p. ISBN: 9788420543673MICROSOFT (2011a). Direccionamiento IP [en línea]. Redmond (Washington, EUA): Microsoft Corporation. <http://technet.microsoft.com/es-es/library/cc787434(WS.10).aspx> [consulta: 21/07/2011].MICROSOFT (2011b). DNS [on line]. Redmond (Washington, USA): Microsoft Corporation. <http:// technet.microsoft.com/es-es/library/cc730921(WS.10).aspx> [consult: 21/07/2011].MICROSOFT (2011c). DHCP (Dynamic Host Configuration Protocol) [on line]. Redmond (Wash- ington, USA): Microsoft Corporation. <http://www.microsoft.com/spain/windowsserver2003/ technologies/dhcp/default.asp> [consult: 21/07/2011].MICROSOFT (2011d). ¿Qué es Microsoft Proxy Server? [en línea]. Redmond (Washington, EUA): Microsoft Corporation. <http://support.microsoft.com/kb/550559/es>. [consulta: 21/07/2011].MOSQUERA, Celestino (2003). Análisis y Estudio Experimental de Herramientas Basadas en Agentes. Proyecto Final de Carrera (Ingeniero Técnico Informático). Universidad de Coruña.OPENBSD. (2011). PF: Traducción de Direcciones de Red (NAT). [en línea].Calgary (Alberta, Canadá): OpenBSD <http://www.openbsd.org/faq/pf/es/nat.html> [consulta: 21/07/2011].OPNET TECHNOLOGIES (2011). AppResponseXpert appliance-based solution that monitors and analyzes end-user experience for all levels of transactions [on line]. Bethesda (Maryland, EUA): OPNET. <http://www.opnet.com/solutions/application_performance/appresponse-xpert. html>. [consult: 21/07/2011].RUSSELL, Stuart; y NORVIG, Peter (1996). Inteligencia Artificial Un enfoque moderno. Neucalpan de Juárez (México): Prentice Hall. ISBN: 968-880682XSALAH, Khaled (2006). On the deployment of VoIP in Ethernet networks: methodology and case study [on line]. Dhahran (Saudi Arabia): Department of Information and Computer Science, King Fahd University of Petroleum and Minerals. p. 1039–1054. <http://faculty.kfupm.edu.sa/ ics/salah/voiptool/papers/ComComm.pdf> [consult: 20/07/2011]SALAVER C., Antonio (2003). Los protocolos en las redes de ordenadores. Barcelona (España): Edicions UPC (Editorial de la Universitat Politècnica de Catalunya). ISBN: 8483017482.SEGURIDAD DE LA INFORMACIÓN (2009). Firewall / Cortafuegos [en línea]. Buenos Aires (Ar- gentina): Segu-Info. <http://www.segu-info.com.ar/firewall/firewall.htm> [consulta: 21/07/2011].SOFTNET LOGICALIS (2004). CISCO CallManager Versión 4.1 [en línea]. Santiago (Chile): CISCO. <http://uc.la.logicalis.com/images/callmanager.pdf> [consulta: 24/07/2011].STALLINGS, William (2001). Comunicaciones y redes de computadores. Madrid (España): Prentice Hall. 904 p. ISBN: 978-8420529868.TAKANEN, Ari and THERMOS, Peter (2007). Securing VoIP Networks: Threats, Vulnerabilities, and Countermeasures. Indianapolis (Indiana, USA): Addison-Wesley Professional 384 p. ISBN: 978-0321437341.TANENBAUM, Andrew S. (2003). Redes de computadoras, 4 ed. Madrid (España): Pearson Prentice Hall. 912 p. ISBN-13: 978-9702601623.VIDAL, José M. (2007). Fundamentals of Multiagent Systems with NetLogo Examples [on line]. Columbia (USA): José M. Vidal - CSCE 782: Multiagent Systems at the University of South Carolina <http://jmvidal.cse.sc.edu/papers/mas.pdf> <http://multiagent.com/2009/03/ fundamentals-of-multiagent-systems.html#!/2009/03/fundamentals-of-multiagent-systems. html> [consult: 24/07/2011].VLASSIS, Nikos (2007). A concise introduction to multiagent systems and distributed artificial intel- ligence. San Rafael (CA, USA): Morgan & Claypool Publishers. 84 p. ISBN: 978-1598295269.WALLINGFORD, Theodore (2005). Switching to VoIP. New York (USA): O’Reilly Media. 504 p. ISBN: 978-0596008680. 127
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Minería de datos con conjuntos aproximados para clasificación de imágenes satelitales*1 [Data mining with rough sets for classification of satellite images] Juan Olegario MONROY VÁSQUEZ2Recibo: 20.08.2011 - Ajuste: 20.09.2011 - Ajuste: 15.11.2011 - Aprobación: 10.12.2011 Resumen Este artículo trata del estado de arte frente al uso de Rough Set en la clasificación de imágenes satelitales, ésta técnica hace parte de un conjunto de algoritmos que se agrupan dentro de lo que se denomina minería de datos. Hasta ahora Rough set se ha aplicado preferencialmente en el descubrimiento de insolvencias en datos obtenidos de manera experimental durante un lapso de tiempo específico, característica que ha llevado a que se implemente con éxito en empresas que requieren tomar decisiones basadas en los análisis de cifras de producción en periodos de tiempo de- terminados; de este conjunto de algoritmos de minería de datos, muchos se han implementado en la clasificación de imágenes satelitales buscando determinar o bosquejar elementos presentes en la superficie terrestre de acuerdo a su comportamiento frente* Modelo para citación de este artículo de revisión: MONROY VÁSQUEZ, Juan Olegario (2011). Minería de datos con conjuntos aproximados para clasificación de imágenes satelitales. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 129- 158. ISSN: 0123-96781 Artículo proveniente del proyecto titulado Análisis de la aplicación de la metodología Rough Set en la clasificación de imágenes satelitales, iniciado en agosto de 2009, e inscrito en el grupo de investigación Gicoge, para optar al título de Magíster en Ciencias de la Información y las Comunicaciones, de la Universidad Distrital Francisco José de Caldas, bajo la dirección del PhD. José Nelson Pérez Castillo.2 Ingeniero Electrónico; Especialista en Multimedia Educativa; MSc(c) en Ciencias de la Infor- mación y las Comunicaciones. Miembro del grupo GICOGE de la Universidad Distrital; Director del grupo de investigación PRODIG de la Universidad Nacional Abierta y a Distancia; Miembro del grupo GLUNAD de la Universidad Nacional Abierta y a Distancia. Docente Auxiliar Universidad Nacional Abierta y a Distancia. Sogamoso (Colombia). Correo electrónico: juan.monroy@unad.edu.co Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 129-158 129
    • Nº 25 - julio - diciembre / 2011 a la radianza electromagnética y así distinguir patrones dentro de las imágenes. Palabras Clave: Conjuntos Aproximados, Imágenes Satelitales, indiscernible Abstract This article is about art state in front of The Rough Set use in the satellite images classification, this technique takes part of a set of techniques and algorithms which are grouped in the data mining. Till now Rough set has been applied preferentially in the discovery of information insolvencies obtained in an expe- rimental way during a specific time, this characteristic has let it to be implemented successfully in companies which need to make decisions based on the production numbers analysis in certain periods of time; many of these data mining algorithms set have been implemented in the classification of the satellite images seeking to determine or to draw the elements on the earth surface according to its behaviour towards the electro- magnetic radiance and in this way to distinguish patterns inside these images. Keywords: Rough Set, Satellite Images, indiscernible IntroducciónActualmente hay un gran conjunto de algoritmos que dan respuesta ala necesidad de descubrimiento de patrones en un conjunto de datoscomo los recogidos por imágenes satelitales, estos algoritmos estánclasificados dentro de las técnicas de minería de datos (descubrimien-to semiautomático de patrones, asociaciones, cambios, anomalíasy estructuras estadísticamente significantes y eventos en los datos,según Grossman et al. (1998); estos algoritmos se agrupan en dosramas: aquellos que hacen uso de ecuaciones y los basados en lalógica, aunque algunos pueden hacer uso tanto de ecuaciones comode la lógica.Este documento en la primera parte trata de los fundamento de latécnica de Conjuntos aproximados, destacando como su uso hapermitido que se constituya en una excelente herramienta paracaracterizar información que presenta alto grado de incertidumbre,situación cotidiana en datos geográficos, administrativos y en generalen la información recolectada experimentalmente; posteriormentese muestran los aspectos más relevantes a tener en cuenta en el130
    • Universidad de Manizales Facultad de Ciencias e Ingenieríamomento de tomar datos de imágenes satelitales para descubrirpatrones y como la técnica de conjuntos aproximados pueden con-tribuir en el proceso. 1. Conjuntos aproximados (Rough Set)La base de la teoría de los conjuntos aproximados está en la suposiciónde que cada objeto del universo de discurso tiene rasgos característi-cos, los cuales son presentados por información (conocimiento, datos)acerca del objeto, de acuerdo con Pawlak (2002). Los objetos quetienen las mismas características son indiscernibles. La teoría ofreceherramientas matemáticas para descubrir patrones escondidos en losdatos, identifica dependencias parciales o totales, es decir relacionescausa – efecto, en bases de datos, elimina redundancia en los datos,da aproximaciones a valores nulos o inválidos, datos perdidos, datosdinámicos etc., considera Pawlak (1991).La teoría de la Técnica de Rough Set surgió en la década de los 80propuesta por Zdzislaw Pawlak, desarrollada originalmente como unaherramienta para el análisis y clasificación de datos, y hoy en día seha aplicado con éxito en diversas tareas, tales como la selección,extracción, definición de reglas de síntesis y clasificación, expresanKomorowski et al. (1998), con lo que se abrió una nueva dirección enel desarrollo de teorías sobre la información incompleta.Esta metodología se clasifican dentro de las técnicas de minería de datos(descubrimiento semiautomático de patrones, asociaciones, estructurasestadísticamente significantes y eventos en los datos, afirman Grossmanet al. (1998), a su vez, se pueden dividir en aquellas que hacen usode ecuaciones, tales cómo la estadística o las redes neuronales, y lasque se basan en la lógica cómo los árboles de decisión y las reglas, sinembargo, algunas pueden hacer uso tanto de ecuaciones como de lalógica. La técnica Rough Set está dentro de las metodologías basadasen la lógica, según afirman Adriaans et al. (1996), Bonilla y Esteban(2003) y Adriaans (2002).1.1 ConceptosLa técnica de Conjuntos Aproximados se puede abordar desde elsignificado de aproximado (Roughness), que Pawlak (1991) definecomo el opuesto al de exactitud, donde la aproximación representael grado del completo conocimiento que se tenga de la clasifica-ción de un conjunto dado, de manera que si la aproximación es 0,el conocimiento de la clasificación puede definirse como el de unconjunto exacto. 131
    • Nº 25 - julio - diciembre / 2011La filosofía de Rough Set se basa en suponer que a cada objeto deluniverso que se considere, se puede asociar alguna información (da-tos, conocimiento), situación que en algunos casos conduce a objetosno discernibles a la vista de los datos disponibles, ésta relación de nodiferenciación genera la base matemática para esta teoría, donde, lainformación imprecisa, es la causa de la no diferenciación de los objetosy evita en consecuencia su asignación precisa a un conjunto. RoughSet es un conjunto de objetos que, en general, no pueden ser carac-terizados de manera precisa en términos de la información disponible,expresan Arco y Bello (2006).El objetivo de la teoría Rough Set consiste en descubrir dependenciasentre atributos a partir de la información disponible y organizada en ta-blas, esto, con el fin de reducir la cantidad de elementos que forman elconjunto, eliminando aquellos que no son esenciales para caracterizarel conocimiento, de manera que se logren subconjuntos de atributosque aseguren la misma calidad de clasificación, que si se dispusierade todos ellos, a estos subconjuntos se les denomina reductos, segúnplantean Pawlak (1982) y Düntsch y Gediga (2000).En las filas de la tabla 1 se indican los objetos (acciones, alternativas,candidatos, pacientes, empresas, etc.), en las columnas se ubican losatributos, a partir de Düntsch y Gediga (2000). Las entradas en la tablason los valores del atributo; es decir, la entrada en la columna q y enfila p tiene el valor f(p, q), por tanto, para cada par (objeto, atributo) seconoce un valor denominado descriptor. Cada fila de la tabla contienedescriptores que representan información correspondiente a un obje-to. La relación de no-diferenciación ocurriría si dados dos objetos susdescriptores tomaran el mismo valor.En relación con los atributos, Düntsch y Gediga (2000), los clasifica en:atributos de condición (criterios, pruebas, síntomas, etc.) y en atributosde decisión (decisiones, clasificaciones, taxonomías, etc.). Tabla 1. Representación de una tabla de información (Modificado de Düntsch y Gediga, 2000) Atributos Objetos 1 2 N 1 Valor (1, 1) Valor (1, 2) Valor (1, n) 2 Valor (2, 1) Valor (2, 2) Valor (2, n) M Valor (m, 1) Valor (m, 2) Valor (m, n)132
    • Universidad de Manizales Facultad de Ciencias e Ingeniería1.2 Reducción y dependencia de atributosComo se mencionó anteriormente, una de las funciones más importantesdel trabajo con Rough Set es el descubrimiento de las dependenciasentre atributos al analizar una tabla de información, esto, porque permitereducir el conjunto al eliminar aquellos atributos que sean redundantes,llegando así al reducto o conjunto mínimo. En una tabla de informaciónpuede haber más de un reducto y su intersección da el denominadonúcleo que, para Zopounidis y Dimitras (1998) y Caballero, et al. (2007a),es la colección de los atributos más relevantes en la tabla y que nopueden ser eliminados sin que disminuya la calidad de la aproximaciónen la clasificación.Una forma de reducción de los datos se observa en la cantidad de ob-jetos del universo a considerar y la otra en la reducción de la cantidadde atributos a tener en cuenta. La esencia es mantener o considerarsolo aquellos atributos que preservan la relación de inseparabilidad;los atributos rechazados son redundantes y su eliminación no afectala calidad de la inferencia. El cálculo de los reductos de un sistema dedecisión es un proceso computacionalmente costoso; esto ha llevadoal desarrollo de algunas variantes para el concepto de reducto, presen-tados por Zhong, Dong y Ohsuga (2001), Kohavi y Frasca (1994), Yao,Wong y Butz (1999) y Caballero et al. (2007b).Al final un conjunto aproximado puede ser reemplazado o representadopor un par de conjuntos precisos, llamados aproximación por encimay por debajo, que según Yun y Yuanbin (2004), la aproximación porencima corresponde a todos los objetos que con seguridad pertenecenal conjunto y la aproximación por debajo contiene los elementos queposiblemente pertenecen al conjunto.1.3 Reglas de decisiónCon Rough Set se obtienen las reglas de decisión de un sistema deinformación; una regla de decisión puede expresarse como una sen-tencia lógica que relaciona la descripción de condiciones y las clasesde decisión, su estructura se muestra a continuación:SI <se cumplen condiciones> ENTONCES <el objeto pertenece a unaclase de decisión dada>Las reglas generadas pueden ser determinísticas o no determinísticas.Para Segovia et al. (s.f.), por determinística (consistente, precisa, exac-ta) se entiende si C→D y en otro caso, es no determinística (inconsis-tente, aproximada) que sería cuando las condiciones pueden conducira varias posibles decisiones. 133
    • Nº 25 - julio - diciembre / 20111.4 Ejemplo de aplicaciónA continuación se muestra como se aplica la técnica de Rough Set a unconjunto de datos que pretenden definir si el desempeño de un deportistaes bueno medio ó malo, según su trabajo en tres pruebas de su estadofísico, una prueba de de actividad moderada, una prueba aeróbica, yuna anaeróbica. Los resultados son medidos y clasificados como bueno,medio y bajo y codificados como 1,0 y -1 respectivamente. El procesose puede resumir en cinco pasos: - Definir la Tabla de información, -Definir la tabla de decisión (Tabla 3), - Establecer la discernibilidad delos elementos del conjunto a aproximar, - Descubrir las dependenciasy obtener las reducciones, y - Obtener las reglas de decisión.1.4.1 Definir la tabla de información. Se ubican en una Tabla 2 losdatos que caracterizan a cada uno de los objetos que hacen parte delestudio. Tabla 2. Ejemplo Tabla de información (Construido a partir de Hor y Crossley, 2005) Pruebas Deportista Aeróbica Anaeróbica Moderada D1 1 -1 1 D2 0 1 1 D3 -1 -1 -1 D4 0 -1 -1 D5 0 -1 -1 D6 1 1 -11.4.2 Definir la tabla de decisión. Se adiciona a la tabla de informa-ción en atributo de decisión que permite en conjunto caracterizar losobjetos (Tabla 3). Tabla 3. Ejemplo Tabla de decisión (Construido a partir de Hor y Crossley, 2005) Atributos de Atributos de condición Deportista decisión Aeróbica Anaeróbica Moderada Estado D1 1 -1 1 1 D2 0 1 1 -1 D3 -1 -1 -1 -1 D4 0 -1 -1 1 D5 0 -1 -1 -1 D6 1 1 -1 1Aquí, simplemente, se han definido cuales se consideran los atributosde decisión y cuales los de condición, en este caso el atributo de deci-134
    • Universidad de Manizales Facultad de Ciencias e Ingenieríasión es aquel que caracteriza al deportista como bueno o malo, segúnsu desempeño en las actividades de prueba, en donde se categorizancomo malo ó medio para conformar así los atributos de condición.La tabla de decisión de manera formal esta conformada por una cuá-drupla así: S=<U, Q, V, f>Donde:U={x1,x2, . . . ,xn} conjunto finito de objetos, en este caso los seisdeportistasU={D1,D2,D3,D4,D5,D6}C={q(1), q(2),…q(m)} conjunto finito de atributos de condiciónC={ Aeróbica, Anaeróbica, Moderada}D={q(m+1), q(m+2),…q(m+n)} conjunto finito de atributos de decisiónD={Estado}Q={q1,q2, . . . ,qm} conjunto finito de atributosQ={Aeróbica, Anaeróbica, Moderada, Estado}Vq es el dominio de cada atributo q, V es la unión de todos los dominios:V=[-1,0,1} que corresponde a -1=malo, 0= medio y 1 bueno el desempeñof:UxQ → V función tal que f(x,q) Є Vq, para x Є U, llamada función deinformación.f(Objeto, atributo)f(D1,Aeróbica)=1, f(D1,Anaeróbica)=-1, f(D1,Moderada)=1,..1.4.3 Establecer la discernibilidad de los elementos del conjuntoaproximado. Una vez definida la tabla de decisión, es necesario esta-blecer las relaciones de indiscernibilidad, que se definen como:Se dice que x está relacionado con y, se escribe: xIPy, si para todo atri-buto q Є P, donde P es un subconjunto de atributos de V, se cumple:f (x1,q) = f (x2,q) 135
    • Nº 25 - julio - diciembre / 2011Entonces para un conjunto P de atributos, P={aeróbica, anaeróbica,moderada) se tiene los elementos discernibles e indiscernibles:Ip(D1)={D1}Ip(D2)={D2}Ip(D3)={D3}Ip(D4)= Ip(D5)={D4,D5}Ip(D6)={D6}Ip={{D1},{D2},{D3},{D4,D5},{D6}}En el caso anterior los elementos indiscernibles son el D4 y D5; ahoralas aproximaciones con un conjunto X1 de deportistas cuyo estado esbueno=1 son: la inferior P X 1( x) y la superior P X 1( x) dadas como:P X 1( x) = {x ∈ U : I P ( x) ⊆ X 1}P X 1( x) = {D1, D6}P X 1( x) = ∪ I P ( x) x∈ XP X 1( x) = {D1, D 4, D5, D6}Y la FronteraBP X 1( x) = P X 1( x) − P 1( x) XBP X 1( x) = {D 4, D5}Ahora las aproximaciones con un conjunto X2 de deportistas cuyo estadoes malo=-1 son: la inferior P X 2( x) y la superior P X 2( x) dadas como:P X 2( x) = {x ∈ U : I P ( x) ⊆ X 2}P X 2( x) = {D 2, D3}P X 2( x) = ∪ I P ( x) x∈ XP X 2( x) = {D 2, D3, D 4, D5}Y la FronteraB P X 2( x) = P X 2( x) − P 2( x) XBP X 2( x) = {D 4, D5}1.4.4 Descubrir las dependencias y obtener las reducciones. Esnecesario establecer ahora las dependencias y obtener las reducciones,136
    • Universidad de Manizales Facultad de Ciencias e Ingenieríapara ello se parte de la calidad de las aproximaciones encontradas,para el presente caso se tiene el conjunto aproximado X={X1,X2}, cuyacalidad de aproximación se da por: P( X 1) + P( X 2) γ P (X ) = UDonde: Indica la cardinalidad del conjunto que contieneγ P ( X 1) Representa la fracción de objetos de U correctamenteClasificadosEntonces: P( X 1) + P( X 2) 2+2 γ P (X ) = = = 0.667 U 6Para obtener las dependencias y reducciones es necesario tener lacalidad de aproximación para cada atributo, que se muestran en la tabla4, donde los conjuntos de atributos son:P1={Aeróbica}P2={Anaeróbica}P3={Moderada}P4={Aeróbica, Anaeróbica}P5={Aeróbica, Moderada}P6={Anaeróbica, Moderada}P={Aeróbica, Anaeróbica, Moderada}γ Calidad de la Aproximación. Tabla 4. Ejemplo calidad de las aproximaciones para cada atributo (Construido a partir de Hor y Crossley, 2005) P1 P2 P3 P4 P5 P6 P γ 0.5 0.0 0.0 0.667 0.667 0.5 0.667De la tabla 4 se concluye que los reductos de P son P4 y P5, que sonlos conjuntos de atributos:P4={Aeróbica, Anaeróbica}P5={Aeróbica, Moderada} 137
    • Nº 25 - julio - diciembre / 2011Son reductos porque la calidad de aproximación de cada uno de elloses igual a la obtenida con P que utiliza todos los atributos P={Aeróbica,Anaeróbica, Moderada}, de aquí se obtiene el núcleo de P, es decir,aquel atributo que no puede dejar de considerarse, el más significativo:Significa que se puede emplear como conjunto de atributos P4 o P5 yaque se obtiene la misma calidad de aproximación que usando P.1.4.5 Obtener las reglas de decisión. Las reglas de decisión, comose mencionó anteriormente, son el tipo Si. ENTONCES, las cuales seconstruyen a partir de los atributos reductos P4 ó P5 o, considerandotodos los atributos, P así:Para P= {Aeróbica, Anaeróbica, Moderada}, que es el conjunto formadopor los tres atributos tienen seis reglas de decisión así:SI f(x,P1)=1 y f(x,P2)=-1 y f(x,P3)=1 ENTONCES f(x,Estado) = 1= BuenoSI f(x,P1)=0 y f(x,P2)=1 y f(x,P3)=1 ENTONCES f(x,Estado) = -1= MaloSI f(x,P1)=-1 y f(x,P2)=-1 y f(x,P3)=-1 ENTONCES f(x,Estado) = -1= MaloSI f(x,P1)=0 y f(x,P2)=-1 y f(x,P3)=-1 ENTONCES f(x,Estado) = 1= BuenoSI f(x,P1)=0 y f(x,P2)=-1 y f(x,P3)=-1 ENTONCES f(x,Estado) = -1= MaloSI f(x,P1)=1 y f(x,P2)=1 y f(x,P3)=-1 ENTONCES f(x,Estado) = 1= BuenoDe las anteriores reglas se concluye que cuatro de ellas son determi-nísticas (1, 2, 3, 6) y dos no lo son (4, 5); dado que estas últimas reglasde decisión no permiten determinar el valor que debe asignársele aun deportista según los tres atributos considerados en P, hace que loselementos con estas características hagan parte de la frontera definidaanteriormente.138
    • Universidad de Manizales Facultad de Ciencias e IngenieríaY por tanto, es aconsejable ampliar el rango de atributo que haganposible discernir a los elementos de hacen parte de dicha frontera.Para P4 = {Aeróbica, Anaeróbica}, que es el conjunto formado por losdos atributos reductos, se tienen seis reglas de decisión así:SI f(x,P1)=1 y f(x,P2)=-1 ENTONCES f(x,Estado) = 1= BuenoSI f(x,P1)=0 y f(x,P2)=1 ENTONCES f(x,Estado) = -1= MaloSI f(x,P1)=-1 y f(x,P2)=-1 ENTONCES f(x,Estado) = -1= MaloSI f(x,P1)=0 y f(x,P2)=-1 ENTONCES f(x,Estado) = 1= BuenoSI f(x,P1)=0 y f(x,P2)=-1 ENTONCES f(x,Estado) = -1= MaloSI f(x,P1)=1 y f(x,P2)=1 ENTONCES f(x,Estado) = 1= BuenoDe las anteriores reglas se concluye que cuatro de ellas son determi-nísticas (1, 2, 3, 6) y dos no lo son (4, 5); dado que estas últimas reglasde decisión e igual que en el caso anterior no permiten discernir loselementos, se sugiere entonces ampliar el rango de atributos.1.5 Algunas aplicaciones de la técnica de Rough SetRough Set se ha aplicado preferencialmente en el descubrimientode insolvencias en conjuntos de datos obtenidos por lo general, demanera experimental durante un lapso de tiempo determinado, porello se ve como se ha implementado con éxito en el análisis de datosrecogidos por empresas en determinados periodos de producción ya partir de los cuales se deben tomar decisiones de tipo gerencial,principalmente en el análisis de la insolvencia empresarial, según loexpresan Segovia et al. (s.f.), Segovia et al. (2005) y Díaz, Fernándezy Segovia (2004).Además de estas aplicaciones de la cuales existen amplia y variadaevidencia en la web, puede encontrarse otras áreas de aplicación como: 139
    • Nº 25 - julio - diciembre / 2011- Descubrimiento de conocimiento útil de datos geográficos múltiples donde el tamaño y la complejidad del conjunto de datos desafían la comprensión humana, corroborado como un estudio de caso que se concentran en conocimientos sobre la distribución de animales y sobre el peligro de avalancha (Colin, 1998).- Modelamiento del sistema de un motor ac y técnicas para el diag- nóstico de fallas (Bonaldi et al., 2002).- Propuesta de un modelo de computación granular basado en con- juntos aproximados (Ying, Peiyao y Dongsheng, s.f.).- Como herramienta para inferir acerca de la correspondencia de imá- genes de rostros con diferencias en la iluminación (Yong et al., s.f.)- La teoría de conjuntos aproximados con tolerancia provee una forma de agrupar los resultados de la búsqueda en la web (Ngo y Nguyen (2005) y Wakaki, Itakura y Tamura (2004)).- En aspectos meteorológicos se ha implementado para clasificar los diferentes tipos de tormentas (Peters et al., 2003).- Los detectores de metales utilizados en la actualidad por los equi- pos dedicados a la descontaminación de la minería, de manera que es necesario confirmar los datos sensados a partir de el des- cubrimiento de las reglas en las bases de datos de las minas, aquí Rough Set se convierte en una herramienta aplicable (Choudharil y Nandi, 2005)- Minería de datos sobre texto es otra de las aplicaciones en las que se ha trabajado, donde además se ha desarrollado un nuevo concepto Rough Text en la validación de agrupamientos, el etiquetado de agru- paciones y el resumen de multidocumentos (Arco y Bello, 2006).- El RSSM, como un servicio basado en Rough Set con el objetivo de tolerar la incertidumbre en la búsqueda de servicios en la grid. Los resultados de la evaluación han mostrado que la RSSM algoritmo es más eficaz en el descubrimiento que otros mecanismos como UDDI y OWL (Li et al., 2006)- En la medicina se usa Rough set como una herramienta de apoyo al análisis de datos médicos enmarcados dentro de los estándares de medida (Ohrn, 1999).- Preprocesamiento de los datos, para editar conjuntos de entrena- miento en la solución de problemas de clasificación. Se propone un algoritmo para la edición de dichos conjuntos, basado en los concep- tos de aproximaciones de la RST y la técnica Bootstrap (Cárdenas, Caballero y Bello, 2007)- Rough Set también se ha empleado junto con otras técnicas para crear algoritmos híbridos, por ejemplo se ha utilizado para apoyar un140
    • Universidad de Manizales Facultad de Ciencias e Ingeniería método de construcción de la estructura de una red neuronal difusa (Xian, Ji-Kai y Yan-Hong, s.f.).- Creación de un servicio web inteligente para clasificar imágenes digitales empleando conjuntos aproximados (Caicedo y Pérez, 2010)Por otra parte, en la Universidad de Poznan (Polonia) se desarrolló elprograma ROSE2, Rough Set Data Explorer, según lo presentan Predkiet al. (1998), y Predki y Wilk (1999). 2. Clasificación de imágenes satelitales (Raster)El objetivo de la clasificación de imágenes satelitales es identificar loselementos presentes en la superficie terrestre, para ello se basa en infor-mación captada y discretizada por un sistema de sensores de radianzaelectromagnética ubicados en satélites, esta radianza se traducen enun entero entre 0 y 255 por cada pixel de la imagen satelital; con estainformación se alimenta un algoritmo que define los patrones o cate-gorías superficiales en la que entran los elementos que la componeny les asigna un falso color para conformar la imagen de la clasificaciónde la cobertura vegetal del terreno.Para comprender mejor el concepto de clasificación que se enuncióanteriormente, es necesario abordar algunos aspectos referentes alas imágenes satelitales, los tipos de satélites de teledetección que ac-tualmente se utilizan para captar información de la superficie terrestre,satélite Landsat 7, ampliar el proceso de clasificación y, finalmente,enunciar el software de clasificación de imágenes satelitales másdestacado.2.1 Características de las imágenes satelitalesUna imagen satelital corresponde, afirma Felicísimo (2001), a una ima-gen digital que representa gráficamente un objeto sobre la superficie dela tierra mediante una matriz regular que recoge valores de reflectancia,los que se miden mediante sensores.Dentro de las características a distinguir en una imagen satelital enfunción del objetivo del proyecto están: la potencialidad de la resoluciónfrente al uso que se le de al resultado del procesamiento de dichas imá-genes y la información genérica a extractar según la banda o rango defrecuencia de la onda electromagnética (su longitud de onda), captadacomo niveles digitales. 141
    • Nº 25 - julio - diciembre / 2011La Resolución Espacial hace referencia al área representada en cadauno de los pixeles que componen la imagen, donde puede encontrarse,según Delgado (2009):- Resoluciones de 80 m. Con características de uso en: cartografía estructuras geológicas regionales, en evaluación de la salud vegeta- tiva en una región relativamente extensa 1 kilómetro, en valoración de la salud vegetativa en estados y países enteros, seguimiento de eventos regionales como plagas de insectos, sequía y desertificación.- Resolución espacial de 20-30 m. Con este tipo de resolución es po- sible ubicar aeropuertos, cascos urbanos, barriadas periféricas, cen- tros comerciales, complejos deportivos, grandes fábricas, extensos bosques y explotaciones agrícolas de gran amplitud, de igual forma realizar clasificaciones generalizadas de la superficie del terreno,- Resolución espacial de 10 m. A este nivel de detalle es factible ubicar y cartografiar edificios, predios, carreteras, límites de propie- dad, campos de deporte, granjas y calles laterales; también permite diferenciar entre parcelas cultivadas y sin cultivar en función de la salud vegetativa relativa y por último facilitar las tipificaciones de la cubierta del suelo en pequeñas áreas.- Resolución Espacial de 1 m. Esta resolución logra entre otras co- sas: Identificar y cartografiar rasgos a la escala humana superiores a un metro cuadrado, tales como tapas de alcantarilla, bancos, automóviles, cocheras de autobuses, carriles de autopista, aceras, equipamiento de servicios públicos, cercas, árboles y arbustos. De igual forma otras tareas posibles de realizar a esta resolución son: identificar características de muchos de los objetos mencionados, detectar pequeñas zonas de estrés en parcelas agrícolas o arboledas, localizar y cartografiar ampliaciones de casas, carreteras, edificios, patios y pequeñas explotaciones agrícolas y ganaderas, diferencia distintos tipos de edificios.- Resolución Espacial de 0.61 m. «Estas imágenes muestran un excelente nivel de detalle, claridad, calidad espectral y cobertura global, siendo una gran herramienta para el análisis e interpretación de la superficie terrestre, especial- mente en el ámbito militar, administración de recursos naturales, evaluación de desastres, planificación urbana, vialidad e infraestruc- tura, telecomunicaciones, agricultura, control del medio ambiente, catastros, cartografía detallada, localización e identificación de zonas urbanas, minería, entre otros» (GeoService Perú, s.f., 3).- Longitud de onda captada. Según la longitud de onda captada de la superficie terrestre, puede destacarse las principales aplicaciones142
    • Universidad de Manizales Facultad de Ciencias e Ingeniería así: - Azul visible: Cartografía de aguas someras. Diferenciación de suelo y vegetación, - Verde visible: Diferenciación de la vegetación por su salud, - Rojo visible: Diferenciación de la vegetación por es- pecies, - Infrarrojo cercano: Cartografía de la vegetación Cartografía del vigor/salud de la vegetación Diferenciación de la vegetación por especies, - Infrarrojo medio: Diferenciación de los tipos de rocas por composición, Detección de humedad en la vegetación y suelo, Cartografía de la estructura geológica, Trazado de límites tierra/ agua.2.2 Satélites de teledetecciónDentro del grupo de satélites dispuestos en órbita con fines de telede-tección se encuentran aquellos que ofrecen resoluciones desde 61 cmhasta 80 m. A continuación se hace una breve descripción de los másconocidos, de acuerdo a lo presentado por CASI (2010):- QuickBird. El satélite QuickBird fue lanzado en octubre de 2001, con una órbita heliosíncrona y una altura de 450 Km., pasando por un mismo lugar en un tiempo de 3 a 7 días, adquiere imágenes en blanco y negro con 61 cm de resolución e imágenes a color (4 bandas) con 2,44 m de resolución, cubriendo una superficie de 16,5 Km. x 16,5 Km.- Ikonos. El satélite Ikonos fue lanzado con una órbita síncrona con el sol a una altura aproximada de 680 Km. Puede producir imágenes de un mismo lugar cada 3 días. Las imágenes tienen un ancho de 11,3 Km. en el nadir. Ikonos es programable y el instrumento de toma de imágenes orientable, lo que permite la revisita de un mismo sitio en menos de tres días, además de ofrecer imágenes en blanco y negro con una resolución de 1 m e imágenes en color (cuatro bandas) con una resolución de 4 m.- OrbView. El satélite OrbView-3 fue puesto en órbita en junio de 2003 y captura datos con una resolución espacial de 1 m en el pancro- mático y 4 m en el multiespectral. El ancho de pasada es de 8 Km. y puede pasar por un mismo punto de la Tierra en menos de tres días, pudiendo tomar datos con un ángulo máximo de inclinación de 50º. Ofrece imágenes pancromáticas con una resolución de 1m y multiespectrales (cuatro bandas) con una resolución de 4 m.- Landsat – MSS / TM / ETM. El satélite Landsat se encuentra operativo desde julio de 1972. Situado a una altura de 705 Km., ofrece imágenes con una extensión de 185 Km. × 185 Km. cada 16 días. Los satélites Landsat 4 y 5, proporcionan imágenes multiespectrales de los sen- sores MSS (cuatro bandas) y TM (siete bandas) con una resolución 143
    • Nº 25 - julio - diciembre / 2011 espacial de 80m y 30m, respectivamente. Además, el sensor ETM + a bordo del Landsat 7 ofrece una banda más pancromática de 15 m de resolución.- Spot – HRVIR. Desde 1986 se han lanzado cinco satélites, propor- cionando imágenes de media y alta resolución de la superficie de la Tierra. Los satélites Spot orbitan a una altura de 810 Km. proporcio- nando imágenes con una extensión de 60 Km. x 60 Km. en el nadir. Spot 5 posee nuevas características que suponen una serie de me- joras sobre los anteriores, proporcionando imágenes pancromáticas con una resolución de 5 m (2,5 m en supermodo) y multiespectrales (5 m en supermodo) a una resolución de 10m.- Formosat-2. De acuerdo con Fernández y Herrero (2001), es un satélite de alta resolución gestionado por el NSPO (National Space Program Office de Taiwán), lanzado el 20 de mayo de 2004, cuyos datos técnicos son: imágenes blanco y negro de 2 m de resolución, imágenes color de 8 m de resolución (cuatro bandas espectrales: infrarrojo cercano, rojo, verde y azul), cobertura de 24 Km. x 24 Km. por escena.2.3 Satélite Landsat-7El último satélite fue lanzado en abril de 1999 con un nuevo sensor de-nominado ETM+ (Enhanced Thematic Mapper Plus). Su operación esadministrada por la NASA (National Space and Space Administration)y la producción y comercialización de imágenes depende de la USGS(United Sates Geological Survey).Una imagen Landsat 7 ETM+ está compuesta por ocho bandasespectrales que pueden ser combinadas de distintas formas paraobtener variadas composiciones de color u opciones de procesamien-to. Entre las principales mejoras técnicas respecto a su antecesor,el satélite Landsat 5, se destaca la adición de una banda espectral(Banda Pancromática) con resolución de 15 m. También cuenta conmejoras en las características geométricas y radio métricas y unamayor resolución espacial de la banda térmica para 60 m, segúnafirma Conaf (1983, 76).Estos avances tecnológicos permiten calificar al Landsat-7 como el sa-télite más interesante para la generación de imágenes con aplicacionesdirectas hasta una escala de 1:25.000, principalmente en áreas ruraleso territorios de grandes extensiones. Las imágenes generadas por élpresentan una mejor relación costo-beneficio que los datos generadospor satélites de resolución media (15 a 30 metros) actualmente ofreci-dos en el mercado.144
    • Universidad de Manizales Facultad de Ciencias e IngenieríaA continuación se muestran algunas de las conclusiones de investiga-ciones que apuntaban al uso de imágenes satelitales Landsat:- El satélite Landsat es el más empleado en aplicaciones forestales, agrícolas, hidrológicas, usos del suelo y monitorización medioam- biental. Sobre todo, está ligado a estudios territoriales en los que el parámetro fundamental es el medio ambiente (Fao, 1986, 86)- La Corporación Nacional Forestal de Chile, Conaf, menciona que el sistema Landsat permite obtener la mayor parte de la información de relevancia que requiere el sector forestal, en forma confiable, altamen- te periódica, entregando una visión sinóptica con nivel de precisión geométrica y cartográfica compatible con los requerimientos usuales para estudios regionales, a un costo por hectárea notablemente bajo y además, en las imágenes satelitales es posible identificar aquellas áreas críticas, en donde es necesario concentrar los esfuerzos de fomento a fin de establecer una cobertura vegetal protectora del suelo y generadora de biomasa con fines de desarrollo socioeconómico para la población, expresan González y Cuevas (1982, 46).- Según FAO, citada por Bosque (1997, 451), el uso imágenes Landsat como instrumento para representar cartográficamente y evaluar las unidades de degradación del suelo, tiene las siguientes ventajas: - Permite delinear con exactitud límites fisiográficos claros, - Propor- ciona un medio para obtener información acerca de la tierra, cuando no se dispone de otras fuentes o cuando la calidad de la información disponible es baja y - Brinda la oportunidad de poder repetir anual o estacionalmente el examen multiespectral.2.4 Proceso de clasificación de imágenes satelitalesAl proceso de clasificación de imágenes satelitales se ha definido como:- El reconocimiento de clases o grupos cuyos miembros tengan ciertas características en común (Chuvieco, 2002).- El proceso que convierte los n - Niveles digitales contenidos en una imagen multiespectral tomada por un satélite, en una imagen con un número de categorías de cobertura del suelo. Así, esta imagen permite crear cartografía de una zona en cuestión y generar infor- mación con las superficies ocupadas por cada tipo de ocupación de suelo (Jensen, 1995).La clasificación a partir de imágenes satelitales debe ser, según Lille-sand y Kiefer (1999):- Exacta al lograr la mayor cercanía a la realidad.- Reproducible dadas las mismas variables de entrada 145
    • Nº 25 - julio - diciembre / 2011- Robusta, es decir no sensible a pequeños cambios en las variables de entrada, aunque permita explotar enteramente la información de esas variables- Exhaustiva al cubrir todo el territorio de estudio.- Objetiva al no estar marcada por las decisiones del intérprete (aunque la experticia de éste es la que permite la identificación y corrección de las clasificaciones hechas).Para realizar este proceso, considera Richards y Jia (2005), es necesariocontar con más de una imagen satelital de la misma área y de diferenterango en el espectro electromagnético, a las que se aplica un algoritmopara obtener una nueva imagen cuyos niveles digitales (ND), no corres-pondan a la radianza detectada por el sensor, sino a una etiqueta quepermita identificar la categoría asignada a ese píxel. Si la clasificación sebasa exclusivamente en los ND se le denomina clasificación espectral yse puede apoyar en información que tienen que ver con la especialidad,temporalidad, y a su vez en información auxiliar (topografía, suelos, entreotros) para identificar claramente las cubiertas.Así, el principio de clasificación digital no busca una definición absoluta decada cubierta, aplicable a cualquier imagen, sino que ésta dependa de: lapropia imagen, el sensor utilizado, la zona, fecha y tipos de cubierta. ParaLillesand y Kiefer (1999), la apariencia externa de la imagen clasificadapuede ser similar a la satelital, pero sobre ella no se puede aplicar ciertasoperaciones estadísticas, ya que generalmente no esta medida en escalacuantitativa, sino cualitativa. Estas imágenes clasificadas, por tanto, sonsensibles a ser operables basándose en parámetros estadísticos paravariables nominales (moda, índice, variación cualitativa).En general, se puede manejar un esquema de la clasificación digital,propuesto por Gómez (2006), que involucre:- Definición digital de las categorías (fase de entrenamiento). Esta basada en los valores numéricos de los píxeles, se busca obtener el rango de ND que identifiquen a cada categoría, para todas las bandas que intervienen en la clasificación.- Agrupación de los píxeles de la imagen en una de las categorías (fase de asignación).- Comprobación y verificación de resultados.Considerando la forma como se obtienen las estadísticas de entrena-miento, se tienen: - método Supervisado, que Requiere conocimientoprevio del terreno, a partir del cual se seleccionan las muestras paracada categoría, áreas representativas (training fields), y - No supervi-sado, que hace una búsqueda automática de grupos de valores homo-géneos dentro de la imagen.146
    • Universidad de Manizales Facultad de Ciencias e IngenieríaNingún método permite dar solución inmediata a todos los problemasde la clasificación digital; el supervisado puede considerarse subjetivoy artificial, mientras que el no supervisado puede entregar resultadosde difícil interpretación, no muy afines con las necesidades del usuariofinal, además de resultar poco claro el hecho que este método searealmente capaz de identificar las agrupaciones naturales de la imagen. 3. Fase experimentalEn esta fase, y como primera etapa, se pretende identificar coberturavegetal en imágenes satelitales, para ello es necesario contar con unosatributos que permitan categorizar los elementos presentes en las imá-genes, estos atributos se construyen a partir del concepto de índicesde vegetación (NDVI).Los NDVI son el resultado de combinaciones matemáticas entre losniveles digitales de radianza electromagnética almacenados en dosbandas espectrales de la misma región, hay diferentes alternativas decombinaciones de bandas espectrales, en general el cálculo se hacea partir del cociente entre los niveles de radianza presentes en cadabanda; del conjunto amplio de NDVI se selecciona el que se denominaNDVI54 que se calcula con la ecuación:NDVI = (IR-R) / (IR+R)Se selecciona este índice de vegetación, teniendo como fundamento aSperanza y Zerda (2005), quienes consideran que «el índice de vege-tación que aporta mayor información para la discriminación promediode las coberturas forestales es el índice normalizado NDVI54, poste-riormente y en forma decreciente según la capacidad de separabilidad,le siguen los índices NDVI47, NDVI53, NDVI52, NDVI51, y NDVI43;siendo el índice NDVI75 el que ofrece la menor separabilidad entrecategorías, debido a la fuerte correlación entre bandas».Las imágenes satelitales que se emplean para esta fase experimentalson de tipo Landsat, se escogió la región colombiana y de ella a suvez se seleccionaron cuatro regiones, cuyo criterio de selección sebasó en la variedad de elementos presentes en la superficie y quedentro de ella fuera evidente la presencia de cobertura vegetal, queya ha sido categorizadas y reconocidas por una persona experta3. Acontinuación en la tabla 5 se relacionan los metadatos de la imagenLandsat seleccionada3 Se contó con el apoyo del agrólogo Germán Herrera Salamanca, del Laboratorio de Fotogeo- logía y Sensores Remotos de la Universidad Pedagógica y Tecnológica de Colombia UPTC seccional Sogamoso, quien reconoce y ha trabajado en dichas áreas. 147
    • Nº 25 - julio - diciembre / 2011 Tabla 5. Metadatos imágenes Landsat Girardot (Construida a partir de GLCF, 2011)Nombre de la imagen Escena Landsat ETM+ , Path (8), Row (57)Sistema de Coordenadas WGS 84 UTM Zona 18N Mínimo en X : 907039.8682043 Máximo en X : 924760.1317957Coordenadas Mínimo en Y : 960180.1125704 Máximo en Y : 975819.8874296Autor Programa Landsat de la NASAEditor USGS (U.S. Geological Survey)3.1 Datos a clasificarLos datos que constituyen las imágenes satelitales están divididos endos: los metadatos y los niveles de radianza; estos últimos datos paracada uno de los píxeles que conforman las imágenes y son datos detipo entero en un rango de 0 a 255, con base en ellos se calcula losíndices de vegetación. Es importante aclarar que los niveles de radianzason independientes del tamaño y la resolución de la imagen, por tanto,se utilizó un muestreo estratificado para escoger 25 datos, 5 por cadaestrato así: de [0 a 50], [51 a 101], [102 a 152], [153 a 203] y [203 a255]. Estos valores se seleccionaron de la banda espectral 5 y 4, ubi-cando primero la radianza de la banda 5 y con las mismas coordenadasse seleccionaba la que correspondía a la banda 4; esto se hizo con elaplicativo IDRISI. En la tabla 6 se muestra un resumen de los datos dela imagen de la región de Girardot.La razón para seleccionar primero las radianzas en la banda espectral5, es por las características de reflectividad que se presentan en esterango de frecuencia según el tipo de vegetación, tal como lo aclara Gates(2003), al indicar que el comportamiento teórico de la vegetación vigo-rosa muestra una reducida reflectividad en las bandas visibles debido alefecto absorbente de los pigmentos de clorofilas, xantofilas y carotenos,captando la radiación situada en torno a los 0,445 μm, mientras que lasbandas espectrales del infrarrojo la reflectividad es mayor, es así comola banda 4, se usa para determinar el contenido en biomasa y para elmapeo de líneas de ribera, y la banda espectral 5 indica el contenido enagua en suelos y vegetación, penetra por nubes delgadas y presentadistintos tipos de vegetación en contrastes diferentes. Tabla 6. Datos histogramas de las imágenes satelitales seleccionadas de la región Girardot (Construido a partir de GLCF, 2011) Banda Espectral Valor mín. radianza Valor máx. radianza Número de píxeles 4 0 255 307911 5 0 255 307911148
    • Universidad de Manizales Facultad de Ciencias e Ingeniería3.2 Información imágenes Landsat GirardotCon el procedimiento descrito anteriormente se construyó la ta-bla 7, que muestra la información de las imágenes Landsat deGirardot. Tabla 7. Tabla de información Imágenes Landsat Girardot (Monroy, 2011) Nivel de Radianza Píxel Columna Fila Banda Espectral 5 Banda Espectral 4 D1 59 221 4 75 D2 121 142 21 71 D3 515 255 39 0 D4 240 256 43 103 D5 396 154 50 99 D6 337 253 54 83 D7 152 99 62 79 D8 312 188 75 99 D9 87 40 83 103 D10 385 154 96 63 D11 390 26 104 107 D12 141 431 118 59 D13 487 75 121 136 D14 551 291 135 67 D15 255 90 147 47 D16 422 59 158 144 D17 440 89 164 148 D18 212 113 172 148 D19 444 114 185 196 D20 141 364 198 192 D21 52 330 206 176 D22 485 3 214 188 D23 562 300 220 204 D24 278 375 233 204 D25 157 343 249 204Con base en la anterior información se estructura la tabla 8, quecontiene los atributos de decisión, se construyó a partir del índice devegetación NDVI54; en la tabla de decisión no se incluyeron los valoresde columna y fila, ya que no constituyen un atributo ni de condiciónni de decisión. 149
    • Nº 25 - julio - diciembre / 2011 Tabla 8. Tabla de decisión Imágenes Landsat Girardot (Monroy, 2011) Atributos de condición Atributos de decisión Píxel Banda Espectral 5 Banda Espectral 4 NDVI D1 4 75 -0.898734177 D2 21 71 -0.543478261 D3 39 0 1 D4 43 103 -0.410958904 D5 50 99 -0.32885906 D6 54 83 -0.211678832 D7 62 79 -0.120567376 D8 75 99 -0.137931034 D9 83 103 -0.107526882 D10 96 63 0.20754717 D11 104 107 -0.014218009 D12 118 59 0.333333333 D13 121 136 -0.058365759 D14 135 67 0.336633663 D15 147 47 0.515463918 D16 158 144 0.046357616 D17 164 148 0.051282051 D18 172 148 0.075 D19 185 196 -0.028871391 D20 198 192 0.015384615 D21 206 176 0.078534031 D22 214 188 0.064676617 D23 220 204 0.037735849 D24 233 204 0.066361556 D25 249 204 0.099337748Los niveles de NDVI son valores entre -1 y 1, en esta tabla de decisiónse calculó el NDVI Aprox, a partir de la aproximación a un decimal delNDVI, de manera que esta columna se convierta en el atributo de deci-sión. Se aproximó a 1 porque así se logran manejar 20 clases de índicesde vegetación, que son suficientes para identificar la cobertura vegetal,según se comprobó en el aplicativo IDRISI manejando 16 clases.La tabla de decisión de manera formal está conformada por una cuá-drupla así: S=<U, Q, V, f>Donde:U={D1,D2,D3,D4,D5,D6,..,D20,D21,D22,D23,D24,D25}C={Nivel de Radianza Banda Espectral 5, Nivel de radianza BandaEspectral 4}150
    • Universidad de Manizales Facultad de Ciencias e IngenieríaD={NDVI Aprox}Q={Nivel de Radianza Banda Espectral 5, Nivel de Radianza BandaEspectral 4, NDVI Aprox}V = [-1.0,-0.9,-0,8,-0,7..,0.7,0.8,0.9,1.0} que corresponde a cada una delas clases [21,19,18,17,..,12,11,1,2,3,4,..,9,10] según los NDVI Aproxf :UxQ → V función tal que f(x,q) Є Vq, para x Є U, llamada función deinformación.f(Objeto, atributo)f(D1,Banda Espectral 5)=4, f(D1,Banda espectral 4)=75, f(D1,NDVIAprox)=-0.9,..3.2.1 Discernibilidad. Se dice que x está relacionado con y, se escribe:xIPy, si para todo atributo q Є P, donde P es un subconjunto de atributosde V, se cumple:f (x1,q) = f (x2,q)Entonces para un conjunto P de atributos, P={Banda espectral 5, Bandaespectral 4) se tienen los elementos discernibles e indiscernibles: Ip(D1)={D1} Ip(D14)={D14} Ip(D2)={D2} Ip(D15)={D15} Ip(D3)={D3} Ip(D16)={D16} Ip(D4)={D4} Ip(D17)={D17} Ip(D5)={D5} Ip(D18)={D18} Ip(D6)={D6} Ip(D19)={D19} Ip(D7)={D7} Ip(D20)={D20} Ip(D8)={D8} Ip(D21)={D21} Ip(D9)={D9} Ip(D22)={D22} Ip(D10)={D10} Ip(D23)={D23} Ip(D11)={D11} Ip(D24)={D24} Ip(D12)={D12} Ip(D25)={D25} Ip(D13)={D13}En el caso anterior no hay elementos indiscernibles, esto por las ca-racterísticas del cálculo del NDVI, es decir que los dos atributos sonnecesarios para poder definir la clase a la que pertenece, de esta formano hay aproximaciones ni es necesario calcular las dependencias yreducciones, para el conjunto de atributos1. P1={Banda Espectral 5}2. P2={Banda Espectral 4}3. P={Banda Espectral 5, Banda Espectral 4}Se observa que el NDVI Aprox, requiere de los dos atributos P1 y P2 151
    • Nº 25 - julio - diciembre / 20113.3 Obtener las reglas de decisiónLas reglas de decisión como se mencionó anteriormente son el tipoSi.. ENTONCES, las cuales se construyen a partir de los atributos P1y P2 es decir P, así, para P= {Banda Espectral 5, Banda Espectral 4},que es el conjunto formado por los dos atributos, se tienen las reglasde decisión así:• SI f(x,P1)=4 y f(x,P2)=7 ENTONCES f(x,Estado) = -0.898734177 = clase 19• SI f(x,P1)=21 y f(x,P2)=71 ENTONCES f(x,Estado) = -0.543478261 = clase 16• SI f(x,P1)=39 y f(x,P2)=0 ENTONCES f(x,Estado) = 1 = clase 1• SI f(x,P1)=43 y f(x,P2)=103 ENTONCES f(x,Estado) = -0.410958904 = clase 15• SI f(x,P1)=50 y f(x,P2)=99 ENTONCES f(x,Estado) = -0.32885906 = clase 14• SI f(x,P1)=54 y f(x,P2)=83 ENTONCES f(x,Estado) = -0.211678832 = clase 13• SI f(x,P1)=62 y f(x,P2)=79 ENTONCES f(x,Estado) = -0.120567376 = clase 12• SI f(x,P1)=75 y f(x,P2)=99 ENTONCES f(x,Estado) = -0.137931034 = clase 12• SI f(x,P1)=83 y f(x,P2)=103 ENTONCES f(x,Estado) = -0.107526882 = clase 12• SI f(x,P1)=96 y f(x,P2)=63 ENTONCES f(x,Estado) = 0.20754717 = clase 13• SI f(x,P1)=104 y f(x,P2)=107 ENTONCES f(x,Estado) = -0.014218009 = clase 11• SI f(x,P1)=118 y f(x,P2)=59 ENTONCES f(x,Estado) = 0.333333333= clase 3• SI f(x,P1)=121 y f(x,P2)=136 ENTONCES f(x,Estado) = -0.058365759= clase 11• SI f(x,P1)=135 y f(x,P2)=67 ENTONCES152
    • Universidad de Manizales Facultad de Ciencias e Ingeniería f(x,Estado) = 0.336633663= clase 3• SI f(x,P1)=147 y f(x,P2)=47 ENTONCES f(x,Estado) = 0.515463918= clase 5• SI f(x,P1)=158 y f(x,P2)=144 ENTONCES f(x,Estado) = 0.046357616= clase 0• SI f(x,P1)=164 y f(x,P2)=148 ENTONCES f(x,Estado) = 0.051282051= clase 0• SI f(x,P1)=172 y f(x,P2)=148 ENTONCES f(x,Estado) = 0.075= clase 0• SI f(x,P1)=185 y f(x,P2)=196 ENTONCES f(x,Estado) = -0.028871391= clase 11• SI f(x,P1)=198 y f(x,P2)=192 ENTONCES f(x,Estado) = 0.015384615= clase 11• SI f(x,P1)=206 y f(x,P2)=176 ENTONCES f(x,Estado) = 0.078534031= clase 11• SI f(x,P1)=214 y f(x,P2)=188 ENTONCES f(x,Estado) = 0.064676617= clase 11• SI f(x,P1)=220 y f(x,P2)=204 ENTONCES f(x,Estado) = 0.037735849= clase 11• SI f(x,P1)=233 y f(x,P2)=204 ENTONCES f(x,Estado) = 0.066361556= clase 11• SI f(x,P1)=249 y f(x,P2)=204 ENTONCES f(x,Estado) = 0.099337748= clase 11Las anteriores reglas son determinísticas, con base en ella se diseña elalgoritmo de clasificación, el cual de forma experimental se implementóen dos etapas, en la primera se establece la forma como se recuperala información de las imágenes satelitales, desde el traslado de lasimágenes a clasificar hasta la entrega de un vector con los niveles deradianza de cada una de las bandas espectrales por cada píxel quecompone la imagen y una segunda parte donde se asigna un falso colorque permita dar una apariencia similar a la vegetación dependiendo dela radianza encontrada. 153
    • Nº 25 - julio - diciembre / 2011 4. Conclusiones• La técnica Rough Set es aplicable en conjuntos de datos donde sean poco diferenciables sus elementos en función de sus atributos o características, es decir, que no sea posible clasificar o agrupar en subconjuntos; es amplia y diversa la aplicación que ha tenido esta técnica, lo que demuestra su potencialidad y factibilidad para obtener buenos resultados al clasificar imágenes satelitales.• El proceso de clasificación de imágenes satelitales se constituye en un campo en el cual se puede aprovechar las ventajas de la técnica Rough Set, ya que los niveles digitales de una imagen satelital para un espectro electromagnético determinado, presentan vaguedad e incertidumbre al ubicar los objetos dentro de un conjunto específico, dada las características de sus atributos.• Desde el punto de vista de los recursos necesarios para la aplicación de Rough Set en la clasificación de imágenes satelitales, ésta tiene un alto costo computacional dado las características propias del algoritmo y del tamaño en bytes de las imágenes satelitales, pero igual es abordable dados las grandes capacidades de cómputo y de avances tecnológicos a nivel de hardware, software y procesamiento en la grid disponibles hoy en día.• Por lo anteriormente expuesto, se encuentra un potencial elevado al buscar el aprovechamiento de esta técnica al clasificar elementos dentro de una superficie terrestre captada como niveles de radianza en una imagen satelital, ya se apoyándose en una supervisión en el proceso o no.154
    • Universidad de Manizales Facultad de Ciencias e Ingeniería BibliografíaADRIAANS, Pieter (2002). Production control. In: KLOSGEN, Willi and ZYTKOW, Jan M. (Eds.), Handbook of data mining and knowledge discovery. New York (USA): Oxford University Press. 1064 p. ISBN: 978-0195118315ADRIAANS, Pieter and ZANTINGE, Dolf (1996). Data Mining. New York (USA): Addison Wesley. 176 p. ISBN: 978-0201403800ALDRIDGE, Colin Hamilton (1998) A Theory Of Empirical Spatial Knowledge Supporting Rough Set Based Knowledge Discovery in Geographic Databases. PhD Thesis, Dunedin (New Zea- land): University of Otago.ARCO, Leticia and BELLO, Rafael (2006). Rough Text: a Rough Approach in Text Processing. In: ISFUROS 2006 (5-8/12/2006), Santa Clara (Cuba): Department of Computer Science, Central University of Las Villas. Proceeding of the International Symposium on Fuzzy and Rough Sets, ISFUROS 2006.BONALDI, E.L.; BORGES DA SILVA, E.; LAMBERT TORRES, G.; OLIVEIRA, L. and ASSUN- CAO, F.O. (2002). Using Rough Set Techniques as Fault Diagnosis Classifier for Induction Motors [on line]. In: 28th Annual Conference of the Industrial Electronics Society, IECON 02 (5-8/11/2002). Seville (Spain): IEEE. Proceedings of the 2002 28th Annual Conference of the Industrial Electronics Society, IECON 2002, Vol. 4, p. 3383 - 3388 vol. 4 ISBN: 0-7803-7474-6 <http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1182941> [con- sult: 18/07/2011]BOSQUE SENDRA, Joaquín (1997). Sistemas de información geográfica. Madrid (España): Rialp, 451 p. ISBN: 84-321-3154-7BOSQUE SENDRA, Joaquín y GARCÍA, Rosa C. (2000). El uso de los sistemas de información geográfica en al planificación territorial. En: Anales de Geografía, No. 20. Madrid (España): Universidad Complutense. p. 49-67. ISSN: 0211-9803BUSINESS IMAGE GROUP Y SPOT IMAGE (1999). Imágenes de satélite: Una Guía Objetiva. París (Francia): Centre National d’Etudes Spatiales (CNES).CABALLERO MOTA, Yailé; BELLO PÉREZ, Rafael; GARCÍA LORENZO, María Matilde; SUÁREZ, Yadilka; Rivero, Inclán; RODRÍGUEZ VALLEJO, Lester; MADERA QUINTANA, Julio César (2007a). Uso de los conjuntos aproximados para el tratamiento de los datos. En: X Congreso de la Sociedad Cubana de Matemática y Computación, Compumat 2007 (nov.), Holguín (Cuba): Sociedad Cubana de Matemáticas y Computación. Boletín de la Sociedad Cubana de Matemáticas y Computación, Vol. 4, No. 2, ISSN: 1728-6042.CABALLERO, Yailé; ÁLVAREZ Delia, BALTÁ, Analay; BELLO, Rafael y GARCÍA, María. (2007b). Un nuevo algoritmo de selección de rasgos basado en la teoría de los conjuntos aproximados [en línea]. En: Revista Facultad de Ingeniería, No. 41 (sep.). Medellín (Colombia): Universidad de Antioquia, p. 132-144. ISSN: 0120-6230. <http://redalyc.uaemex.mx/pdf/430/43004111. pdf> consulta: 23/08/2011]CAICEDO CAICEDO, Julio César y PÉREZ CASTILLO, José Nelson (2010). Servicio web inteli- gente para la clasificación de imágenes digitales utilizando conjuntos aproximados [en línea]. En: Ingeniería e Investigación. Vol. 30, No. 1 (abr.) Bogotá (Colombia): Universidad nacional de Colombia. p. 45-51. ISSN: 0120-5609. <http://redalyc.uaemex.mx/src/inicio/ArtPdfRed. jsp?iCve=64312498009> [consulta: 14/08/2011]CÁRDENAS, Beitmantt; CABALLERO, Yailé y BELLO, Rafael (2007). La Teoría de los Conjuntos Aproximados y las Técnicas de Boostrap para la edición de conjuntos de entrenamiento. Su aplicación en el pronóstico meteorológico [en línea]. En: Avances en Sistemas e Informática, Vol. 4, No. 3 (dic.), Medellín (Colombia): Universidad Nacional de Colombia, p. 165-170. ISSN 16577663 <http://pisis.unalmed.edu.co/avances/archivos/ediciones/Edicion%20Avances%20 2007%203/18.pdf> [consulta: 14/07/2011]CASI, CANADIAN AERONAUTICS AND SPACE INSTITUTE (2010). 30th. Canadian Symposium on Remote Sensing: Bridging excellence (on line). Canadian Journal of Remote Sensing, Vol. 36, Suppl. 2. Kanata (Ontario, Canada): Canadian Aeronautics and Space Institute. ISNN: 1712-7971. 155
    • Nº 25 - julio - diciembre / 2011CHOUDHARIL, Ajay and NANDI, G.C. (2005). Indiscernibility criterion based on Rough sets in Feature selection and Detection of Landmines [on line]. In: IEEE International Conference on Granular Computing 2005, (27/07/2005), Beijing (China): IEEE. Proceedings IEEE Inter- national Conference on Granular Computing 2005, Vol. 2, p. 413-416. ISBN: 0-7803-9017-2. <http://ieeexplore.ieee.org/Xplore/login.jsp?url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel 5%2F10381%2F33011%2F01547324.pdf%3Farnumber%3D1547324&authDecision=-203> [consult: 23/07/2011]CHUVIECO SALINERO, Emilio (2002). Teledetección ambiental: La observación de la tierra desde el espacio. Barcelona (España): Ariel Ciencia. 586 p. ISBN: 978-8434434981.CONAF, UNIVERSIDAD DE CHILE (1983). Proyecto Teledetección para manejo forestal dinámico Temford. Informe final. CONAF. Santiago de Chile (Chile): CONAF. 76 p.DELGADO INGA, Omar (2009). Nuevos sensores de teledetección [en línea]. En: Geomática, Revista de la Universidad del Azuay No. 49 (ago.). Cuenca (Ecuador): Universidad de Azuay. p. 53-80. ISSN: 13902849 <http://www.uazuay.edu.ec/bibliotecas/publicaciones/UV-49_Geo- matica.pdf> [consulta: 23/07/2011]DÍAZ MARTÍNEZ, Zuleyka; FERNÁNDEZ MENÉNDEZ, José y SEGOVIA VARGAS, María Jesús (2004). Sistemas de Inducción de Reglas y Árboles de Decisión Aplicados a la Predicción de Insolvencias en Empresas Aseguradoras [en línea]. Madrid (España): Universidad Complutense de Madrid. 13 p. <http://eprints.ucm.es/6833/1/0409.pdf> [consulta: 25/07/2011]DÜNTSCH, Ivo and GEDIGA, Günther (2000). Rough set data analysis: A road to non-invasive knowledge discovery. Bangor (UK): Methodos Publishers. ISBN: 190328001XESRI CHILE (s.f.). Landsat 7 ETM+ [en línea]. Santiago (Chile): ESRI Chile S.A. <http://www. esri-chile.com/biblioteca/landsat7etm.pdf> [consulta: 23/07/2011]FAO (1980). Metodología provisional para la evaluación de la degradación de los suelos. Roma (Italia): FAO, 86 p.FELICÍSIMO, Ángel M. (2001). Glosario de términos usados en el trabajo con sistemas de in- formación geográfica [en línea]. Oviedo (España): Escuela Técnica Superior de Ingenieros de Minas, Universidad de Oviedo. <http://www.etsimo.uniovi.es/~feli/index2.html> [consulta: 26/07/2011].FERNÁNDEZ COPPEL, Ignacio Alonso y HERRERO LLORENTE, Eliécer (2001). El satélite Landsat: Análisis visual de imágenes obtenidas del sensor ETM + satélite Landsat [en línea]. Valladolid (España): Universidad de Valladolid. 37 p. <http://www.caece.edu.ar/tea/Apuntes/ landsat-analisis-visual.pdf> [consulta: 22/07/2011]GATES, David M. (2003). Biophysical Ecology, New York (NY, USA): Dover Publications, 635 p. ISBN: 978-0486428840.GEOSERVICE PERÚ (s.f.). Información Técnica Resumida – Quickbird II [en línea]. Lima (Perú): GeoService Perú. 3 p. <http://www.gspperu.com/pdf/res_quickbird.pdf> [consulta: 23/07/2011]GLCF (2011). Global Land Cover Facility [on line]. College Park (Maryland, USA): University of Maryland - NASA. <http://www.landcover.org/> [consult: 10/11/2011]GÓMEZ A, Héctor F. (2006) Clasificación de imágenes multiespectrales Landsat TM por medio de redes neuronales no supervisadas [en línea]. Tesis doctoral (Doctorado en inteligencia artificial: Redes Neuronales). Loja (Ecuador): Universidad Nacional de Estudios a Distancia, UNED - Universidad Técnica Particular de Loja. 34 p. <http://sig.utpl.edu.ec/sigutpl/Staftpro/ realidad/Clasificacin_imgenes_multispectrales.pdf> [consulta: 23/07/2011]GONZÁLEZ ALONSO, F. y CUEVAS GOZALO, J.M. (1982). Los satélites de recursos naturales y sus aplicaciones en el campo forestal. En: Monografías INIA, No. 34. Madrid (España): Instituto Nacional de Investigaciones Agrarias, INIA. 46 p. ISSN: 0210-3354GROSSMAN, Robert; KASIF, Simon; MOORE, Reagan; ROCKE, David and ULLMAN, Jeff (1998). Data mining research: opportunities and challenges [on line]. In: Three NSF workshops on mining large, massive, and distributed data (01/1998). Proceedings of 3 NSF. New York (USA): AAAI Press. 11 p. <http://pubs.rgrossman.com/dl/misc-001.pdf> [consult: 22/07/2011]HOR, Ching-Lai and CROSSLEY, Peter A. (2005) Knowledge Extraction from Intelligent Electronic Devices. In: PETERS, James F. and SKOWRON, Andrzej (Ed.). Transactions on Rough Sets III. Berlin Heidelberg (Germany): Springer-Verlag, p. 82-111. ISBN 978-3-642-18301-0.156
    • Universidad de Manizales Facultad de Ciencias e IngenieríaJENSEN, John R. (1995). Introductory digital image processing: a remote sensing perspective. 2 ed. Upper Saddle River (NJ, USA): Prentice Hall Series. 316 p. ISBN: 01232058405.KOHAVI, R. and FRASCA, B. (1994). Useful feature subsets and Rough set Reducts. In: Third International Workshop on Rough Sets and Soft Computing (RSSC’94). (10-12/11/1994). San José (CA, USA). Proceedings of RSSC’94. p. 320-323.KOMOROWSKI, J.; PAWLAK, Z.; POLKOWSKI, L. and SKOWRON, A. (1999). A Rough sets: a tutorial. In: PAL, S.; SKOWRON, A. Rough Fuzzy Hibridization: A new trend in Decision Mak- ing. Singapore: Springer-Verlag. p. 3-98LI, Maozhen; YU, Bin; HUANG, Chang; SONG, Yong-Hua and RANA, O.F. (2006). Service Match- making with Rough Sets. In: Sixth IEEE International Symposium on Cluster Computing and the Grid (CCGRID’06). (16-19/05/2006). Singapore: IEEE Computer Society. Proceedings of CCGRID’06. 8 p. ISBN: 0-7695-2585-7.LILLESAND, Thomas and M. KIEFER, Ralph W. (1999). Remote Sensing and Image Interpretation. 4 ed. Hoboken (NJ, USA): John Wiley & Sons Inc. 736 p. ISBN: 0471255157NASA (s.f.). Landsat 7 Science Data Users Handbook [on line]. Washington (USA): National Ae- ronautics and Space Administration, NASA. 186 p. <http://landsathandbook.gsfc.nasa.gov/ pdfs/Landsat7_Handbook.pdf> [consult: 23/07/2011]NAVARRO BONILLA, Diego y ESTEBAN NAVARRO, Miguel Ángel (2003) (eds.). I Seminario sobre Gestión del Conocimiento y Servicios de Inteligencia en el siglo XXI. Madrid (España): Universidad Carlos III de Madrid. 231 p.NGO, Chi Lang and NGUYEN, Hung Son (2005). A method of web search result clustering based on rough sets. [on line]. In: International Conference on Web Intelligence, WI 2005. (19- 22/09/2005), Compiegne (France): IEEE, WIC, ACM. Proceedings of Web Intelligence. IEEE Computer Society, p. 673-679. ISBN 0-7695-2415-X <http://logic.mimuw.edu.pl/publikacje/ WI_Nguyen_Son.pdf> [consult: 22/07/2011]ØHRN, Aleksander (1999). Discernibility and Rough Sets in Medicine: Tools and Applications [on line]. PhD thesis (doktor ingeniør). Trondheim (Norway): Department of Computer and Information Science, Norwegian University of Science and Technology. 239 p. ISBN: 82-7984-014-1. <ntnu.diva-portal.org/smash/get/diva2:125243/FULLTEXT01> [consult: 11/08/2011]PAWLAK, Zdzislaw (1982) Rough Sets. In: International Journal of Computer and Information Sciences, Vol 11, No. 5, (Oct.). ISSN: 0091-7036. Warsaw (Poland): Inst. of Computer Sci., Polish Acad. of Sci. p. 341-356.PAWLAK, Zdzislaw (1991). Rough Sets: Theoretical Aspects of Reasoning about Data. Boston (USA): Kluwer Academic Publishers. 252 p. ISBN: 978-0792314721.PAWLAK, Zdzislaw (2002). Rough sets and their applications [on line]. In: Journal of Telecom- munications and Information Technology, No. 3. Miedzeszyn (Poland): National Institute of Telecommunications. p. 7-10.<http://www.nit.eu/czasopisma/JTIT/2002/3/7.pdf> [consult: 11/11/2011].PETERS, J.F.; SURAJ, Z.; SHAN, S.; RAMANNA, S.; PEDRYCZ, W. and PIZZI, N. (2003). Clas- sification of meteorological volumetric radar data using rough set methods. Pattern Recognition Letters Vol. 24, No. 6 (mar.). New York (NY, USA): Elsevier Science Inc. p. 911-920. ISSN: 0167-8655PREDKI, B.; WILK, Sz (1999). Rough Set Based Data Exploration Using ROSE System. In: Z.W.Ras, A.Skowron, eds. Foundations of Intelligent Systems, Lecture Notes in Artificial Intelligence, vol. 1609. Springer-Verlag, Berlin.PREDKI, B; SLOWINSKI, R.; STEFANOWSKI, J.; SUSMAGA, R. and ROSE (1998). Software Implementation of the Rough Set Theory. In: POLKOWSKI, L. and SKOWRON, A (eds) (1998). Rough Sets and Current Trends in Computing, Lecture Notes in Artificial Intelligence, vol. 1424. Berlin (Germany): Springer-Verlag.RICHARDS, John A. and JIA, Xiuping (2005). Remote Sensing Digital Image Analysis. An Intro- duction. 4 ed. Berlin (Germany): Springer-Verlag.464 p. ISBN: 978-3540251286.SEGOVIA VARGAS, María Jesús. (2005) Análisis De La Solvencia En Entidades Aseguradoras Mediante La Metodología Rough Set. Ed. Civitas. ISBN: 978-84-470-2316-5.SEGOVIA VARGAS, María Jesús; GIL FANA, J.A.; HERAS MARTÍNEZ, A.; VILAR ZANÓN, J.L. (s.f. b). Predicción de insolvencias con el método Rough Set. Dpto. de Economía Financiera 157
    • Nº 25 - julio - diciembre / 2011 y Contabilidad I, Facultad de C. Económicas y Empresariales. Madrid (España): Universidad Complutense de Madrid.SEGOVIA VARGAS, María Jesús; GIL FANA, J.A; HERAS MARTÍNEZ, A.; VILAR ZANÓN, J.L. (s.f. a). La metodología Rough Set frente al Análisis Discriminante en los problemas de clasificación multiatributo. Departamento de Economía Financiera y Contabilidad I, Facultad de C. Económicas y Empresariales. Madrid (España): Universidad Complutense de Madrid.SPERANZA, F. y ZERDA, H. (2005). Potencialidad de los índices de vegetación para la discrimi- nación de coberturas forestales. Proyecto Picto 12931, INTA Manfredi. Santiago del Estero (Córdoba, Argentina): Facultad de Ciencias Forestales, UNSE.WAKAKI, Toshiko; ITAKURA, Hiroyuki and TAMURA, Masaki (2004). Rough set-Aided Feature Selection for Automatic Web-Page Classification. In: Proceeding of the International Confer- ence on Intelligence IEEE/WIC/ACM (WI’04). Washington (USA): IEEE Computer Society. ISBN: 0-7695-2100-2XIAN MING, Huang; JI-KAI, Yi and YAN-HONG, Zhang (2003). A method of constructing fuzzy neural network based on rough set theory. In: International Conference on Machine Learning and Cybernetics. (02-05/11/2003). Xi’an (China): IEEE. Proceedings Vol. 3, p. 1723-1728. ISBN: 0-7803-7865-2.YAO, Y.Y.; WONG, Y.S. and BUTZ, C.J. (1999). On Information-Theoretic Measures of attribute important. In: ZHONG, Ning and ZHOU, Lizhu (Eds.) (1999). Methodologies for Knowledge Discovery and Data Mining: Third Pacific-Asia Conference, PAKDD’99, (26-28/04/1999). Beijing (China): Springer. ISBN: 978-3540658665YING, Sai; PEIYAO, Nie and DONGSHENG, Chu (2005). A Model of Granular Computing Based on Rough Set Theory. In: HU, Xiaohua; LIU, Qing; SKOWRON, Andrzej; YOUNG LIN, Tsau; YAGER, Ronald R. and ZHANG, Bo (2005). IEEE International Conference on Granular Computing. (25-27/07/2005). Beijing (China): IEEE Computational Intelligence Society. Vol. 1, p. 233-236. ISBN: 0-7803-9017-2.YONG Xu; JING-YU Yang; ZHONG, Jin and YU-JIE, Zheng (2006). Local Correlation Classification and Its Application to Face Recognition Across Illumination. In: Fifth International Conference on Machine Learning and Cybernetics (13-16/08/2006). Dalian (Liaoning, China): IEEE. Pro- ceedings p. 3277-3281. ISBN: 1-4244-0061-9.YUN, Gao and YUANBIN, Hou (2004). Application of Rough Set Theory on System Modeling. In: Fifth World Congress on Intelligent Control and Automation WCICA 2004. (15-19/06/2004). Hangzhou (China): IEEE. Vol. 3, p. 2352-2354. ISBN: 0-7803-8273-0.ZHONG, Ning; DONG, Juzhen and OHSUGA, Setsuo (2001) Using Rough sets with heuristics for feature selection [on line]. In: Journal of Intelligent Information Systems. Vol. 16, No. 3, p. 199-214. ISSN: 1573-7675 <http://www.springerlink.com/content/q096486411525j63/> [consult: 12/08/2011]ZOPOUNIDIS, Constantin and DIMITRAS, Agustinos I. (1998). Multicriteria decision methods aid for the prediction of business failure. Berlin (Germany): Springer. 171 p. ISBN: 978-0792349006.158
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Propuesta metodológica para el desarrollo de SIG mineros en Colombia*1 [Methodological proposal for the development of GIS in Colombia mining] Jorge Iván DELGADO-ARIAS2, Humberto Iván RÍOS-ARIAS3Recibo: 20.05.2011 - Ajuste: 03.06.2011 - Ajuste: 09.12.2011 - Aprobación: 17.12.2011 Resumen Los sistemas de información geográfica han tomado bastante importancia nacional e internacional, el presente artículo dará la metodología que se aplicará al desarrollo de los SIG mineros en el territorio municipal o departamental; para ello es necesario establecer un orden de actividades o pasos, los cuales se deben aplicar de manera consecutiva y que serán los que brinden el éxito del proceso; dichos pasos son: Recolección y organización de la Información, Diseño de la Base de datos, Proceso cartográfico en el desarrollo del SIG minero, Estructuración y Desarrollo del Sis- tema e Información de Consulta Espacial de Medidas y Productos cartográficos Desarrollados; por último se dan las conclusiones a las que se ha llegado. Palabras clave: SIG Minero, Inventario Minero, Propuesta Metodológica.* Modelo para citación de este artículo de reflexión DELGADO ARIAS, Jorge Iván y RÍOS ARIAS, Humberto Iván (2011). Propuesta metodológica para el desarrollo de SIG mineros en Colombia. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 159-172. ISSN: 0123-96781 Artículo obtenido a partir del trabajo presentado por los autores, como opción de grado de la Especialización en Sistemas de Información Geográfica, de la Facultad de Ciencias e Inge- niería, Universidad de Manizales.2 Geólogo, Especialista en Sistemas de Información Geográfica. Geólogo Gobernación de Risaralda. Pereira (Risaralda, Colombia). Correo electrónico: jdelgado93@hotmail.com3 Ingeniero Ambiental, Especialista en Sistemas de Información Geográfica. Extensionista, Federación Nacional de Cafeteros, Pereira (Risaralda, Colombia). Correo electrónico: hum- bertoivanrios@yahoo.es Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 159-172 159
    • Nº 25 - julio - diciembre / 2011 Abstract Geographic information systems have had enough national and international importance, this article will give the methodology used to develop GIS miners in the municipality or county, for this development is necessary to establish a sequence of activities or steps, which be applied consecutively and will be those who provide the success of the process, these steps are: Collection and Organization of Information, Design Database, Process Mapping in GIS development mining, Structure and System Development and Consultation Information Space of Measures and cartographic products Developed and finally there are the conclusions reached. Key words: GIS mining, Mining Inventory, Methodological Proposal. IntroducciónPor muchos años se ha tenido la problemática en los municipios deColombia, de conocer información fragmentada de los procesos quese generan en cada uno de los entes territoriales, lo cual ha generadofalencias a las administraciones municipales para la planeación y manejode los suelos y por consiguiente de los recursos.El presente artículo dará las pautas y metodología que se podrán emplearpara la realización de un SIG minero municipal y/o departamental, elcual podrá ser asociado a la cartografía con que cuente un determinadomunicipio y/o departamento, permitiendo ser integrado en los modelosde desarrollo de los procesos mineros de las diferentes regiones.En Colombia se está dando bastante importancia a la minería y se hacencampañas por Ingeominas para la legalización de las minas que se encuen-tran en el territorio nacional; actualmente y con una vigencia de dos años,contados a partir del 9 de febrero de 2010, se dará impulso a la legaliza-ción de la minería de hecho, que consiste en legalizar a los mineros quese encuentren bajo el modelo de minería tradicional según la ley de 2010(Congreso de Colombia, 2010) y el decreto 2715 de 2010 (Presidencia dela República, 2010), hecho que multiplicará las minas legales del país yhará que las diferentes administraciones municipales y departamentalesdeseen conocer un inventario de minas actualizado y real con que cuentacada ente territorial; y no solo en las minas que se encuentren en procesode legalización y los títulos mineros actuales, sino también en las minasilegales, pues se tendrá que ejercer un control de su manejo; es por estoque se hace necesario establecer de manera urgente con qué recursoscuentan los diferentes municipios y departamentos del país.160
    • Universidad de Manizales Facultad de Ciencias e Ingeniería 1. Inventario minero1.1 DefiniciónUn inventario minero es la colección de todas las explotaciones minerasque se encuentran en una determinada área de un territorio, dichasexplotaciones pueden ser legales e ilegales, subterráneas o a cieloabierto; otro concepto necesario de precisar es el término mina, que esel yacimiento, formación o criadero de minerales o de materias fósiles,útil y aprovechable económicamente, ya se encuentre en el suelo oen el subsuelo. También para los mismos efectos, se entenderá pormineral «la sustancia cristalina, por lo general inorgánica, con caracte-rísticas físicas y químicas propias debido a un agrupamiento atómicoespecífico» (Congreso de Colombia, 2001, 2), que incluye además alos materiales de construcción.1.2 ComponentesPara la realización de un inventario minero es necesario tener presen-tes tres componentes básicos: Ubicación espacial de explotacionesmineras, aspectos sociales y aspectos económicos asociados a la ex-plotación; para este propósito se inicia con un proceso de revisión biblio-gráfica en todas las fuentes que se tengan tanto a nivel departamentalcomo municipal; realizado este procedimiento se recolecta y organizala información la cual es comparada y verificada en campo, con estainformación se realizan las bases de datos que serán el sustento parala puesta en marcha del sistema de información minero. Estos detallesse explicarán con mayor énfasis en la metodología para la construccióndel Inventario minero, en el numeral 2.1.3 UtilidadLa utilidad de un sistema de información minero, consiste principalmenteen establecer el número de minas que se encuentran presentes en undeterminado territorio, esta información permitirá establecer directricespara la formulación de estrategias y proyectos que serán la base parael desarrollo de las regiones. Entre las utilidades más destacadas setienen:- Realizar actividades a partir de tres líneas básicas las cuales son: «facilitar la actividad minera, promover el desarrollo sostenible de la minería y fiscalizar el aprovechamiento minero» (UPME, 2006, 3), es por esta razón que se requiere que los municipios y departa- mentos en Colombia conozcan la minería en sus regiones a partir de inventarios, que permitan desarrollar estas tres líneas básicas y darle continuidad al Plan de Desarrollo trazado. 161
    • Nº 25 - julio - diciembre / 2011- Identificar de manera rápida áreas de vocación minera, los cuales podrán ser tomados en cuenta en programas de desarrollo munici- pal y departamental; al reconocer áreas mineras y con ayuda de los diferentes PBOT, EOT Y POT municipales se determinarán áreas que, según dicho documento, son aptas para tal fin; de no ser así, se podrán implementar programas para su erradicación.- Al ubicar geoespacialmente las minas en cada uno de los munici- pios y, con la ayuda de las diferentes bases de datos creadas en las fases iniciales, se podrán identificar cada una de las explotaciones mineras y de esta manera llevar un control en el pago de regalías en los municipios.- Brindar Información actualizada y veraz sobre zonas de vocación minera en los diferentes municipios del país.- Tener información actualizada y detallada de cada mina.- La importancia de la realización de un inventario minero departamen- tal y/o municipal, radica en la necesidad de establecer el número de explotaciones y su ubicación para determinar las áreas dedicadas a esta actividad, al igual que conocer el número de minas legales e ilegales y de esta manera realizar programas tendientes a incentivar la legalización que conlleva al mejoramiento de las prácticas mine- ras, sirviendo así como herramienta para los entes territoriales, las corporaciones autónomas y unidades de delegación minera que se encargan de la vigilancia y control.1.4 AntecedentesLa planeación estatal para el desarrollo minero se instituyó y regula-rizó con la creación de la UPME en 1994. El Decreto 255 de 2004,que reestructuró esta entidad, según DNP (2004), le asigna la funciónde planear en forma integral, indicativa y permanente el desarrollo yaprovechamiento de los recursos mineros del país. El alcance de ellaha estado relacionado tanto con el papel del Estado frente a la mine-ría, como con las expectativas del mismo en torno al aporte de dichaactividad a la economía nacional. «Un ejemplo al respecto es el documento CONPES de 1997, donde se señalan las estrategias para el fortalecimiento del Sector Minero Colombiano, en la cual se formulan los procedimientos orientados a lograr un cambio estructural a largo plazo que so- lucione los problemas detectados, y que permita el desarrollo de la industria minera del país como herramienta de desarrollo regional y fuente de financiación para este desarrollo, así como a que las empresas del sector logren una penetración creciente162
    • Universidad de Manizales Facultad de Ciencias e Ingeniería en los mercados internacionales, la ampliación de la demanda interna y la incorporación de nuevas tecnologías a los procesos productivos» (UPME, 2006, 14).En este orden de ideas, el papel del Estado frente a la minería, deacuerdo con UPME (2006), se puede resumir en tres grandes funcio-nes: - Facilitar la actividad minera, - Promover el desarrollo sostenibleen la minería, y - Fiscalizar el aprovechamiento minero.El Ministerio de Minas y Energía (2010a), ha delegado sus funciones deAdministración del Recurso Minero en seis gobernaciones (Antioquia,Bolívar, Boyacá, Caldas, Cesar y Norte de Santander) e Ingeominas,la cual como unidad delegada con sede central en Bogotá, cuenta consiete grupos de trabajo (en Valledupar, Medellín, Bucaramanga, Nobsa,Cúcuta, Ibagué y Cali) que atienden las solicitudes mineras del territorioNacional y quienes tienen como función la fiscalización del recurso mi-nero. Por su parte, el Congreso de la República (1993), mediante la ley99 del 22 de diciembre de 1993, en su artículo 4, determina encargar dela promoción del desarrollo sostenible de la minería a las corporacionesautónomas regionales. 2. Metodología para la construcción del inventario mineroSe utilizan la aplicación de técnicas de sensores remotos, el Sistemade Posicionamiento Global por Satélite (GPS), los Sistemas de Infor-mación Geográfica (SIG) y trabajo de campo. Se realiza una profundarevisión bibliográfica para conocer donde se encuentran las explotacio-nes mineras y proceder a su reconocimiento en campo, dicha revisiónbibliográfica se hace de varias maneras; la colección de la informaciónes un trabajo que asegurará el éxito del proyecto, para ello es necesarioacudir a todas las fuentes de información disponibles.Realizada la revisión bibliográfica, se hacen las visitas de campo con elfin de precisar y ubicar geoespacialmente y con mayor detalle los puntosde extracción minera, al igual que su entorno; igualmente se toma lainformación para generar la base de datos, en la que se expondrán losaspectos técnicos y sociales de cada una de las explotaciones mineras.Adicionalmente al proceso de captura de información, se emplean herra-mientas como imágenes de satélite, cartografía base, mapas temáticos,esto con el fin de establecer con mayor precisión el lugar de ubicacióngeográfica de cada punto de extracción. El procedimiento comprendeactividades de digitalización de cartografía base (topográfica) y temática(suelos, uso/cobertura, otras), para lo cual se obtendrá y utilizará infor- 163
    • Nº 25 - julio - diciembre / 2011mación disponible en el Instituto Geográfico Agustín Codazzi (IGAC),y en otras fuentes.El proceso de digitalización se puede desarrollar en cualquier plataformaGIS licenciada o software libre, algunos ejemplos son: ArcGIS, GlobalMapper, Gvsig, Ilwis, Kosmo, entre otros, con el cual se generaránarchivos de tipo shp,gdb y la información se organizará por capas,de acuerdo con los elementos contenidos en los mapas digitalizados,obteniéndose de esta manera la cartografía base y temática, al igualque la topología y se iniciará el proceso de estructuración, mediante laincorporación de datos (atributos) asociados a los elementos gráficos, loque permite obtener información de estos y realizar consultas y análisis.Es muy importante, que antes de realizar la toma de datos GPS de lospuntos de extracción, se haga una configuración del navegador, ya quese debe tener en cuenta que la cartografía referencia y el equipo deberáestar en el mismo origen de coordenadas. Para el desarrollo del SIGse consideran y evalúan los siguientes aspectos: - Análisis de Requeri-mientos del Sistema, - Definición de niveles de información Geográfica(alcances), - Definición del Modelo Entidad – Relación, - Programaciónde funciones y consultas de acuerdo a los requerimientos, y - Pruebase instalación.2.1 Recolección y organización de la informaciónConsiste en identificar el lugar donde se encuentran ubicadas las minasde un determinado territorio, para de esta manera realizar la capturade los puntos GPS, y realizar las encuestas sociales y económicas quepermitirán, en otras fases, implementar el diseño de la base de datosy los productos cartográficos.2.1.1 Revisión de los expedientes en la plataforma tecnológicade Ingeominas. El cual es obtenido del Catastro Minero Colombiano(Ingeominas, 2010a), donde se encuentran las minas que actualmentetienen título Minero así como las solicitudes que se están tramitan-do ante esta Entidad, cuya información es importante por que darála primera aproximación con relación al número exacto de títulos ysolicitudes realizadas; es necesario aclarar que en esta página no seencuentra el sitio exacto de la explotación minera, pero si revela elcódigo del expediente, punto arcifinio y datos generales como estadoactual y tipo de solicitud.2.1.2 Revisión de los archivos de las alcaldías municipales. Yaque por lo general, en estos entes territoriales se conoce la existenciade varias de las minas legales e ilegales del municipio, debido a lasdenuncias de los habitantes en cuanto a la explotación ilegal o porquelas explotaciones mineras pagan regalías.164
    • Universidad de Manizales Facultad de Ciencias e Ingeniería2.1.3 Revisión de los archivos de las CAR (CorporacionesAutónomas Regionales). En Colombia, las CAR son la autoridadambiental y en sus archivos se encuentran registradas las visitasrealizadas a explotaciones mineras legales y pueden conocer algunainformación de la actividad ilegal en el departamento, pues es allídonde las comunidades hacen alertas por actividades que impactanel medio ambiente.2.1.4 Información aportada por los servicios de emergencia de losdiferentes municipios. Como es el caso de la Defensa Civil y Bombe-ros, ellos en muchas ocasiones tienen información que se ha registradoen sus bitácoras diarias por emergencias ocurridas históricamente. Otrafuente importante será la Federación Nacional de Cafeteros, a través desus Comités Municipales, así como en las oficinas ambientales, dondellegan las quejas de mineros que afectan el medio ambiente con susactividades extractivas.2.1.5 Información obtenida de los mapas geológicos y mineros de lasregiones. Los cuales darán según la litología presente, una evidencia clarade minerales que podrían ser encontrados en lugares determinados; unabuena alternativa consiste en revisar el mapa geológico de Colombia, que sepresenta por Ingeominas y el cual se encuentra discriminado en 26 planchasque dan la información de la geología del país (Ingeominas, 2010b).2.1.6 Información directa. La cual se obtiene de un extenso trabajode campo, consistente en la creación de rutas diarias para explorar demanera visual los sectores donde se podrían encontrar minas:- El proceso de georreferenciación para las minas es un proceso que requiere ser realizado directamente en campo, se debe visitar cada una de las zonas y hacer una búsqueda detallada de la información, que permita determinar la ubicación de las minas; para esto es ne- cesario, en primera instancia, recurrir a la información disponible.- La georreferenciación de lotes se debe realizar con equipos GPS (Global Position System) apoyados en cartografía de los sectores a evaluar, en algunos casos aerofotografías. Para la determinación de áreas en ríos y drenajes, es importante realizar el levantamiento del polígono con una estación topográfica, porque este tipo de áreas en dichas explotaciones no permite márgenes de error, ya que como el levantamiento se hace capturando puntos de los bordes del cauce haciéndolo, por lo general en zigzag, podría quedar desplazado y si esta información fuera usada por un solicitante en minería de material de arrastre, tendría serias dificultades ante la unidad de delegación minera, pues su polígono estaría en una zona donde no se encuentra este tipo de material y por lo tanto su solicitud sería negada. 165
    • Nº 25 - julio - diciembre / 20112.2 Diseño de la base de datosEl objeto principal de la base de datos, es permitir al usuario final queconsulte, modifique y actualice la aplicación de acuerdo a las necesida-des que se presenten o considere necesarias, el proceso de definir lasvariables que llevará una base de datos estará dada de acuerdo a lasnecesidades que se han identificado en el municipio donde se realizaráel inventario minero; es importante que esta base de datos cuente conuna completa información tanto de las minas como del componentesocial; los aspectos mínimos necesarios para la construcción de unabase de datos en un SIG minero son:• Municipio• Actividad minera• Ubicación• Nombre de la empresa o asociación• Documento de identificación (Cédula de Ciudadanía y/o NIT)• Representante legal• Teléfono• Nombre de la mina• Tipo de explotación• Frentes de trabajo• Volumen de explotación• Coordenadas del polígono• Coordenadas del punto arcifinio• Coordenadas de un punto de extracción• Geología general• Geología local• Tipo de yacimiento• Tipo de mineral• Estado (Legal, ilegal, en estudio ante Ingeominas)• Problemática (ambiental, social, jurídica)• Aspectos sociales (Número de adultos, niños y ancianos, número de personas que cuentan con SISBEN, número de personas que pagan seguridad social).• Aspectos ambientales• Registro fotográfico (enlazado con hipervínculos)• ObservacionesLa base de datos que se crea, almacena información de manera lógicaen tablas; cada tabla tiene un nombre único, esta columna debe ser tal,que identifique de manera única e inequívoca cada fila; no debe habermás de dos filas (registros) en una tabla que tenga el mismo valor parala columna que haya sido elegida como llave primaria.166
    • Universidad de Manizales Facultad de Ciencias e IngenieríaAsimismo, la base tendrá que contar con Información detallada de cadauna de las minas en aspectos técnicos, es decir, avance de minas, tipode material encontrado, seguridad de las minas, al igual que si cumplencon los requerimientos reportados por Ingeominas y las corporacionesautónomas regionales en cuanto a PTO (Programas de Trabajos yObras) y PMA (Planes de Manejo Ambiental).Es de vital importancia solicitar el número de cédula, ya que con esenúmero se podrá acceder posteriormente a las encuestas del SISBEN,dicha encuesta es una ficha extensa que contiene toda la informaciónrelevante de esta persona y podrá ser utilizada posteriormente paraconsultas. En esta parte de la metodología desarrollada se podránhacer las siguientes consultas:- Consulta de atributos (municipio, actividad minera, volúmenes de explotación, coordenadas, etc.),- Clasificación de temas (comparación entre minas de municipios, clases de minas, cantidad de minas existentes, etc.).2.3 Proceso cartográfico en el desarrollo del SIG mineroPara el proceso cartográfico y desarrollo del SIG se propone emplearla siguiente metodología:- Estructuración de las Bases de Datos que se emplearán en el mu- nicipio y/o departamento (como se indica en el numeral 2.2, Diseño de la Base de Datos).- Georreferenciación de minas (tratado en el numeral 2.1).Con la información colectada, se genera la cartografía base del SIG,que tendrá la ubicación de los polígonos y/o puntos de bocaminas,y la información de las bases de datos. Estos polígonos y/o puntoshacen parte de una cartografía, al estar dentro de un proceso dedigitalización de la información obtenida en campo para que seaintegrada a la base de datos que se tiene, esto dará lugar a unabase de datos asociada a información geográfica, generando unSIG para el departamento y/o municipio, el cuál será incorporado ala cartografía base.Es común que en cada municipio se tengan mapas que se puedenencontrar en diferentes dependencias, por ejemplo: los que se han ob-tenido para la elaboración de los PBOT (Plan Básico de OrdenamientoTerritorial), EOT (Esquema de Ordenamiento territorial) o POT (Plan deOrdenamiento territorial). Habrán zonas del país que no cuentan consuficiente información cartográfica, en estos casos, se apoyará estacartografía con recursos como fotografías aéreas, imágenes satelitalesy mapas que se encuentran disponibles en la red. 167
    • Nº 25 - julio - diciembre / 2011En este momento del proceso, se podrán hacer las siguientes consultas:- Consulta de medidas.- Consulta de atributos.- Clasificación de temas.- Etiquetas personalizadas.- Vinculación de imágenes.- Impresión de planos.2.4 Estructuración y desarrollo del sistema deinformación de consulta espacial de medidasEl Sistema de Información, está orientado hacia la consulta y administra-ción de la información espacial generada en las labores de minería; tenerinformación de procesos de explotación en términos de coordenadas yformatos planos, es desaprovechar el recurso de información en tareas deanálisis espacial y labores relacionadas. El objeto principal del sistema deinformación, es generar una herramienta de consulta y construir las basespara la espacialización de la información existente y la que será generada.Los Sistemas de Información Geográfica, son actualmente líderes en eldesarrollo de aplicaciones institucionales y en general de todos aquellosprocesos que involucren un componente espacial o geográfico, debidoa que la mayoría de las tareas realizadas involucran este tipo de com-ponentes, se sugiere realizar el proyecto sobre una plataforma SIG.El Sistema de Información Minero, será implementado para que su con-figuración se realice de forma dinámica y se ajuste a las necesidadesdel municipio y/o departamento.2.5 Productos cartográficos desarrolladosCon los pasos descritos en los capítulos anteriores, ya se tendrá elsistema de información geográfico estructurado, con sus componentes:- Cartografía temática, obtenida al incorporar las bases de datos es- paciales y la cartografía base.- Reportes de consultas. Al generar la cartografía temática se pueden realizar consultas de todo tipo, como: - Minas legales e ilegales, su ubicación y número, - Ubicación de minas frente a zonas de riesgo geológico, - Número de minas en determinada área, - Consulta del componente social asociado a cada explotación, y - Cualquier análisis que se quiera, siempre y cuando dicha consulta se encuentre en la información alfanumérica (base de datos).- Realización de análisis multitemporal. Consistente en la evolución y comportamiento de las explotaciones mineras durante un tiempo168
    • Universidad de Manizales Facultad de Ciencias e Ingeniería estimado, para lo cual se pueden generar diferentes análisis como: - Minas ilegales que pasan a ser legales, - Cierre de explotaciones mineras, - Aumento o disminución en el área de los polígonos, en las zonas de explotación, y - Actualización de nuevas minas al sistema de información minero.La figura 1 muestra el resumen de la metodología empleada en laelaboración de la propuesta metodológica para el desarrollo de SIGmineros en Colombia. Figura 1. Resumen de la propuesta metodológica 3. Conclusiones• El uso de los SIG se fundamenta principalmente en la necesidad de los departamentos y/o municipios de contar con información actua- lizada acerca de las explotaciones mineras que se realizan en sus territorios, esta información permitirá conocer la realidad minera, lo cual conllevará a la formulación de estrategias para el desarrollo regional y mostrará las características y condiciones de cómo se está desarrollando la minería, permitiendo de esta manera generar proyectos y programas encaminados a un desarrollo responsable y competente, bajo los criterios de productividad, competitividad y sostenibilidad. 169
    • Nº 25 - julio - diciembre / 2011• Según el Plan Nacional para el desarrollo Minero visión 2019, en Colombia, se realizarán actividades a partir de tres líneas básicas, las cuales son: - facilitar la actividad minera, - promover el desarrollo sostenible de la minería y - fiscalizar el aprovechamiento minero. Para la realización de estas actividades, es necesario contar con la información que proporcione el SIG minero, el cual servirá de base para lograr los alcances en este Plan Nacional de Desarrollo.• El primer paso para realizar este sistema de información minero es la realización del inventario minero, el cual es la base para el posterior desarrollo del SIG Minero. Los pasos para la realización de la metodología que se proponen son: - Diseño de Bases de datos, - Recolección de la Información, - Proceso Cartográfico, - Estructuración y Desarrollo del Sistema de Información de Consulta Espacial de medidas y - Productos Cartográficos Desarrollados.• Con la realización de un SIG Minero se obtendrán los siguientes beneficios:- Identificación de manera rápida de áreas de vocación minera, los cuales podrán ser tomados en cuenta en programas de desarrollo municipal y departamental.- Determinación de áreas que son aptas para fines mineros, de no serlo programas para su erradicación.- Identificación de cada una de las explotaciones mineras, para llevar un control tanto en el pago de regalías como en temas ambientales y técnicos de cada uno de los municipios.- Establecimiento veraz de la vocación minera en los diferentes muni- cipios del país.170
    • Universidad de Manizales Facultad de Ciencias e Ingeniería BibliografíaCONGRESO DE COLOMBIA (1993). Ley 99 de 1993 [en línea]. Bogotá (Colombia): Ministerio de Ambiente, Vivienda y Desarrollo Territorial. <http://www.minambiente.gov.co/documentos/ normativa/ley/ley_0099_221293.pdf> [consulta 04/01/2011].CONGRESO DE COLOMBIA (2001). Ley 685 de 2001 Código de Minas [en línea]. Bogotá (Co- lombia): Sistema de Información Minero Colombiano. <http://www.simco.gov.co/Portals/0/ ley685.pdf> [consulta 29/09/2010].CONGRESO DE COLOMBIA (2010). Ley 1382 de 2010 [en línea]. Bogotá (Colombia): Secretaría del Senado. <http://www.secretariasenado.gov.co/senado/basedoc/ley/2010/ley_1382_2010. html> [consulta 29/09/2010].CONSEJO NACIONAL DE POLÍTICA ECONÓMICA Y SOCIAL, CONPES (2006). Documento CONPES 97: Distribución del Sistema General de Participaciones vigencia 2006 [en línea]. Bogotá (Colombia): Departamento Nacional de Planeación (30/01/2006). <http://www.dnp. gov.co/Portals/0/archivos/documentos/Subdireccion/Conpes%20Sociales/097.pdf> [Consulta 07/11/2011].CORPORACIÓN AUTÓNOMA REGIONAL DEL GUAVIO, CORPOGUAVIO (2006) Sistema Básico de información municipal, Sisbim [en línea]. Gachalá (Colombia): Corpoguavio. <http://200.21.183.21/SISBIM/consulta/observatorios.php> [consulta 04/01/2011].DEPARTAMENTO NACIONAL DE PLANEACIÓN, DNP (2004). Decreto 255 de 2004 [en línea]. Bogotá (Colombia): Departamento Nacional de Planeación. <http://www.dnp.gov.co/Porta- lWeb/Portals/0/archivos/documentos/PRAP/PPS_Normatividad/Decreto255.pdf>[consulta 29/09/2010].GOBERNACIÓN DE CALDAS (2008). Unidad de Delegación Minera [en línea]. Manizales (Colombia): Gobernación de Caldas. [14/11/2008]. <http://www.Gobernaciondecaldas. gov.co/index.php?option=com_content&view=article&id=36:unidad-de-delegacion- minera&catid=50:secretaria-de-gobierno&Itemid=213> [consulta 04/01/2011].INGEOMINAS (2010a). Catastro Minero Colombiano [en línea]. Bogotá (Colombia): Instituto Colombiano de Geología y Minería. <http://www.ingeominas.gov.co/Catastro.aspx> [consulta 29/09/2010].INGEOMINAS (2010b). Atlas Geológico de Colombia Escala 1:500000 [en línea]. Bogotá (Colom- bia): Instituto Colombiano de Geología y Minería. <http://www.ingeominas.gov.co/Geologia/ Mapa-geologico-de-Colombia/Atlas-Geologico-de-Colombia.aspx> [consulta 29/09/2010].INGEOMINAS (2010c). Manual de usuario catastro minero colombiano [en línea]. Bogotá (Co- lombia): Instituto Colombiano de Geología y Minería. <http://www.ingeominas.gov.co/getatta- chment/e40e0f78-6a79-4f8a-9740-cf.aspx> [consulta 04/01/2011].INGEOMINAS (2011). Resolución 18 0099 de 1 de febrero de 2011 [en línea]. Bogotá (Co- lombia): Instituto Colombiano de Geología y Minería. <http://www.ingeominas.gov.co/ getattachment/06fc039c-e71b-428e-9ac8- fb53974d2eca/Resolucion-18-0099-de-2011--Sus- pension-de-terminos.aspx> [consulta 04/04/2011].MINISTERIO DE AMBIENTE, VIVIENDA Y DESARROLLO TERRITORIAL (s.f.). Sistema Básico de Información Municipal de Colombia [en línea]. Bogotá (Colombia): Ministerio de Ambiente, Vivienda y Desarrollo Territorial. <http://sisbim.colnodo.apc.org/sisbim/observatorios.php> [consulta 04/09/2011].MINISTERIO DE MINAS Y ENERGÍA (Colombia) (2010a). Gobernaciones Delegadas en Colombia [en línea]. Bogotá (Colombia): Ministerio de Minas y Energía. <http://www.minminas.gov.co/ minminas/minas.jsp?cargaHome=3&id_categoria=106> [consulta 04/01/2011].MINISTERIO DE MINAS Y ENERGÍA (Colombia) (2010b). Reglamentación Ley 1382 de 2010 mediante la cual se modifica la Ley 685 de 2001 [en línea]. Bogotá (Colombia): Ministerio de Minas y Energía. <http://www.minminas.gov.co/minminas/minas.jsp?cargaHome=2&opcionC alendar=4&id_noticia=574> [consulta 29/09/2010].PRESIDENCIA DE LA REPÚBLICA (Colombia). (2010). Decreto 2715 del 28 de julio de 2010 [en línea]. Bogotá (Colombia): Presidencia de la República. <http://web.presidencia.gov.co/ decretoslinea/2010/julio/28/dec271528072010.pdf> [consulta 29/09/2010].TOMLINSON, Roger (2008).Pensando en SIG. 3 ed. 274 p. ISBN: 9781589482296 171
    • Nº 25 - julio - diciembre / 2011UNIDAD DE PLANEACIÓN MINERO ENERGÉTICA, UPME (2006). Plan Nacional para el Desa- rrollo Minero, Visión al año 2019 [en línea]. Bogotá (Colombia): Ministerio de Minas y Energía, Unidad de Planeación Minero Energética. <http://www.upme.gov.co/Docs/PNDM_2019_Final. pdf> [consulta 04/01/2011].172
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Planeación, análisis y diseño del SIG del Campus de la Universidad del Quindío* 1 [Planning, analyzing, and designing the SIG of the University of Quindío campus] José Joaquín VILA-ORTEGA2, Lina María CASTRO-BENAVIDES3 Diana Marcela RIVERA-VALENCIA4, Sergio Augusto CARDONA-TORRES5Recibo: 20.08.2011 - Ajuste: 09.09.2011 - Ajuste: 04.10.2011 - Aprobación: 17.12.2011 Resumen El desarrollo de este trabajo consiste en la presentación de una metodología de trabajo que contemple la fase de análisis y diseño del proceso de desarrollo de software. Dentro de la metodología es necesario realizar extracción de información mediante reuniones, entrevistas, encuestas con los actores que están involucrados dentro del proyecto, además de los documentos que puedan estar relacionados con el proyecto. Posterior al levantamiento de infor- mación se hará un análisis de la información y se especificaran* Modelo para citación de este artículo científico VILA ORTEGA, José Joaquín; CASTRO BENAVIDES, Lina María; RIVERA VALENCIA, Diana Marcela y CARDONA TORRES, Sergio Augusto (2011). Planeación, Análisis y Diseño del SIG del Campus de la Universidad del Quindío. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 173-188. ISSN: 0123-96781 Artículo proveniente del proyecto .sobre SIG del Campus de la Universidad del Quindío.2 Ingeniero Cartógrafo; MSc. en Ciencias Técnicas; PhD. en Ciencias Técnicas, Especialidad Sistemas de Información Geográfica. Investigador, Grupo de Investigación Geoide-G62. Coordinador CEIFI-Centro de Estudios e Investigación Facultad de Ingeniería, Universidad del Quindío, Armenia (Colombia). Correo electrónico: jjvilaortega@uniquindio.edu.co3 Ingeniero de Sistemas y Computación. Investigador, Grupo de Investigación Geoide-G62. Universidad del Quindío, Armenia (Colom- bia). Correo electrónico: lmcastro@uniquindio.edu.co4 Ingeniero de Sistemas y Computación. Investigador, Grupo de Investigación Geoide-G62. Universidad del Quindío, Armenia (Colom- bia). Correo electrónico: dmrivera@uniquindio.edu.co5 Ingeniero de Sistemas; Especialista en procesos para el desarrollo de software. Director del Programa de Ingeniería de Sistemas y Computación. Investigador Grupo de Investigación Geoide-G62. Universidad del Quindío, Armenia (Colombia). Correo electrónico: sergio_cardona@uniquindio.edu.co Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 173-188 173
    • Nº 25 - julio - diciembre / 2011 requerimientos que necesite el sistema de información geográfica. Esto será posible mediante técnicas de elicitación de requisitos y el uso de algunos artefactos que provee el Lenguaje Unificado de Modelado UML. La metodología necesita de un componente de investigación cualitativa que permita la búsqueda de las directrices que ésta deba tener. Este estudio se basará en entrevistas abier- tas y estructuradas mediante formatos de observación directa. Es necesario considerar los estándares internacionales usados por la industria de los sistemas de información geográfica tales como Open Gis Consortium (OGIS) e iniciativas locales como la Infraestructura Colombiana de Datos Espaciales (ICDE). Palabras Clave: Sistemas de Información Geográfico, Metodo- logía de desarrollo de software, Catalogo de objetos, Técnicas de Elicitación. Abstract The development of this research needs to show a methodolo- gy that includes elements of eliciting requirements. Within the methodology is necessary to extract information through meetings, interviews, surveys of stakeholders involved in the project, as well as documents that may be related to the project. After the infor- mation gathering will be an analysis of information and specifying requirements required by the geographic information system. This will be possible through eliciting requirements techniques and the use of some artifacts that provides visual modeling language. The methodology requires a qualitative research component that allows search of guidelines that should be the methodology. This study is based on open interviews and structured by direct observation formats. It is necessary to consider international standards used by the industry of geographic information systems such as Open GIS Consortium (OGIS) and local initiatives such as the Colombian Spatial Data Infrastructure (ICDE)-IGAC. Keywords: Geographic Information Systems, Development Soft- ware Methodology, Object Catalog, Eliciting techniques. IntroducciónPara una Universidad, la alineación de las tecnologías de la informacióncon los procesos de negocio es fundamental para el logro de su misióny de los objetivos estratégicos institucionales. Por consiguiente, unpaso clave en el desarrollo de las tecnologías de la información será la174
    • Universidad de Manizales Facultad de Ciencias e Ingenieríacreación y el fortalecimiento de una infraestructura confiable y efectiva,que contemple la implementación de métodos unificados de acceso alos datos corporativos, el mejoramiento de los procesos administrativos,de los recursos informáticos.«El Sistema de Información Geográfica del Campus de la Universidaddel Quindío (SIGUQ), se proyecta como una herramienta de gestión,que de soporte a la toma de decisiones, planificación del uso de es-pacios, expansión, e infraestructura del Campus de la Universidad delQuindío. El objetivo General del Proyecto inicial es “Planear, analizar ydiseñar el Sistema de Información Geográfica (SIG) del campus de laUniversidad del Quindío” (Vila, Castro y Cardona, 2011).Este artículo describirá los pasos que se han seguido durante el pro-yecto, iniciando con el estudio del estado actual de los procesos deinformación de la Universidad del Quindío, permitiendo así dimensio-narlo y enfocarlo dentro de los requerimientos de la organización. En elmismo orden, se comienza con el estudio de la teoría sobre Sistemas deInformación, Sistemas de Información Geográfica, planeación, análisisy diseño del SIG. La investigación bibliográfica se centrará en la bús-queda de metodologías recientes utilizadas en este tipo de desarrollo,integrando los conceptos y funciones específicas que permitan llevara cabo el proyecto en su mejor medida. 1. Fundamento teóricoUn Sistema de Información Geográfica –SIG– utiliza tanto datos geo-rreferenciados como no espacializados, e incluye operaciones quesoportan el análisis espacial. El objetivo común de un SIG es la tomade decisiones para administrar la tierra, recursos, transporte, océanosu otras entidades espacialmente distribuidas y conectadas entre loselementos de un sistema geográfico, como ubicación, proximidad,distribución espacial. En este contexto, «un SIG es un sistema dehardware, software y procedimientos diseñados para realizar la captura,almacenamiento, manipulación, análisis, modelado y presentación dedatos referenciados espacialmente para la resolución de problemascomplejos de planificación y gestión» (Cowen, 1997).El poder de los SIG, puede aprovecharse al máximo a nivel empresa-rial, y académico, donde hay mucho que ganar de sus capacidades encuando a conectar gente con el conocimiento, con información disponi-ble para toda la organización, quienes tomen decisiones obtienen unaimagen más clara de la realidad, los datos se actualizan regularmente,y se comparten más datos, reduciendo la duplicación de esfuerzos(Pang Lo y Yeung, 2002, 532). 175
    • Nº 25 - julio - diciembre / 2011En la práctica actual son pocos los ejemplos documentados de losSIG aplicados a las Universidades, pero aun así se pueden mencionaralgunos casos de cómo en otras partes han abordado la solución deeste problema.1.1 Metodología para la implementación del SIGdel Campus de la Universidad del QuindíoLa implementación de los SIG requiere de metodologías que soportendiferentes actividades tales como la planeación, análisis, diseño e im-plementación, entre otras. Sin embargo, la implantación de este tipo desistemas presenta dificultades pues el carácter de los SIG como cienciamultidisciplinaria, ha tornado su implementación en una tarea problemá-tica, tanto por la diversidad de los miembros de los equipos presentesen el dominio de aplicación, como por el amplio espectro de posiblesusuarios de la información espacial, de acuerdo con Aime, Bonfatti yMonaire (1999,122-127) y Traynor y Williams (1995). Por lo anterior, seha desarrollado una metodología (Figura 1) adaptando las metodologíascomo RUP6, y MDS-IGAC7, al proyecto SIG del campus Universitario. Figura 1. Metodología DISIG-CF (Quiceno y Martínez, 2011)6 Rational Unified Process (RUP), es un marco de proceso integral que ofrece a las prácticas de la industria, la prueba del software y la entrega e implementación de sistemas y para la gestión eficaz de los proyectos, según afirma IBM (s.f.).7 La Metodología para el Desarrollo de Software, «MDS – IGAC presenta un ciclo de vida mixto, el cual incluye una forma escalonada y en espiral. Las actividades que se ejecutan en la fase de análisis pueden tener iteraciones que permitan refinar los artefactos de acuerdo a los requerimientos y exigencias del cliente. Sin embargo cuando la fase finaliza, ésta se comporta como un escalón, es decir la fase es inmodificable y es la base para la ejecución de las siguientes fases» (IGAC, s.f.)176
    • Universidad de Manizales Facultad de Ciencias e Ingeniería1.1.1 Plan de proyecto. En el plan del proyecto se definen elámbito, los objetivos y el enfoque global del trabajo que se va allevar a cabo. Constituye un elemento fundamental para iniciar,planear, ejecutar, controlar y evaluar el proyecto. Este documentodebe ser el único punto de referencia en el proyecto con respectoa las metas y objetivos, ámbito, organización, cálculos, plan detrabajo y presupuesto del mismo. Además, sirve de contrato entreel equipo del proyecto y los patrocinadores del mismo, al indicarqué se va a entregar conforme al presupuesto, límites de tiempo,riesgos, recursos y estándares acordados para el proyecto. Latabla 1 muestra los hitos desde la fase de Planeación hasta lafase de Diseño de la metodología aplicada.1.1.2 Análisis. La construcción de un sistema de información requiereseguir un proceso de desarrollo de software que permita la realizaciónde diferentes actividades que soporten la especificación de modelos,el uso de estándares, lenguajes y tecnologías asociadas. Las diversasactividades, métodos y prácticas que se especifican en el proceso, debenestar asociadas a la producción de software, afirma Sommerville (2004).Pero debido a la característica distintiva del software, la maleabilidad,también se deben detallar en la especificación del proceso de desarrollode software, las estrategias que acompañan la evolución de éste(gestionar el cambio). Las tareas o actividades que integran a los procesosde desarrollo de software, según Sommerville (2004), especifican cuatroactividades que son comunes a todos los procesos de desarrollo:- Especificación del Software: Se engloban todas las actividades orientadas a definir la funcionalidad y las restricciones del software para su operación. Tabla 1. Fases y Entregables del Proyecto (Vila, Castro y Cardona, 2010) Hitos Descripción Planeación Descripción del Plan del Proyecto. Planeación del Proyecto. Actividad que permite conocer el contexto de implementación del sistema Análisis de información. Modelado del negocio. Conocimiento de los requisitos y necesidades de los usuarios del sistema Elicitación de requisitos8. de información. Especificación de requisitos. Realización de casos de uso a partir de los requisitos. Diseño Especificación del diseño estructural del sistema de información Diseño. geográfica. Definición de la arquitectura. Vista de alto nivel del sistema con los componentes y sus interacciones. Diseño interfaz del usuario. Diseño del Prototipo de interfaz gráfica.8 Considerando que el anglicismo Elicitación no es admitido por la Real Academia de la Lengua, se debe entender como Levantamiento o Definición de requisitos (nota del editor). 177
    • Nº 25 - julio - diciembre / 2011- Desarrollo del Software: Involucra todas las actividades dedicadas a la producción del software, según lo especificado en la actividad anterior.- Validación del Software: Esta actividad se centra en asegurar que el sistema proporcione lo que el cliente quiere.- Evolución del Software: Involucra a las actividades que permiten gestionar el cambio.1.1.3 Modelado de negocio. Un modelo del negocio puede ser la basepara la especificación de los requisitos más importantes del sistemaque dará soporte al negocio, según consideran García et al. (2007).Además, permite identificar dónde están ubicados los problemas uoportunidades de mejora. Por este motivo se consideró necesarioaplicar el modelado del negocio del Proceso de Desarrollo Unificado,RUP, como disciplina inicial de la metodología aplicada para el desa-rrollo del Proyecto.La realización de las actividades de esta disciplina permite un primercontacto con la realidad institucional y se realizan con la finalidad deidentificar los procesos estratégicos de la Universidad y de entenderlos flujos de información entre las dependencias, actores y los proce-sos relacionados con el área de desarrollo Físico de la Universidad. Elresultado de esta búsqueda se describe por medio de los artefactosde Casos de Uso del Negocio, que definen los procesos de negocio uobjetivos estratégicos, y los Diagramas de Actividad en UML, de acuer-do con Booch, Rumbaugh y Jacobson (1998). Un caso de uso puedeser definido como una secuencia de acciones, incluyendo variaciones,que el sistema puede ejecutar y que produce un resultado observablede valor para un actor que interactúa con el sistema, según Booch,Rumbaugh y Jacobson (1998), y un Diagrama de Actividad capturael modelo del negocio asignado a un caso de uso, o modela la lógicadetallada del negocio, afirma Ambler (s.f.).La primera actividad inicia con un reconocimiento de la situación actualde la Universidad del Quindío, en cuanto a dependencias que requieraninformación de la oficina de planeación Física, lo que permitirá el iniciode la planeación del SIG. Se acudieron a fuentes externas e internaspara conocer el dominio del problema y el sistema actual de dicha ins-titución, incluyendo su misión, organigrama y Procesos. Además, serealizaron varias visitas a la Dependencia de Planeación Física dóndefueron entrevistadas personas con un amplio conocimiento de la maneraen que opera internamente la Universidad, y cómo realiza su procesode planificación y gestión a nivel interno.178
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEn la Universidad se pueden destacar cuatro macroprocesos (procesosEstratégicos, misionales, de apoyo, y Seguimiento y evaluación) (Figura2), que deben ser soportados y unidos por sistemas de información quepermitan su correcta gestión, la toma de decisiones y la integridad de losdatos. Figura 2. Macroprocesos institucionalesEn un nivel de más detalle el macroproceso Administración del Campus,que hace parte del Macroproceso de Apoyo, encargado de Cumplir demanera eficiente y eficaz con los planes de trabajo aprobados en relacióncon el mantenimiento y dotación de la planta física. Al ser éste el ma-croproceso que Aplica a todas las actividades que se realizan desde laIdentificación, asignación de los recursos disponibles hasta la prestacióny verificación de los servicios prestados en la Administración del campus,se hace relevante su entendimiento de tal forma que permita diseñar unSIG que satisfaga las reales necesidades de la Dependencia.Para cumplir con este objetivo, la Universidad cuenta con líneas vitales(Figura 3), es decir los sistemas principales que soportan el funcionamientode la Universidad y que son los siguientes: La Dependencia de PlaneaciónFísica apoya estas líneas a través de sus procesos: Mantenimiento plantafísica, vigilancia planta física y porterías, contratación, adecuación plantafísica, mantenimiento y soporte, sistemas de información, sistema degestión ambiental integral, activos fijos.Se han dividido estas líneas vitales, según la categorización establecidapor el catálogo de objetos del IGAC-CIAF (2005), donde se presentanlas temáticas contenidas (Control Geodésico, Catastro, Transporte,Recurso Natural y Ambiente Natural, Hidrografía, Modelo Digital, Entidad 179
    • Nº 25 - julio - diciembre / 2011Territorial y Unidad Administrativa, Nombre Geográfico, Imagen, DatosSocioeconómicos) y la codificación asignada. Figura 3. Líneas vitales de la Universidad del QuindíoLa Infraestructura de Datos Colombiana de Datos Espaciales los catálogosde objetos, son la primera aproximación a una representación abstractay simplificada de la realidad y en una estructura que organiza los tipos deobjetos espaciales, sus definiciones y características (atributos, dominios,relaciones y operaciones), y unificarlas siguiendo el catálogo de objetos, detal manera que sean integrables, homologables y fácilmente comprensibles,y permite la creación, revisión y actualización de catálogos, estableciendopruebas de conformidad para su validación. Este catálogo de Objetosfue adoptado en la Norma ISO 19110 (ISO, 2005). Las categorías que seencuentran en la Universidad, se muestran en la Figura 4.En la Universidad es importante concretar el Plan de Desarrollo Físi-co de los próximos cinco años, y por ello debe prever el futuro de suplanta física y la consolidación de los espacios necesarios para alojarel desarrollo académico institucional en la cantidad y calidad reque-ridas, desde la reflexión de los propios estamentos o, una discusióntécnica y académica sobre lo que debe ser el futuro modelo de plan-ta física de la Universidad del Quindío. Para lograrlo es importantegestionar la información de los elementos físicos de la Universidad ypoder intervenirlos de acuerdo a la necesidad establecida, sea para:optimizar espacios académicos y administrativos, mejorar la movi-lidad con prelación al peatón, crecimiento y densificación ordenadadel campus, conservación y mejoramiento del entorno ambiental89.98 Política Intervención de los espacios Físicos Plan Estratégico 2009-2011. Universidad del Quindío.9 180
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Figura 4. Categorías del catálogo de objetos identificadas en las Líneas vitales de la Universidad del Quindío.Por lo anterior, la primera aproximación a la solución software es elde poder gestionar los elementos físicos del Campus Universitario. Elsiguiente Caso de Uso del Negocio y el Diagrama de Actividad másrelevante para dar cumplimiento al objetivo del macroproceso Admi-nistración del Campus (Figuras 5 y 6). Figura 5. Caso de Uso del Negocio. Gestionar Información de la Planta Física1.1.4 Levantamiento de requisitos. Para ello, se utilizó la metodo-logía propuesta por MDS-IGAC (IGAC-CIAF, 2005) que permitió la 181
    • Nº 25 - julio - diciembre / 2011identificación del modelo del Dominio, los actores que están involu-crados dentro del proyecto, y los Casos de Uso del sistema. Éstosartefactos son el resultado de diferentes técnicas de definición derequisitos, que dependiendo de la información que era necesariaadquirir se realizaron las siguientes técnicas. El primer paso eradeterminar el Dominio del Proyecto, para lo cual se utilizó la técnicade revisión de fuentes internas y externas de información. Ademásde entrevistas con expertos en el área. El modelo del Dominio proveeuna gran foto de las interrelaciones entre las entidades del negociodentro de una organización compleja. El modelo del dominio muestratípicamente las principales entidades del negocio y sus responsa-bilidades funcionales y las relaciones entre las entidades, aseguraMenard (2003). Figura 6. Diagrama de Actividad. Gestionar Información de la Planta FísicaSe identifican las entidades del negocio (Figura 7) que harán parte delproyecto y su relación con las categorías de objetos del IGAC-CIAF(2005). Los requisitos definidos y especificados en esta fase seránincluidos en un documento de especificación de requisitos del softwaredefinidos por la metodología MDS-IGAC.1.1.5 Especificación de requisitos en casos de uso. El modelo delnegocio puede ser la base para la especificación de los requisitos másimportantes del sistema que dará soporte al negocio, siendo por tantoel propio negocio lo que determine los requisitos. Una vez identificadoslos procesos de negocio de la organización, y descritos sus flujos detrabajo mediante diagramas de actividades, los casos de uso se defi-nen y estructuran a partir de las actividades de cada proceso, mientras182
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaque las entidades del modelo conceptual se obtienen de los datos quefluyen entre tales actividades, como lo aseguran García et al. (2007). Figura 7. Modelo del Dominio del NegocioLo anterior conlleva a identificar el Caso de Uso Gestionar Mapas Di-gitales (Figura 8), como parte importante de la propuesta de soluciónal Caso de Uso del Negocio Gestionar Elementos Planta Física. Enconsecuencia tener la capacidad de Gestionar Elementos Planta Física,implica que el Sistema internamente permita gestionar los elementosfísicos georreferenciados, que puedan ser consultados por los usuariosy visualizados en un mapa. Figura 8. Caso de Uso Gestionar Mapas Digitales 183
    • Nº 25 - julio - diciembre / 2011El éxito de la aplicación SIG es utilizar los datos espaciales reque-ridos para facilitar el enlace espacial y no espacial de datos, quehabilitarán la capacidad del sistema para proveer las herramientasque apoyen la toma de decisiones de manera oportuna, simple yefectiva.1.1.6 Generación de información georreferenciada. La calidad re-lativa a la recolección de los datos debe ser asegurada a través de lacorrecta especificación de la exactitud de los dispositivos de recolecciónde datos, como aseguran Quintanilha y Rodrigues (1997, 318). Se harealizado un Control de la Calidad de esta información, apoyados en lasNormas Técnicas Internacionales ISO 19113 (ISO, 2002), 19114 (ISO,2003) y 19138 (ISO, 2006). En consecuencia, los planos correspon-dientes a las líneas vitales de la Universidad que han sido levantadosdurante varios años por la Dependencia de Planeación, y que actual-mente se encuentran georreferenciados son de alta calidad permitiendosu óptima visualización, tareas de análisis espacial y geoprocesamiento.Un ejemplo de ello son las Figuras 9 y 10. Figura 9. Mapa Universidad del Quindío «El conjunto de datos geoespaciales conforma el insumo básico para integrar información trascendental para una nación. Por lo tanto, las sociedades actuales requieren conocer la existencia de los datos, confiar en su calidad, determinar su nivel de aplicación y acceder fácilmente a ellos, con el fin de que se pueda compartir e integrar información de diferentes fuentes para poder tomar acciones preventivas y correctivas de forma efectiva y eficiente» (Bernal, 2009).184
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Figura 10. Bloque de Ingeniería Universidad del Quindío 2. MetodologíaEste proyecto inicia con el estudio del estado actual de los procesos deinformación de la Universidad del Quindío, permitiendo así dimensionarloy enfocarlo dentro de los requerimientos de la organización. En el mismoorden, se comienza con el estudio de la teoría sobre Sistemas deInformación y Sistemas de Información geográfica.La investigación bibliográfica se centrará en la búsqueda de meto-dologías recientes utilizadas en este tipo de desarrollo, integrandolos conceptos y funciones específicas que permitan llevar a cabo elproyecto en su mejor medida. Además, se requiere de apoyo técnicoy bibliográfico en Internet, con el fin de obtener mayor informaciónacerca de nuevas tecnologías y metodologías utilizadas en ambientesde desarrollo de Sistemas de Información y Sistemas de InformaciónGeográfica. 3. Resultados y discusiónEn el proceso de realización del proyecto se logró planear, analizar ydiseñar un Sistema propio y único de información geográfica para laadministración del campus de la Universidad del Quindío (Administra-ción física) como primera etapa para la dependencia que se encargade dicha labor, con el fin de integrar posteriormente los sistemas admi-nistrativos, financieros y contables que tenga lugar en el ejercicio de laadministración del campus. 185
    • Nº 25 - julio - diciembre / 2011En este proceso, además del producto tangible representado en unPlan del Proyecto, Análisis de Requisitos y un Diseño de Bases deDatos espaciales, se pudo lograr la vinculación de jóvenes estudiantesa través de un proyecto de grado, con una calificación laureada, y lapresentación de resultados en la Ponencia XIV Convención y FeriaInformática Internacional 2011, La Habana (Cuba), en donde las califi-caciones fueron positivas y muy alentadoras en cuanto la originalidady pertinencia del trabajo, por participantes como Brasil y Argentina,quienes mostraron su interés en trabajar mancomunadamente a futuropara implementar este trabajo o alguno que se pueda desarrollar conlas especificaciones propias de los interesados, lo cual, le da un granvalor agregado no solo a la productividad sino a la formación integralde los docentes y estudiantes, demostrando la importancia de estosproyectos en el cumplimiento de los ejes misionales de la universidad(academia, investigación y extensión). 4. Conclusiones• La construcción del SIGUQ apoyará la toma de decisiones en la Universidad con el objetivo de optimizar esfuerzos y realizar inver- siones más efectivas.• Tener un sistema de información geográfica permite minimizar el volumen de trabajo de las organizaciones y mejorar además los procesos de comunicación de los datos, siendo éste último vital al momento de requerir información para la toma de decisiones inme- diatas, y la Universidad del Quindío no es ajena a esta necesidad. Por lo tanto, el desarrollo de este Proyecto le permitirá rediseñar y optimizar sus procesos de información, y adquirir los beneficios que esto conlleva.• En el trabajo de campo realizado entre los integrantes del grupo de investigación y los funcionarios de la dependencia de planeación, se identificaron algunos problemas. Formulación de preguntas técnicas en construcción de software a expertos en planeación, resistencia a artefactos producidos y métodos de elicitación de requisitos eje- cutados por el grupo de entrevistadores, por parte de los expertos de planeación física.• Es necesario realizar un proceso de acercamiento con expertos técnicos de la dependencia para lograr un consenso en entregables, mostrándoles las ventajas del proceso de elicitación de requisitos que se lleva en el momento, usando modelado de requisitos basado en casos de uso.186
    • Universidad de Manizales Facultad de Ciencias e Ingeniería• La investigación ha permitido desarrollar una metodología propia para el caso particular y heterogéneo como lo es el caso de la Uni- versidad del Quindío. BibliografíaAIME, Andrea; BONFATTI, Flavio and MONAIRE, Paola Daniela (1999). Making GIS closer to end users of urban environment [on line]. In: 7th ACM international symposium on Advances in geographic information systems, GIS’99 (02-06/11/1999), Kansas City (Missouri, USA): ACM. Proceedings, GIS’99, New York (NY, USA): ACM, p. 122-127, ISBN: 1-58113-235-2. <http://dl.acm.org/citation.cfm?id=320165&dl=ACM&coll=DL&CFID=49382830&CFTOK EN=22355712> [consult: 15/08/2011]AMBLER, Scott W. (s.f.). UML 2 Activity Diagrams [on line]. Armonk (NY, USA): Ambysoft Inc. (IBM services group) <http://www.agilemodeling.com/artifacts/activityDiagram.htm> [consult: 15/08/2011]BERNAL Cubillos, H. (2009). Datos Fundamentales, cimientos esenciales para la construcción de una IDE. Bogotá (Colombia): Instituto Geográfico Agustín Codazzi, IGAC. p. 71-79BOOCH, Grady; RUMBAUGH, James and JACOBSON, Ivar (1998).The Unified Modeling Language User Guide. Colorado (USA): Addison-Wesley. 512 p. ISBN: 0201571684COWEN, David (1997). What is GIS [on line]. In: GOODCHILD, M.F., and KEMP, K.K. (eds.) (1990). NCGIA Core Curriculum in GIS. Santa Bárbara (California, USA): National Center for Geographic Information Analysis, NCGIA. <http://www.geog.ubc.ca/courses/klink/gis.notes/ ncgia/u01.html#UNIT1> [Consult: 08/2009]GARCÍA MOLINA, Jesús; ORTIN, M. José; MOROS, Begona; NICOLÁS, Joaquín y TOVAL, Ambrosio. (2007). De los Procesos del Negocio a los Casos de Uso. En: Ciencia y Técnica Administrativa Vol. 06, No. 04 (oct.-dic.), Buenos Aires (Argentina): CyTA. ISSN 1666-1680 <http://www.cyta.com.ar/ta0604/v6n4a1.htm> [Consulta: 12/08/2011]IBM (s.f.). IBM Rational Unified Process (RUP) [on line]. Armonk (NY, USA): International Busi- ness Machines, IBM Corporation. <http://www-01.ibm.com/software/awdtools/rup/> [consult: 10/08/2011]IGAC (s.f.). Metodología de Desarrollo de Software: Ciclo de vida MDS-IGAC [en línea]. Bogotá (Colombia): Instituto Geográfico Agustín Codazzi, IGAC. <http://geoservice.igac.gov.co/mds/ igac/> [consulta: 12/08/2011]IGAC-CIAF (2005). Catálogo de Objetos DOC-CAT-01 Versión 1.3 [en línea]. Bogotá (Colombia): Instituto Geográfico Agustín Codazzi, IGAC. (oct.). <http://www.cp-idea.org/documentos/datos/ DOC_CAT_01_Catalogo_de_Objetos_Colombia.pdf> 33 p. [consulta: 15/08/2011]ISO (2002). ISO 19113:2002: Geographic information - Quality principles [on line]. Geneva (Switzerland): International Organization for Standardization, ISO. <http://www.iso.org/iso/ iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=26018> [consult: 10/08/2011]ISO (2003). ISO 19114:2003: Geographic information - Quality principles procedures [on line]. Geneva (Switzerland): International Organization for Standardization, ISO. <http://www.iso.org/ iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=26019> [consult: 10/08/2011]ISO (2005). ISO 19110:2005: Geographic information - Methodology for feature cataloguing [on line]. Geneva (Switzerland): International Organization for Standardization, ISO. <http://www. iso.org/iso/catalogue_detail.htm?csnumber=39965> [consult: 10/08/2011]ISO (2006). ISO/TS 19138:2006: Geographic information – Data quality measures [on line]. Ge- neva (Switzerland): International Organization for Standardization, ISO. <http://www.iso.org/ iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=32556> [consult: 10/08/2011]MENARD, Richard (2003) Domain modeling: Leveraging the heart of RUP for straight through processing [on line]. In: Developer Works (15/06/2003). Armonk (NY, USA): International Busi- ness Machines, IBM Corporation. <http://www.ibm.com/developerworks/rational/library/2234. html> [consult: 10/08/2011] 187
    • Nº 25 - julio - diciembre / 2011PANG LO, Chor and YEUNG, Albert K. W. (2002).Concepts and techniques of Geographic Informa- tion Systems, 2 ed. Upper Saddle River (NJ, USA): Prentice-Hall. 544 p. ISBN: 10-013149502XQUICENO RESTREPO, Claudia y MARTINEZ LÓPEZ, Laura Cristina (2011). Adecuación de una metodología para el diseño de un sistema de información geográfica para la administración del campus físico de una institución educativa. Armenia (Colombia). Universidad del Quindío. 89 p.QUINTANILHA, J.A y RODRIGUES, M. (1997). Aspectos de calidad en sistemas de información geográfica. En: Información Tecnológica. Vol. 8, No. 4. La Serena (Chile): Centro de Información Tecnológica. p. 317-322. ISSN: 0718-0764SOMMERVILLE, Ian (2004). Software Engineering, 7 ed. London (UK): Addison Wesley. 784 p. ISBN: 0321210263TRAYNOR, Carol and WILLIAMS, Marian G. (1995). Why are geographic information systems hard to use? [on line]. In: CHI ‘95 Conference companion on Human factors in computing systems (07-11/05/1995). Denver (Colorado, USA): ACM/SIGCHI. Proceedings, CHI ’95, New York (USA): ACM. ISBN: 0-89791-755-3VILA ORTEGA, José Joaquín, CASTRO BENAVIDES, Lina María y CARDONA TORRES, Sergio Augusto. (2011). Planeación, Análisis y Diseño de un SIG para el Campus de la Universidad del Quindío. En: Informática 2011, XIV Convención y Feria Internacional (07-11/02/2011), La Habana (Cuba): GeoCuba. Tecnologías Convergentes: Integración e independencia. ISBN 978-959-7213-01-7VILA ORTEGA, José Joaquín. CASTRO BENAVIDES, Lina María, y CARDONA TORRES, Sergio Augusto. (2010). Planeación, análisis y diseño del Sistema de Información Geográfica (SIG) del campus de la Universidad del Quindío. Armenia (Colombia). Universidad del Quindío. 58 p.188
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Gestionar el conocimiento: una necesidad empresarial para sobrevivir en el siglo XXI*1 [Managing knowledge: A business need to survive in the XXI century] Carlos PETRELLA-TÓFFOLO2, Luis JOYANES-AGUILAR3Recibo: 20.08.2011 - Ajuste: 18.09.2011 - Ajuste: 05.12.2011 - Aprobación: 17.12.2011 Resumen La tercera ola está abriendo canales de comunicación entre agentes, que difícilmente las grandes corporaciones podrán limitar, como ocurriera en la segunda parte del siglo pasado. Es el momento de la Internet, las comunidades de práctica, las redes sociales como soporte de una nueva forma de gestionar el conocimiento. El objetivo de este documento es más específico que en el proyecto de referencia general y consiste en mostrar los desarrollos conceptuales y modelos relacionados con la concepción del conocimiento como instrumento para mejorar el desempeño de las organizaciones, incentivando el desarrollo de sus principales cadenas de valor. Se presentan aspectos del marco de referencia junto con ciertas evidencias de cambios en la forma de funcionamiento de las organizaciones de la mano de las capacidades que genera la sociedad de la información y el* Modelo para citación de este artículo de reflexión PETRELLA TÓFFOLO, Carlos y JOYANES AGUILAR, Luis (2011). Gestionar el conocimiento: Una necesidad empresarial para sobrevivir en el siglo XXI. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 189-216. ISSN: 0123-96781 El presente artículo es derivado del proceso de investigación, que se enmarca en el desarrollo de la tesis de Doctorado, del primer autor, en Ingeniería Informática: Sociedad de la Información y el Conocimiento en la Universidad Pontificia de Salamanca, con la tutoría del segundo.2 Ingeniero de Sistemas de Computación; Magister en Administración de Empresas (MBA); Magister en Educación; PhD en Ingeniería Informática: Sociedad de la Información y el Co- nocimiento. Presidente, Secnet S.A., Montevideo, Uruguay. Correo electrónico: cpetrella@ secnetpro.com.3 Licenciado y PhD. en Ciencias Físicas; PhD. en Informática; PhD. en Sociología. Profesor catedrático, Universidad Pontificia de Salamanca, campus Madrid, España. Correo electrónico: luis.joyanes@upsam.net Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 189-216 189
    • Nº 25 - julio - diciembre / 2011 conocimiento, para desarrollar formas de organización y adminis- tración mucho mejores. Palabras Clave: Tercera ola, sociedad del conocimiento, redes sociales, aprendizaje, innovación. Abstract The third wave is opening channels of communication between agents, which large corporations won´t be able to limit anymore, as it happened in the second half of last century. This is the age of the Internet, communities of practice and social networks as support for a new way to manage knowledge. The scope of this document is more specific than the general reference project and it consists on showing the general concepts and models related to the conception of knowledge as a tool to improve organizatio- nal performance by encouraging the development of their most important value chains. We present aspects of the framework along with some evidence of changes in how organizations work hand in hand with the capabilities generated by the information society, to develop better ways of organizing and administering knowledge. Keywords: Third wave, information society, social networks, learning, innovation. IntroducciónLos puntos focales del desarrollo productivo que eran fundamentalesen una sociedad agraria o industrial, están cambiando. La tierra y elcapital siguen siendo importantes pero, conocimiento han ingresadocomo factor productivo, cada vez con mayor peso. ¿A qué se debelos términos sociedad del conocimiento o sociedades basadas en elconocimiento estén resultando más atractivos?Saber qué conocimiento se necesita y dónde está ese conocimiento, serácada vez más determinante del éxito de las compañías y de los trabajado-res. Pasa a ser fundamental manejar de manera más eficaz y eficiente elconocimiento de las organizaciones para poder transformarse e innovara escala regional, nacional, sectorial e incluso en cada organización.Entrando en aspectos más prácticos, las organizaciones deberían co-menzar a prepararse para desarrollar un esquema de clasificación delconocimiento por niveles de uso, considerando la necesidad de trans-ferencia de conocimientos que por otra parte, no debe verse como una190
    • Universidad de Manizales Facultad de Ciencias e Ingenieríafunción más del sistema productivo, sino como un aspecto relevantedel nuevo modelo de gestión de esos conocimientos.Más tarde o más temprano, las organizaciones se enfrentarán a la ne-cesidad de contar con modelos de gestión del conocimiento personali-zados, lo que requiere comprender las dimensiones de aproximación ala problemática, considerando los recursos basados en conocimiento,las actividades basadas en conocimiento y las influencias que facilitano limitan esas actividades. 1. El aspecto medular respecto de la generación y utilización del conocimientoEl factor principal de sustento de la capacidad productiva de la civiliza-ción – más allá del trabajo desarrollado por el hombre - fue cambiandocon el correr de la historia: En un principio la tierra era el eje de losrecursos productivos a administrar, hasta no hace mucho tiempo lofueron las máquinas y ahora otro recurso está a apareciendo comodecisivo… se trata del conocimiento.No es que los desafíos del sector agropecuario hayan dejado de serimportantes. Tampoco que el desarrollo industrial sea menos relevante.La primera ola y la segunda ola, planteadas por Toffler y Toffler (1999),siguen teniendo su incidencia en aspectos políticos, económicos ysociales. Pero el conocimientos como recurso movilizador y foco de laproducción de riqueza, está adquiriendo cada vez más preeminencia,en el marco de la tercera ola.La tercera ola, asegura Petrella (2011), está abriendo canales de co-municación entre agentes operando par a par sin intermediarios, quedifícilmente las grandes corporaciones podrán limitar, como ocurrieraen la segunda parte del siglo pasado. Internet, la Web, las comunidadesde práctica, las redes sociales y cada vez más medios de intercambioabiertos entre ciudadanos o consumidores han llegado para quedarse.Las organizaciones que quieran sobrevivir en el tumultuoso siglo XXIdeberán tener en cuenta estos cambios y considerar el impacto político,económico, social y también cultural de los mismos, en sus estructuras,procesos y conductas y también en su entorno incluyendo clientes,proveedores o similares. Dando un paso más, deberán comprender elcarácter irreversible de estos cambios estructurales y en general losefectos de la mundialización y la globalización en sus negocios.Si bien desde hace siglos el conocimiento ha jugado un papel rele-vante en el desarrollo de las sociedades, en los últimos tiempos se ha 191
    • Nº 25 - julio - diciembre / 2011convertido en la fuerza más importante de ese desarrollo, sobre todoen términos económicos. Ello empieza a ser reconocido por diversasorganizaciones y agentes, como señala Stehr, citado por Tilak (2002),al asegurar que «las sociedades del conocimiento siempre han existido;lo que es nuevo es la rapidez a la cual el conocimiento está creciendo.»Los desarrollos socioeconómicos por un lado y los avances tecnológicospor el otro, han sido los principales responsables de la explosión deconocimiento manifestada en los últimos años. En consecuencia, unade las características que marcará a la sociedad del siglo XXI será, nosólo el ritmo al cual se produzca nuevo conocimiento, sino la velocidada la cual éste se volverá obsoleto. En otras palabras, no sólo la pro-ducción y el acceso al conocimiento son importantes, sino también lavelocidad a la cual cada sociedad tenga acceso a adiciones marginalesde conocimiento.Tilak (2002) afirma que «el concepto de ‘sociedad del conocimiento’está siendo dotado de una más amplia interpretación en naturalezay alcance que los conceptos tradicionales de ‘sociedad alfabetizada’,‘sociedad del aprendizaje’ y ‘sociedad educada’, aunque ellos están muyestrechamente relacionados; tan estrechamente relacionados que hayel peligro de ser tratados como sinónimos». Se trata de una sociedadque integra nuevas formas de alfabetización, aprendizaje y educacióngenerando un conjunto de demandas laborales muy diferentes.Davenport, Leibold y Voelpel (2006) sostienen que los contextos dedesarrollo estratégico se han vuelto más globales y los requerimientosde los clientes más personalizados. La necesidad de colaboración endiversas escalas, se ha incrementado. Existen cada vez más condi-cionantes que plantean desafíos para encarar modelos de negociosmúltiples que demandan y operen con mayor capacidad de aprendizajey flexibilidad.Los ejemplos del pasado no son referentes para el futuro. No es su-ficiente la consideración de aspectos funcionales relacionados con laimplementación de negocios únicos. En la actualidad, afirma Petrella(2011), se deben contemplar los procesos considerando una mayorapertura y flexibilidad de adaptación, así como se replantea la forma enque se aprecian las necesidades de manejar los desarrollos emergentesrupturistas y la obtención de nuevos conocimientos para capitalizarlos.Los factores productivos operan con mucho mayor dinamismo. Lacapacidad creativa de nuevos negocios gana terreno, respecto de lacapacidad reproductiva de los negocios legados. El talento para innovarpasa a formar parte de los activos relevantes de las organizacionestanto como el capital. Se apuesta mucho más a la capacidad de poder192
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaseparar la paja del trigo en el estudio de las nuevas oportunidades denegocios. También es necesario aprender a comunicar de manera máseficiente. Consecuentemente, un modelo de gestión del conocimiento(Figura 1) debe permitir – entre otros aspectos - enlaces fluidos entrelos agentes en el marco de una estructura en red, contando con unadecidida apertura al aprendizaje, lo que refuerza una aproximación queplantea aspectos estructurales y de funcionamiento, además de uncambio cultural respecto de la forma de aprender y hacer. Figura 1 Componentes de sociedad del conocimiento (Petrella, 2011)La sociedad del conocimiento, como modelo productivo, es actual-mente una realidad emergente que está generando un gran impactoeconómico y social que, a su vez, está determinando necesidades decambio en gran cantidad de organizaciones, con y sin fines de lucro.Precisamente, esta nueva realidad genera amenazas y por suerte opor-tunidades para reformular las estructuras organizaciones y las formasde trabajo tradicionales. Las reglas de juego de la generación de valorestán cambiando.Según refiere Joyanes (1999, 1), «Peter Drucker, uno de los más no-tables especialistas de gestión empresarial, afirmó en 1993, que lasgrandes transformaciones sociales se iniciaron cuando la informacióny el conocimiento empezaron a convertirse en el elemento centraldel funcionamiento de la economía. El recurso económico básico (elmedio de producción) ya no es ni el capital ni los recursos naturales,ni la mano de obra: “es y será el saber o el conocimiento». Además,afirma que las nuevas realidades están alterando las reglas de juegode la producción. Esto modifica las estructuras de poder a nivel de las 193
    • Nº 25 - julio - diciembre / 2011organizaciones tradicionales y las dinámicas subyacentes entre losprincipales agentes internos y también en relación con el entorno. Debetenerse presente que hoy día el referente histórico capital-trabajo hasido sustituido por información-conocimiento. Un verdadero cambio deparadigma removedor en las formas de producción de riqueza, que hallegado para quedarse.Los factores productivos relacionados con la tierra y la industria per-manecen, pero los factores relacionados con el conocimiento crecen.Castells (2002) sostiene que en realidad se trata de una sociedad enla que las condiciones de generación de conocimiento y procesamientode información han sido sustancialmente alteradas por una revolucióntecnológica centrada sobre el procesamiento de información, la gene-ración del conocimiento y las tecnologías de la información.Para Stewart (1998), la nueva riqueza de las organizaciones en elcontexto de la tercera ola, se ha mudado de lugar y ha cambiado susdimensiones… está en otro lado y es otra cosa. Menos presente enlas instalaciones o en el financiamiento, que siguen siendo importantespor cierto, pero más presentes en el capital intelectual para entender larealidad cambiante y generar nuevos negocios.Por su parte, Pérez López (1999) pone en evidencia la importanciaestratégica del capital intelectual en los procesos de generación deriqueza, mientras Marín (2005) resalta la consideración de aspectosculturales. Por ello, es necesario reconocer que los cambios que seestán procesando son en realidad sociológicos y tecnológicos a la vez,alterando conjuntamente los procesos tradicionales de creación de va-lor en las organizaciones. Consideran Prahalad y Ramaswamy (2004)y González Fernández (2009), que las estructuras de poder se estánreplanteando, las relaciones entre los agentes cambian y la tecnologíapara soportar esas relaciones también, por lo que consecuentementelas organizaciones deberán adaptarse.Según Drucker (1998, 472) los procesos de centralización y estan-darización productiva de antaño procurando economías de escala ycomplementación productiva no son la solución. Mantener autonomíafijando unilateralmente condiciones al mercado ya no es posible. Seestán generando oportunidades para fortalecer los sistemas productivosa partir de otros factores. La necesidad de diversidad y flexibilidad hadejado de ser una amenaza.Cortada y Hargraves (2000) hablan de la era del trabajo en redes, quecambiará el concepto de organizaciones autárquicas que tenían porobjetivo ser autosuficientes, para imponer sus condiciones al mercado.Precisamente porque eso era importante entonces para su superviven-194
    • Universidad de Manizales Facultad de Ciencias e Ingenieríacia y crecimiento. Pero ahora las necesidades de supervivencia y creci-mientos pasan por la capacidad de adaptarse a un contexto cambianteque no se puede condicionar tan fácilmente.Los cambios en las relaciones entre agentes y los medios para realizarlos intercambios (interna y externamente a la organización otrora auto-suficiente), son de tal relevancia e impacto que es necesario aprendernuevas formas de organizarse y de trabajar a todos los niveles. Al mismotiempo que se procesan esos cambios, consideran Kleiner y Roth (2000)y Roth y Kleiner (2001), se están produciendo transformaciones en laforma de aprender tanto individual y como colectiva.Uno de los desafíos de cara al desarrollo en el siglo XXI consiste enestablecer realmente cómo se aprende en el marco del trabajo en lasorganizaciones. Aprender de una nueva forma y administrar lo aprendidopasan a tener una especial preponderancia, como en su momento lofue saber sobre la naturaleza para desarrollar la agricultura o de ma-quinarias para encarar la industrialización.Será necesario -por no decir que imprescindible- para sobrevivir entérminos productivos aprender a aprender de una manera más abiertay durante toda la vida laboral. «Por estas razones la formación y laGestión del Conocimiento adquieren, desde la perspectiva de la gestióndel cambio, un importante valor estratégico en la gobernabilidad de laSociedad del Conocimiento» (Maragall Mira, 2002, 2).Saber qué conocimiento se necesita y dónde está ese conocimiento,será cada vez más determinante del éxito de las compañías y de lostrabajadores. Pasa a ser fundamental manejar de manera más eficazy eficiente el conocimiento de las organizaciones para poder transfor-marse e innovar a escala regional, nacional, sectorial e incluso en cadaorganización. Ver a las personas como el principal recurso productivo,no por su fuerza sino por su talento, vuelve a poner las cosas en sulugar. Todo lo que en definitiva, pone en primera fila el problema decontar con los recursos humanos apropiados para poder hacerlo, encada una de las dimensiones referidas en que se plantean los desafíosde generar destrucción creativa al estilo schumpeteriano.La aproximación a la necesidad de aprender como parte de la estrate-gia de desarrollo de las organizaciones pasa a ser algo fundamental.Nonaka y Takeuchi (1995) presentan la problemática del aprendizajeen las organizaciones a partir de un modelo que permite comprenderel proceso de la generación de nuevos conocimientos y el rol principalque juegan las personas para lograrlo.Cada vez es más evidente que las personas pueden aportar a lasorganizaciones en la medida que sigan aprendiendo. Ello requiere 195
    • Nº 25 - julio - diciembre / 2011condiciones que estimulen ese aprendizaje y su aplicación productiva.Precisamente por ello, Nonaka y Takeuchi (1999) plantean alternativaspara aumentar las probabilidades de que las personas se embarquenen un aprendizaje que aporten valor a las organizaciones.Para desarrollarse se requiere territorio, capital y trabajo como en laseconomías de la primera y segunda ola, que no han desaparecido y nodesaparecerán, pero también se requieren nuevos talentos y nuevosconocimientos. Uno de los aspectos importantes en las sociedadespreocupadas por mejorar su capacidad de desarrollo, es comenzar acaptar que hay relaciones entre ese desarrollo y el conocimiento queéstas generan. Por supuesto que algunas relaciones permanecen, peroes necesario aceptar que el desarrollo económico y la generación delconocimiento relevante, no operan disociados.Debe tenerse presente que para competir mejor, se requiere contar conorganizaciones más flexibles, operando con eficacia y eficiencia con lasredes organizacionales afines. Todo esto plantea enormes dificultadesde los países Latinoamericanos, y a sus organizaciones productivas,para ponerse a rueda con las necesidades de generar nuevos conoci-mientos para reducir un grado de dependencia que históricamente semantiene y a veces se acrecienta con los países desarrollados y lasgrandes compañías del norte, como lo presenta Valenti López (2002). 2. La introducción del conocimiento en la actividad empresarialSin un futuro técnica y comercialmente previsible como hasta haceunas décadas, se complica determinar lo que hay que saber y hacerpara mantener la vigencia de un negocio. El desafío tiene que ver conprepararse para producir y comercializar productos que hoy no se tienenclaros, con canales de comercialización que no se conocen.Las grandes organizaciones mecanicistas del siglo pasado preparadaspara reproducir el pasado legado cada vez con mayor eficiencia, seenfrentarán a problema de eficacia. Podrán incluso en caso extremos,llegar a fabricar productos con una notable eficiencia, que nadie quieracomprar. El éxito pasado no garantizará el éxito futuro, por la vía de lareproducción rutinaria.Se avecinan cambios de paradigma, en los términos planteados porKuhn (1980), pero en este caso no solo en el ámbito académico, sinotambién en el empresarial. Será un cambio en la forma de ver las or-ganizaciones, sus modelos de negocio y en general, la capacidad para196
    • Universidad de Manizales Facultad de Ciencias e Ingenieríagenerar riqueza, de la mano de nuevas formas de innovar que generaráncambio rupturistas en las reglas de juego legadas.¿Qué características debería tener una organización para adaptarsea condiciones que no pueden ser previstas con suficiente antelación,integrando nuevos conocimientos para desarrollar innovaciones? Parapoder capitalizarse estos procesos de generación de conocimientos serequiere una organización abierta al aprendizaje, tal cual lo proclamaSenge (1992) en La Quinta disciplina. La respuesta de Senge paraenfrentar la incertidumbre es que las organizaciones que aprenden demanera continua y sistemática, se embarcan de manera más natural,en procesos virtuosos que mejoran sus posibilidades de supervivenciaen la medida que les permiten obtener el máximo provecho de sus ex-periencias, aprendiendo lo más posible de ellas con la menor cantidadde trabas.En el mismo sentido, estas empresas deben colocarse en las antípodasde una organización de tipo tradicional, que establece mecanismos rígi-dos de control y que funciona en base a ciertos métodos y conocimientosque ha ido adquiriendo a través de los años, ya sea por experienciasinternas consideradas satisfactorias o bien imitando a otras empresasque han tenido éxito, de la mano del bechmarking.El tipo de organización tradicional, según Senge (1992), esencialmentereproduce lo que ya sabe, abriéndose en ciertas ocasiones excepcio-nales a algunas novedades las que en cierta medida, condicionan odeforman para incorporarlas a su modo de funcionar y así reducir elimpacto productivo de los cambios que eventualmente sean necesarios.La sugerencia de que las organizaciones deben cambiar para adaptar-se a las necesidades de la tercera ola no es conceptualmente nueva,en términos de concepción de sus estructuras y procesos sustantivos.Precisamente, Hedlund (1994) ha propuesto algunas alternativas paramanejar el conocimiento de las organizaciones, contemplando las di-námicas relacionadas con la administración de ese conocimiento.La idea básica que propone para estar en mejores condiciones desobrevivir es contemplar las necesidades de manejar el conocimientotácito y el conocimiento explícito, considerando las dinámicas socialesasociadas con su creación y utilización. Algo particularmente relevantepara entender los procesos de generación y comunicación de conoci-miento en las organizaciones.Funcionar en red será cada vez más una necesidad. Se incrementa laimportancia de comprender las estructuras, y sobre todo las dinámicas defuncionamiento en red, estiman Newman, Barabási y Watts (2006), querequieren modelos conceptuales y prácticas bien diferentes a las organi- 197
    • Nº 25 - julio - diciembre / 2011zaciones clásicas. Además, demandan nuevas tecnologías para que losagentes puedan operar personal y profesionalmente integrados. Hay queestablecer vasos comunicantes con enlaces entre agentes, que no eranusuales en las organizaciones tradicionales. El problema reside en queasociar los procesos de generación del conocimiento con las entidadescreadoras del mismo, constituye un enorme desafío para las organizacio-nes, que es todavía más complejo, cuando la organización opera en red.La clave pasa a ser la comprensión y desarrollo eficaz de los procesosde generación de conocimientos en el ámbito de cada organización ysu entorno. En esta línea de pensamiento, el primer trabajo relevanteque intenta abordar de manera simultánea la dimensión epistemológi-ca y la ontológica de los procesos de generación de conocimiento espresentado por Hedlund (1994).Sería conveniente saber cómo responder a la pregunta: ¿Cómo sefabrica conocimiento? En primera instancia, se necesario encarar ladescripción de los procesos de reflexión y diálogo en la generación deconocimiento, porque ello constituye un intento riguroso de explicarla interacción entre el carácter tácito del conocimiento y las distintasentidades creadoras de conocimiento en las organizaciones.La reflexión se compone de articulación e internalización, procesossimilares a la externalización e internalización del SECI4 y representalos cambios de naturaleza epistemológica que puede sufrir el conoci-miento. El diálogo, compuesto por la extensión y apropiación, plasmalos procesos de amplificación y realimentación organizativa, permitiendoel análisis de los cambios en el carácter ontológico del conocimiento,según plantean Martín, López y Naval (2004).Reflexionar y dialogar forman parte de los procesos de generación deconocimiento que las organizaciones tienen que integrar sistemática-mente a sus mejores prácticas. Transitando estas aproximaciones seempiezan a vislumbrar – más allá de consideraciones conceptualesprovenientes de la teoría - ciertos aspectos instrumentales relacionadoscon la construcción de conocimiento basada en una forma de funcio-namiento diferente en las organizaciones.Al considerar la construcción de conocimiento aparecen aspectos re-lacionados con los componentes organizacionales. ¿Qué estructurasorganizativas son las más apropiadas para manejar esos conocimientos?No están todavía claras las propuestas, pero evidentemente no son las4 Socialización: Tácito a Tácito (asimilación) Exteriorización: Tácito a Explícito (expresión) Combinación: Explícito a Explícito Interiorización: Explícito a Tácito198
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaque se usan para administrar la información y por lo tanto, este nuevodesafío requerirá cambios organizativos relevantes; cambios que sonmás evidentes, afirman Martín, López y Naval (2004), sobre todo cuan-do se plantean cuestiones interesantes vinculadas con la dimensiónontológica del conocimiento, identificando cuatro niveles: individual, degrupo, organizativo, e inter-organizativo. Todos estos niveles participanpor diferentes canales formales e informales, en la generación e inter-cambio de conocimientos.Siguiendo la misma propuesta se puede comprender mejor cómo operanlos diversos agentes en cada organización cuando generan, utilizan ocomunican sus conocimientos, considerando tanto la parte interna decada compañía, como su entorno cercano, haciendo uso de las redesformales e informales existentes. Los referidos agentes operan en cuatroniveles que incluyen a los individuos, los grupos pequeños, la propiaorganización y un dominio extendido (inter-dominio de la organización)planteando un concepto de organización extendida que trasciende a laconcepción clásica de organización y en particular a las empresas queconstituyen uno de los focos de atención de esta investigación.Lo interesante de esa propuesta es que permite analizar la dinámicade la transferencia y la transformación de conocimiento interno, que seestructuran tomando como base los procesos de - articulación y la inter-nalización, la interacción de las cuales es la reflexión, - de extensión ycrédito, la interacción de los cuales es el diálogo, a los que se agreganlas relaciones con el entorno. A su vez, la propuesta permite analizar ladinámica de la transferencia y la transformación de conocimiento con elentorno. Respecto de las relaciones con el medio externo al sistema socialde referencia, se puede señalar que operan mediante mecanismos deasimilación y difusión de conocimientos que generan específicamente alas importaciones y exportaciones para el medio ambiente.Más allá de las formas de operación internas y externas, las dinámicasde transferencia y transformación del conocimiento muestran el carácteresencialmente abierto de estos sistemas de generación de conocimien-to, que es muy difícil que puedan permanecer dentro de las fronterasformales de una organización tradicional, que muchas veces generaartificialmente bloqueos en la relación con terceras partes.A su vez, el conocimiento como se planteara en las precisiones inicia-les, puede verse como un objeto o como un proceso. La propuesta deHedlund (1994) permite la consideración de aspectos, tanto estáticoscomo dinámicos, de la gestión del conocimiento, pues mediante laintegración de la asimilación y la diseminación puede contemplarse elpapel de los fondos de conocimientos tácitos y explícitos como insumoy resultado del proceso de creación de conocimiento. 199
    • Nº 25 - julio - diciembre / 2011Sobre estas consideraciones de partida, Hedlund sienta las bases parasu modelo dinámico de distinguir entre los tipos, formas y niveles deconocimiento que hay que conocer y administrar, dando un paso másen la comprensión de los procesos de generación del conocimiento engeneral. El conocimiento tácito y el articulado (que asisten de cerca a lascuestiones de definición) operan con diferentes niveles de agregaciónsocial e instrumentos de soporte diferenciados.Esto se traduce en desarrollar un esquema de clasificación que deberíaasumirse como parte del sistema cognitivo individual, grupal y corpo-rativo, basado en habilidades y formas de conocimiento incorporadasque pueden existir tanto en forma explícita o tácita en toda la gama deniveles de cada organización. Valorarlo, sin preconceptos en términos desu aporte a la generación de valor, de una manera sencilla que permitacaptar tempranamente los cambios (por ejemplo por niveles de uso).A partir de estas consideraciones, Hedlund (1994), sitúa la parte centraldel problema del conocimiento en la dinámica de la transferencia y ensu transformación lo que es relevante en el caso de esta investigaciónrelacionada con el manejo del conocimiento en las organizaciones.Sostiene que el conocimiento no puede verse como fotos estáticas decontenidos explícitos que son registrados durante todo el proceso deaprendizaje y ejecución de procesos.Saber hacer es importante, pero hacer saber también lo es. Generar ycomunicar son partes necesarias en los procesos de administración delconocimiento en las organizaciones; precisamente Alas (2004), proponerevalorizar los grupos de comunicación como gestores del conocimiento,que operan como catalizadores de los nuevos procesos de generaciónde valor. La necesidad de transferencia de conocimientos, no debe versecomo una función más del sistema productivo. El autor escribe que lamayoría de las obras existentes se concentran en hablar «sobre todo entérminos de almacenamiento de información, y sólo secundariamentesobre su transferencia, mientras que su transformación se deja fuera dela mayoría de los análisis», lo que no es menor si se acepta la visión deBarnes (2002) sobre la necesidad de comunicación del conocimiento enlas organizaciones. Además, como ya fuera analizado, no es lo mismo entérminos de su procesamiento automático -en el estado actual del arteen el que la semántica recién está ingresando en la discusión- manejarinformación, que manejar conocimientos.Precisamente, en 1994, Hedlund introdujo la noción de la N-Form Corpo-ration (Hedlund, 1994), estableciendo formas diferentes de administrarese conocimiento, considerando algunas pautas instrumentales parapoder hacerlo, en un claro desafío a las formas tradicionales de abordarestos problemas en términos de estructuras y procesos productivos.200
    • Universidad de Manizales Facultad de Ciencias e IngenieríaSi se aprecian todos los aspectos reseñados precedentemente, nocabe duda que el manejo del conocimiento en las organizaciones noes neutro respecto de los centros de poder y autoridad existentes. Lascuestiona y las condiciona. No es extraño entonces que las diferenciasen el manejo de conocimiento escondan en realidad discrepancias so-bre quien tiene poder y autoridad para encarar determinadas acciones.Crear nuevos canales y formas de comunicación, afecta relaciones depreviamente establecidas, sobre todo desde el ámbito de la organizaciónformal. Consecuentemente los desafíos son enormes, sobre todo por elimpacto de estos procesos nuevos y canales alternativos para manejarciertos conocimientos sobre las estructuras de poder y las relacionespreexistentes entre los agentes.Se han planteado muchas opciones prácticas para mejorar la forma detrabajo en las organizaciones en lo referido a la forma de administrar elconocimiento de la manera más eficaz. Hay muchas fuentes de referen-cia que han expuesto alternativas de organización diferentes centradasen la gestión de ese conocimiento. No obstante, cada organizacióndeberá buscar su propio camino con un enfoque situacional. 3. El aterrizaje del conocimiento en la gestión prácticaLas ideas generales precedentes de por sí ya constituyen un aporte.En términos más específicos; ¿Qué puede aportarse en relación conlos modelos generales de administración de conocimiento en la actua-lidad de manera de ayudar a desarrollar marcos de trabajo que puedanaplicarse de manera más eficaz en la práctica de la administración delas organizaciones?La idea de contar con modelo, permite comprender mejor la realidad.Holsapple y Joshi, citados por Barnes (2002, 269), realizan una descrip-ción de la comprensión de las soluciones de gestión de conocimientoconsiderando la evolución de los modelos de Gestión del Conocimientoen la teoría y la práctica. Sobre la base del estudio de las diversas pro-puestas consideradas como modelos representativos, plantean que haytres aspectos unificadores para comprender el alcance y proyección decada modelo de gestión del conocimiento, que llaman dimensiones deesa aproximación.La primera dimensión son los recursos basados en el conocimiento queconsideran; la segunda las actividades de gestión del conocimiento queactúan sobre estos recursos y, finalmente, la tercera son las influenciasde la gestión del conocimiento que facilitan o limitan la manifestación 201
    • Nº 25 - julio - diciembre / 2011de esas actividades. Estos aspectos dimensionales planteados tienenque ser comprendidos en términos más operativos. Para generar unacomprensión más adecuada de los diferentes modelos de gestión quepuedan proponerse, son pertinentes algunas preguntas precisando quéalcance se da a las tres dimensiones referidas. Esto es: ¿Qué recursosbasados en conocimiento consideran? Por ejemplo, el conocimiento delos empleados o el de los sistemas físicos. Puede ser que agreguenel de los clientes. En algunos casos hasta los procesos organizativos,estructuras organizativas o cultura organizativa.En la segunda dimensión: ¿Qué actividades de gestión contemplan?¿Consideran actividades de nivel básico o superior de las organiza-ciones? En tales casos: ¿Las actividades de un nivel se engloban dealguna manera en el otro nivel? Llegado el caso: ¿Cómo es que estoocurre?En la última dimensión importa específicamente, por ejemplo: ¿Quéinfluencias explícitas de la gestión de conocimiento valoran? Puedeque consideren la cultura de la organización, la motivación de los em-pleados, los desafíos de la gestión o incluso la tecnología empleadapara administrar ese conocimiento.Además, Holsapple y Joshi (citados por Barnes, 2002) sostienen quesi se identifican cada una de estas dimensiones al abordar un mo-delo de gestión del conocimiento, se pueden comprender mejor lascaracterísticas de dicho modelo y consecuentemente, las fortalezasy debilidades emergentes de su aplicación a contextos más especí-ficos. Señalan también que ninguno de los modelos descriptos en elestudio previo que han considerado como referencia para hacer unanálisis comparativo, abarca totalmente esas tres dimensiones cuandodescriben la naturaleza de la Gestión de Conocimiento que abordan.Estas apreciaciones dejan abierta la búsqueda de aproximacionesconceptuales más poderosas.Pero los modelos conceptuales de gestión del conocimiento son sólouna parte de la forma de entender la realidad. Más allá de los aspec-tos conceptuales generales relacionados con la generación de cono-cimiento, interesa la forma en que esa generación de conocimientoopera como motor de la innovación en las organizaciones, para podercapitalizar las dinámicas para estimularla. Para generar la relación en-tre modelos y motores puede considerarse el aporte de Alegre (2004)sobre la gestión del conocimiento, porque pone el énfasis en la relaciónde la administración del conocimiento con la innovación, incluyendoun modelo explicativo de la relación entre gestión de conocimiento ydesempeño innovador hablando de prácticas y competencias distintivaspara manejar ese conocimiento.202
    • Universidad de Manizales Facultad de Ciencias e IngenieríaUno de los desafíos más importantes es procurar el rescate de losconocimientos tácitos sin afectar su naturaleza. Las organizacionestradicionales no consideraban el manejo de ciertos conocimientos tácitosrelevantes para sus operaciones. Se concentraban más que nada enlos conocimientos explícitos que eran más fáciles de manejar mediantelos instrumentos disponibles.Ese rescate es parte esencial de la construcción de una organizaciónque se integra a los desafíos de la tercera ola. En estos casos, mástarde o más temprano, cada organización que desee sobrevivir deberágenerar los lazos para que esos conocimientos tácitos comiencen a serparte del patrimonio organizacional formalmente socializado entre losdiversos agentes.Debe considerarse que estos componentes, más allá de diferenciassectoriales, se presentan como un conjunto de procesos cuya interac-ción es posible no sólo en términos de intercambio humano tradicional,sino a través de intercambios normalizados con cierta flexibilidad. Losdiferentes tipos y niveles de conocimiento pueden ser registrados (aúncon ciertas dificultades y limitaciones) mediante adecuados diseños deformularios de organización.Es fundamental hacer esto bien. Las nuevas formas de normalizacióndeberían contribuir a la articulación del conocimiento tácito, y la interna-lización de conocimientos articulados. Resulta fundamental que estosnuevos medios operen sin necesariamente generar barreras para lainteracción, que de esta manera sigan existiendo nuevas fuentes pri-marias de creación de conocimiento en toda la organización.Como se planteara en el marco conceptual, la relación entre conoci-miento y aprendizaje no puede ser ignorada porque son aprendizajesobre todo de lazo doble no hay posibilidades de cambio. Los procesosde generación de conocimiento están fuertemente asociados con losprocesos de aprendizaje en las organizaciones, operando en todos losniveles de cada organización. Se debe aprender en todos los niveles yen todas partes, todo el tiempo. Está claro que el aprendizaje no operapsicológica y socialmente en un sólo nivel organizativo. Crossan, Laney White (1999) mencionan en sus premisas básicas que el aprendizajese realiza en múltiples niveles, los cuales se relacionan mediante unaserie de procesos sociales y psicológicos que hay que integrar comoparte del modelo.Analizando los diferentes niveles, se genera la posibilidad de com-prender que los procesos mediante los que se produce la creaciónde conocimiento deben tomar en consideración varias dimensionesde ese conocimiento, hasta llegar a las raíces del mismo en términos 203
    • Nº 25 - julio - diciembre / 2011ontológicos e incluso epistemológicos. En caso contrario, puedenmantenerse las dudas de sobre qué se está hablando o sobre qué seestá actuando.La contribución de Crossan, Lane y White (1999) reside en conce-der más importancia a la lógica de niveles o entidades creadorasde conocimiento, y en establecer la guía o tipología básica para losprocesos que tienen lugar entre distintos niveles. Constituye unabase para orientar en la identificación y desarrollo productivos delas zonas de desarrollo próximo, de las organizaciones. Ellos plan-tean, en su propuesta, una profundización de las ideas originales deHedlund (1994), buscando realizar un aporte de mayor detalle sobrelos procesos ontológicos básicos relacionados con la creación deconocimiento. Se plantean dimensiones exploratorias o de ejecucióndiferentes, que deben considerarse en cada proceso de mejora dela gestión de conocimiento.La distinción entre procesos que apoyan la exploración de nuevos es-cenarios para desarrollar el conocimiento y de procesos encaminados ala explotación de los dominios de conocimiento actuales, que se realizaa través de los procesos de alimentación o hacia delante y de reali-mentación o hacia atrás, avanza en el camino hacia la comprensión delfenómeno de interacción que Nonaka y Takeuchi (1995) denominaronamplificación organizativa, dándole un doble sentido.El modelo de gestión del conocimiento que se desarrolle debe abarcarlos dominios actuales de conocimiento de la organización y tambiénfuturos escenarios, desarrollando de la mejor manera posible los pro-cesos de reflexión y diálogo necesarios para sacar el mejor partidoposible a los motores de conocimiento existentes, en un entorno deapertura al aprendizaje, funcionando en red. La figura 2 esquematizaestos aspectos.La organización, como un todo, debe adaptarse, abarcando todas lasdimensiones propuestas con flexibilidad en los sentidos antes men-cionados. Se trata de lograr funcionar capitalizando el doble sentidoque opera, no solo, mediante la lógica incremental o amplificadora,sino también mediante la reductora o de realimentación que es unaparte relevante del proceso para generar conocimiento. Tanto lasaportaciones de Hedlund (1994), como las de Crossan, Lane y White(1999, permiten comprender con mayor profundidad las complejasdinámicas de la creación de conocimiento en las organizaciones, quesería bueno tener en cuenta para desarrollar proceso de generación ycomunicación, más eficaces y eficientes, y no por ellos más flexiblesy adaptables.204
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Figura 2. Aspectos relevantes del modelo (Petrella, 2011)La comprensión de la esencia del conocimiento no es espontáneani acabada. Siempre se está desarrollando. Precisamente por ello,el modelo de los cinco ciclos de aprendizaje, señalado por Sánchez(2001), ahonda en el tratamiento dinámico del proceso de creación deconocimiento interesándose de manera especial en las relaciones queconstituyen el tránsito desde un nivel ontológico a otro del conocimiento.Los modelos deberían abarcar aspectos conceptuales del conocimientoque desean contemplar, lo cual no es sencillo. De hecho, Sánchez (2001)también omite el estudio deliberado de la dimensión epistemológica en eltratamiento de la creación de conocimiento, desde una óptica ontológicaincorpora una novedad que avanza en la brecha abierta por los estudiosprevios, aportando aspectos esenciales. Para ello, distingue un ciclo deaprendizaje propio para cada una de las entidades o niveles ontológicos,así como ciclos cruzados entre las distintas entidades. (Desarrollos próxi-mos de niveles diferentes). Esto permite progresar en la comprensiónde qué tipos de procesos creadores de conocimiento se pueden tener, eirlos integrando de una manera más eficaz al sistema de la organización.Es necesario apreciar el modelo de manera expandida en la organi-zación. Gracias a la aportación de Sánchez (2001), se alcanza a verque existen procesos internos en cada nivel de la empresa, y tambiénprocesos entre niveles, que relacionan las distintas entidades ontológi-cas, añadiendo un mayor detalle en el análisis respecto al que se habíaalcanzado en los estudios de Hedlund (1994).Otro aspecto importante es comprender el impacto de la frontera conla que se concibe el proceso de generación de conocimientos. Tanto el 205
    • Nº 25 - julio - diciembre / 2011trabajo de Crossan, Lane y White (1999), como el de Sánchez (2001),suponen importantes avances en el estudio de las relaciones o procesosde creación de conocimiento intra y entre niveles ontológicos conside-rando individuos, grupos, organizaciones y redes.Sin embargo, las propuestas antes referidas, que ponen foco en la orga-nización, terminan su estudio con el nivel organizativo fundamentalmen-te interno, olvidando la importancia que pueden tener para la creaciónde conocimiento las relaciones de la empresa con otros agentes de supropio entorno, pensando en enfoques organizativos más abiertos en losprocesos de generación. Es oportuno rescatar la importancia del nivelinter-organizativo recibe, mediante amplificación (en este caso extra-organizativa) conocimiento del interior de la empresa, pero aún másimportante es el hecho de que la organización y los distintos niveles quela componen reciben, mediante captación, o lo que se ha denominadorealimentación, conocimientos valiosos de su entorno.La potencia de las redes de diversos agentes -apoyadas por el usointensivo de Internet- no solo internos para canalizar conocimientos, nopuede soslayarse en el marco de una sociedad socialmente más abiertay basada en el conocimiento, ya sea para generar ventajas competitivascomerciales, como para capitalizarlas en términos de calidad de vidade los ciudadanos.Precisamente, Zollo y Winter (2002) destacan la importancia del medioexterno en los procesos de generación de conocimientos, al que atribu-yen dos papeles primordiales que los modelos cerrados sobre la propiaorganización de alguna manera relegan postergando el salto conceptual,planteado por Morin, para funcionar en red en todos los niveles abarcan-do sistémicamente el entorno. Ellos insisten en la importancia de: - elsuministro de estímulos e insumos para las reflexiones internas sobrela aplicación de mejoras sobre las rutinas existentes, y - la actuacióncomo mecanismo de selección en el sentido evolutivo clásico, pues elentorno es el que ofrece realimentación sobre el valor y viabilidad delos comportamientos actuales de la organización.Afortunadamente, la relevancia del nivel inter-organizativo no ha sidoignorada por la literatura, pues son varios los autores que han destacadola importancia que tiene la captación de conocimiento de otros agentes,generando mayor apertura hacia redes externas, pero ello se tropiezacon grandes dificultades, derivadas de mantener el secreto de lo quese sabe, como fuente de ventaja competitiva.Por su parte, Moreno Quinteros (2007) da un paso más y propone unmodelo y herramienta de gestión del conocimiento aplicadas a la ges-tión de procesos de negocios (BPM) con la idea de para maximizar la206
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaefectividad de las organizaciones, recogiendo la experiencia de procesosexitosos de una manera más sistemática, lo que incluye alterativas muyinteresantes de automatización.El modelo de gestión de ese conocimiento entonces se va delineandocon base en aspectos, que deberían ser contemplados, relacionadoscon tipologías, aprendizaje, producción y transferencia de conocimien-tos; junto con un conjunto de herramientas apropiadas para el manejode ese conocimiento, relacionadas con los mejores administradores decontenido que puedan aplicarse, pensando en un enfoque situacional,como lo muestra la Figura 3.En un contexto ya establecido, y en algunos casos emergente, las mejo-res prácticas que se van generando, no son otra cosa que los procesossupuestamente correctos (considerados usualmente en términos deeficacia o de eficiencia) que emplean los agentes para -a partir de losparadigmas prevalecientes- realizar, de la mejor manera posible, unasactividades que operan en el más amplio espectro concebible y queestán relacionadas con, por ejemplo, aprender, trabajar o divertirse conuna enorme carga racional y emocional.A su vez, esas prácticas óptimas requieren tecnologías eficientespara ser desarrolladas. Son necesarias herramientas para concretarel desarrollo de las actividades de referencia de manera satisfactoria.Pero, todo esto ocurre en una línea de continuidad respecto del pasadolegado, que cada tanto resulta cuestionado como plantea Kuhn (1980),al no dar respuestas adecuadas a las preguntas más importantes delos agentes que tienen mayores expectativas. Figura 3. Aspectos a integrar en la interna del modelo (Petrella, 2011) 207
    • Nº 25 - julio - diciembre / 2011Precisamente, una buena aproximación a estos desafíos para ges-tionar exitosamente el conocimiento la presentan Davenport, DeLong y Beers (1997) de la mano de considerar ciertas innovacionesrupturistas -en general con importantes componentes tecnológicos-.Como desafíos aparecen las tecnologías móviles en comunicaciones,la manipulación genética en los cultivos industriales o la creación decomponentes biológicos de repuesto para sustituirlos en las perso-nas enfermas - plantean enormes desafíos que llevan a desestimarel pasado legado, no sin fuertes cuestionamientos, que a veces sonefectivamente de recibo.Cada vez más imprevistamente y frecuentemente aparecen tecnolo-gías rupturistas que cambian la reglas de juego de las empresas enel mercado. Ante estos saltos cualitativos muy importantes y cercanosen el tiempo, cada vez es más relevante saber cuándo puede apare-cer un nuevo paradigma, porque se pueden desarrollar procesos deanticipación que permiten capitalizar mejor las nuevas oportunidades.El desafío es precisamente cómo anticiparse. Vale entonces, más quenunca para poder anticiparse la pregunta planteada por Barker (1996,58): «¿En mi especialidad o campo de experiencia, cuáles son losproblemas que mis socios desean solucionar y de los que no tenemosla menor idea de cómo hacerlo?». Anticiparse es una buena solución,porque esos problemas no resueltos harán cada vez más presión sobrela visión de la realidad y las prácticas5.En la línea del primer ejemplo, cada vez se generan procesos másextraños y controversiales (fundamentalmente social y éticamente ha-blando) para manejar las comunicaciones interpersonales, la producciónde alimentos o el tratamiento de determinadas enfermedades. Son tresáreas de desarrollo explosivo que alteran los paradigmas históricos to-davía vigentes. Son desarrollos que generan oportunidades y tambiénmuchas controversias.Está cada vez más claro que se plantean desafíos empresariales ypersonales que cuestionan lo que se sabe y la forma en que se actúa.De la mano de algunos de estos ejemplos, se reafirman durísimosprocesos empresariales de darwinismo digital que operaran de maneraacelerada y muchas veces impredecible, dificultado las posibilidadesde supervivir en la asesina economía de la Web que genera cambios5 El estudio prospectivo sistemático de determinados escenarios puede ofrecer ciertos indicios para ordenar las ideas y desarrollar habilidades de anticipación para encarar posibles reso- luciones de determinados problemas, actuando como pioneros de paradigma. Es importante realizar prospectiva tecnológica con una visión amplia de los compromisos hacia el futuro, dejando libre la inspiración y utilizando preferentemente lo que Beinstein (1994, 204) llama imaginación libre o bien intuición orientadora, pero sin olvidarse de los compromisos éticos.208
    • Universidad de Manizales Facultad de Ciencias e Ingenieríamás allá de las posibilidades de las compañías de poder administrarlosa partir de los enfoques legados del siglo pasado.Esos desafíos plantean, en muchos casos, problemas éticos que nose analizan con el debido cuidado, en cuanto al respeto por la vida.Precisamente se están desarrollando procesos vertiginosos de darwi-nismo digital en torno a la preeminencia de determinadas arquitecturastecnológicas integradas para atender las necesidades de gestión delconocimiento (GC), sin que todavía se vislumbren preeminencias de unmodelo respecto de otro, en términos de herramientas o aplicacionesdominantes a escala global.No solo son nuevas herramientas aisladas, que pueden integrarseindividualmente (lo que puede ser muy traumático), sino que a vecesson varias herramientas juntas que plantean desafíos más allá de laimaginación, surgiendo la necesidad de integrar gran variedad de ellasen ámbitos que hasta hace unos años en los cuales operaban de ma-nera descoordinada.Entre todos estos cambios aparecen, de manera determinante, los rela-cionados con la informática y las telecomunicaciones. Se está viviendoun proceso de enormes trasformaciones productivas y comerciales aescala global, en el que Internet y la Web pueden aportar opcionesintegradoras por la vía de conectar a los diversos agentes y las herra-mientas que están habituados a utilizar. Aparentemente, las fábricas deconocimiento aparecen por doquier en la sociedad a veces de manerano planificada… precisamente, cuando quiere incentivarse su desarrollo,dentro de las organizaciones o en relación con el entorno cercano, sepresentan dificultades: ¿Por qué será que parecen tan esquivas aúncuando se cuenta con la tecnología apropiada para desarrollarlas?Precisamente Fruin (2000, 23) plantea que el reto de generar “fábricasde conocimiento” no se puede encarar sólo sobre la base de un sopor-te tecnológico apropiado, sino sobre la existencia de una comunidadsocial y administrativamente avanzada en la que los trabajadores delconocimiento emergentes y los tradicionales trabajadores operarioscomparten los mismos desafíos.La solución para generar estos procesos de manera sustentable en lasorganizaciones es que finalmente los trabajadores del conocimientoemergentes y los tradicionales trabajadores operarios pueden llegara no diferenciarse, en un ambiente de trabajo gobernado por la con-fianza entre todos los integrantes de cada equipo, donde cada unorealiza su aporte y todos van creciendo. Esta integración dinámica deaprendizaje y operación en el trabajo genera una mayor flexibilidad enlos diseños y la producción, permitiendo desarrollar plantas dentro de 209
    • Nº 25 - julio - diciembre / 2011plantas, fomentando admirables economías en escala en un ambientedel alto aprendizaje organizacional, lo que constituye el escenario de lasolución a buena parte de los problemas productivos planteados haciafinales del siglo XX.Según Alavi y Leidner, citados por Barnes (2002, 32), «una arquitecturatecnológica integrada e integradora es la base de todo sistema de GC.No surgió una única herramienta o aplicación dominante en nuestroestudio. Parece ser que los sistemas de GC se sirven de una gran va-riedad de herramientas tecnológicas en los siguientes ámbitos: basesde datos, gestión de base de datos, comunicación, mensajería, y nave-gación y búsquedas». Precisamente, los referidos autores, plantean elreto de la integración productiva de las herramientas. Una integraciónque debería analizarse con un enfoque situacional: «La necesidad deintegrar plenamente las diversas herramientas de estos tres ámbitospodría llevar un predominio de Internet y de las arquitecturas de GCbasadas en Internet» (Barnes, 2002, 32).De igual manera, considera que la visión de un entorno ampliado no esalgo menor. «Por ejemplo, en esta muestra, tanto las organizacionescon sistemas de GC en funcionamiento, como aquellas que carecían deellos, daban más valor a los ámbitos del conocimiento enfocados haciael exterior (p.e. clientes y socios comerciales)», ya que el entorno delas organizaciones finalmente comienza a formar parte de los sistemasde gestión del conocimiento.Hablando de oportunidades, parecen aparecer nichos para los serviciosde valor agregado en torno a Internet y la web. «Por lo tanto, Internety las tecnologías y empresas de servicios basadas en Internet puedendesempeñar un papel fundamental en el desarrollo de sistemas de GCya que proporcionan acceso rentable a los ámbitos de conocimientoexternos» (Barnes, 2002, 32).Se trata de ámbitos tecno-sociales a los que es necesario poder accederde manera masiva lo más fácilmente posible, para acercar los procesosde valoración del capital intelectual a los aspectos básicos tradicionalessiempre presentes en la administración moderna, relacionados con elcapital y el trabajo, en la industria y el comercio, consideran Casas yDettmer (2009).Algo parece incontrastable respecto de las dimensiones crecientesdel fenómeno de gestión del conocimiento en la Red global: los nue-vos flujos de conocimiento parecen encontrar formas novedosas decanalizarse que están generando muchas expectativas. La mayoríade ellas de la mano del crecimiento explosivo de las posibilidades deInternet y la World Wide Web, a través de múltiples herramientas, en210
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaparticular, las redes sociales están operando de manera extremada-mente dinamizadora. 4. Principales hallazgos y conclusiones• Hasta hace muy poco tiempo, las organizaciones tradicionales no consideraban el manejo de ciertos conocimientos tácitos relevantes para sus operaciones. Las organizaciones tradicionales se concen- traban más que nada en los conocimientos explícitos que eran más fáciles de manejar mediante los instrumentos disponibles, lo que no siembre cubría las principales necesidades. Pero finalmente, y muchas veces de manera traumática, fue acercándose el momento en que, sin dejar de considerar la importancia de los conocimientos explícitos, los conocimientos tácitos deberían comenzar a formar parte del patrimonio socializado entre los diversos agentes, de una manera más eficaz y eficiente, pero no menos humana, lo que es la clave las aproximaciones exitosas de referencia.• De la presentación precedente se rescata como síntesis: la conve- niencia de estar abiertos al aprendizaje todo el tiempo, la importancia de generar vasos comunicantes con enlaces entre agentes y la necesidad de funcionar en red en todos los niveles, como aportes básicos de partida para enfrentar los desafíos que plantea la tercera ola, a las organizaciones contemporáneas.• Dando un paso más en la aproximación, es necesario identificar las entidades creadoras de conocimiento y en especial comprender los procesos de reflexión y diálogo. Las organizaciones deberán además realizar un esfuerzo a nivel de sus estructuras y funcionamiento para integrar los niveles individual, grupal, organizativo y sobre todo inter-organizativo de gestión del conocimiento.• Entrando en aspectos más prácticos, las organizaciones deberían comenzar a prepararse para desarrollar un esquema de clasificación del conocimiento por niveles de uso, considerando la necesidad de transferencia de conocimientos que por otra parte, no debe verse como una función más del sistema productivo, sino como un aspec- to relevante del nuevo modelo de gestión de esos conocimientos.• Más tarde o más temprano las organizaciones se enfrentarán a la necesidad de contar con modelos de gestión del conocimiento personalizados, lo que requiere comprender las dimensiones de aproximación a la problemática, considerando los recursos basados en conocimiento, las actividades basadas en conocimiento y las influencias que facilitan o limitan esas actividades. 211
    • Nº 25 - julio - diciembre / 2011• Los procesos de mejora de la gestión de conocimientos deberán integrar aquellos procesos, que apoyan la exploración de nuevos escenarios para desarrollar el conocimiento así como aquellos encaminados a la explotación de los dominios de conocimiento actuales, mirando con flexibilidad la frontera con la que se concibe el proceso de generación de esos conocimientos.• Debe tenerse presente que el desarrollo del conocimiento, más allá de diferencias sectoriales, debería presentarse como un conjunto de procesos cuya interacción es posible no sólo en términos de inter- cambio humano tradicional, sino a través de intercambios normali- zados con cierta flexibilidad. Aunque puedan existir ciertos apoyos automatizados para facilitar la tarea, que generen restricciones.• La idea de estandarizar la gestión en general, y la gestión del co- nocimiento en particular, sigue siendo útil, aunque hay que saber comprender sus limitaciones. Los diferentes tipos y niveles de conocimiento pueden ser registrados (aún con ciertas dificultades y limitaciones) mediante adecuados diseños de formularios de or- ganización que sean simples y fáciles de usar.• Debe tenerse particular cuidado para que el remedio no sea peor que la enfermedad. Como en todas las actividades mecanicistas de cuño weberiano que puedan montarse en las organizaciones, no hay que exagerar respecto de los procesos de registro formal, porque la estructuración del conocimiento legado, muchas veces, atenta contra la flexibilidad para generar nuevos conocimientos.• Estas formas de normalización – con las que hay que contar pero no abusar - pueden contribuir a la articulación del conocimiento tácito, y la internalización de conocimientos articulados, puede ocurrir con estos nuevos medios, sin necesariamente generar barreras para la interacción, que siga siendo una fuente primaria de creación de conocimiento en la organización.• Como se planteara en el comienzo, la relación entre conocimiento y aprendizaje es recurrente y debe potenciarse con todo su dinamis- mo. Los procesos de generación de conocimiento están fuertemente asociados con los de aprendizaje en las organizaciones, operando en todos los niveles de cada organización, por lo cual no es bueno apostar excesivamente a la estructuración.• Ciertamente, se han logrado desarrollar algunos aspectos idealiza- dos sobre la realidad deseada como referencia respecto a la gestión del conocimiento, pero la realidad todavía muestra que siempre existen aspectos contraproducentes relacionados con ese conoci-212
    • Universidad de Manizales Facultad de Ciencias e Ingeniería miento que deben ser cuidados, con grandes zonas de nadie que manejan información imprecisa, cuando no poco confiable.• El gran reto es concebir, con visión sistémica, un futuro idealizado pero a la vez realista, que tenga una base de soporte conceptual y práctico sustentable y pueda generar un porvenir venturoso que resulte viable. (Lo que de todas maneras, no deja de ser una apre- ciación condicionada por un paradigma emergente del conocimiento, que se está construyendo en estos momentos).• Se trata de un futuro en que aparecen aspectos culturales y tecno- lógicos relevantes operando con sinergia, como coinciden Castells (2002) y Castells y Martínez (2004), en que la era de la información pasa a la era del conocimiento, lo que no constituye un aspecto menor porque los componentes explícitos y tácitos que se conside- ran operan requieren estructuras, procesos y conductas diferentes usando herramientas distintas.• Lo cierto es que la forma de producir y de comunicar conocimientos cambiando dramáticamente desde hace varios años a escala pla- netaria, de la mano de la informática y las telecomunicaciones, en un mundo cada vez más interconectado e interdependiente, en el que hay que buscar caminos de integración productiva con mente más abierta y organizaciones más flexibles.• La atención expeditiva y flexible de futuras demandas de cambios en las organizaciones, no podrán permanecer ajenas a estas trans- formaciones en la administración de conocimiento. Todo indica que es mejor una reacción proactiva inteligente, en vez de oponerse o resistirse a estos procesos. De todo lo relacionado con la gestión del conocimiento, dependerá en gran medida, la supervivencia de los más aptos en el siglo XXI. 213
    • Nº 25 - julio - diciembre / 2011 BibliografíaALAS, Raúl M. (2004). Los grupos de comunicación como gestores del conocimiento [en línea]. Montevideo (Uruguay): Universidad de Montevideo. <socrates.ieem.edu.uy/articulos/archi- vos/106_grupos_de_comunicacion.pdf> p. 115-121 [consulta: 10/07/2011]ALEGRE VIDAL, Joaquín. (2004). La gestión del conocimiento como motor de la innovación, Cas- telló de la Plana (España): Publicacions de la Universitat Jaume I.158 p. ISBN: 848021497XBARKER, Joel Arthur (1996). Paradigmas: El negocio de descubrir el futuro. Bogotá (Colombia): McGraw-Hill Interamericana. 258 p, ISBN: 958-600-336BARNES, Stuart (coord.). (2002). Sistemas de gestión del conocimiento: teoría y práctica, Madrid (España): Thomson Editories Spain. 304 p. ISBN: 84-9732-164-2BEINSTEIN, Jorge (1994). Prospectiva tecnológica: Conceptos y métodos. En: MARTÍNEZ, Eduardo (1994). Ciencia tecnología y desarrollo: interrelaciones teóricas y metodológicas. Caracas (Venezuela): Nueva Sociedad. p. 51-89. ISBN: 978-980-317-066-0CASAS, Rosalba y DETTMER Jorge. (2008). Sociedad del conocimiento, capital intelectual y organizaciones innovadoras, En: Seminario Internacional en modalidades virtual y semi- presencial, Open seminar 2.0. Flacso México. <http://www.flacso.edu.mx/openseminar/ downloads/casas_dettmer.doc> 44p. consulta: 23/07/2011]CASTELLS, Manuel y MARTÍNEZ GIMENO, Carmen (2004). La sociedad red. En: ________. La era de la información: economía, sociedad y cultura, Vol. 1. Madrid (España): Siglo XXI. 592 p. ISBN: 9682321689.CASTELLS, Manuel. (2002). La dimensión cultural de Internet [en línea]. En: Cultura XXI, Sesión 1: Cultura y Sociedad del conocimiento: presente y perspectivas de futuro. Barcelona (Espa- ña): Institut de Cultura, UOC.(jul.) <http://www.uoc.edu/culturaxxi/esp/articles/castells0502/ castells0502.html> [consulta: 20/07/2011].CORTADA, James W.; HARGRAVES, Thomas S. y WAKIN, Edward (2000). La era del trabajo en redes: cómo lo hacen IBM y otras compañías. México: Oxford University Press Mexico. 224 p. ISBN: 9706135626.CROSSAN, Mary M.; LANE, Harry W. and WHITE, Roderick E. (1999). An Organizational Learning Framework: From Intuition to Institution [on line], In: Academy of Management Journal, Vol. 24 No. 3. (jul.). Middleton (WI, USA): the Academy of Management Review (AMR). p. 522-537. ISSN: 0363-7425 <http://www.jstor.org/stable/259140> [consult: 12/08/2011]DAVENPORT, Thomas; LEIBOLT, Marius and VOELPEL, Steven (2006). Strategic management in the Innovation Economy: strategy approaches and tools for dynamic innovation capabilities. Weinheim (Germany): Wiley-VCH, 444 p. ISBN: 3895782637.DAVENPORT, Thomas; DE LONG, David and BEERS, Michael C. (1997). Building Successful Knowledge: Management Projects [on line]. In: Center for Business Innovation, Working Pa- per. Managing the Knowledge of the Organization (Jan.). London (UK): Ernst & Young LLP. <http://www.providersedge.com/docs/km_articles/Building_Successful_KM_Projects.pdf> 24 p. [consult: 15/08/2011]DRUCKER, Peter F. (1998). La gerencia: Tareas, responsabilidades y prácticas, Buenos Aires (Argentina): El Ateneo. 549 p. ISBN: 9500235358.FRUIN, William Mark. (2000). Las fábricas del conocimiento. México: Oxford University Press México. 296 p. ISBN: 9706135537.GONZÁLEZ FERNÁNDEZ, Rodrigo. (2009). Conversando con C.K. Prahalad [en línea]. (19/08/2009). <http://garyhamelotroguru.blogspot.com/2009/08/conversando-con-ck-prahalad. html> [consulta: 23/07/2011].HEDLUND, Gunnar (1994). A Model of Knowledge Management and the N-Form Corporation. In: Strategic Management Journal, Vol. 15, No. S2 (summer). Hoboken (New Jersey, USA): John Wiley and Sons. p.. 73-90. ISSN: 1097-0266. <http://onlinelibrary.wiley.com/doi/10.1002/ smj.4250151006/pdf> [consult: 12/08/2001]JOYANES, Luis (1999). El nuevo perfil social y cultural de la era Internet: la sociedad del cono- cimiento [en línea]. En: I Congreso de Educación e Internet, Educnet’99 (23-25/04/1999). Madrid (España): FERE-CECA. <www.aprender.org.ar/aprender/articulos/conf.htm> [consulta: 03.11.2008]214
    • Universidad de Manizales Facultad de Ciencias e IngenieríaKLEINER, Art y ROTH, George (2000). El cambio basado en el aprendizaje: Realidades sobre la transformación corporativa, México: Oxford University Press.234 p. ISBN: 9706135790.KUHN, Thomas S. (1980). La estructura de las revoluciones científicas, México: Fondo de cultura económica. 361 p. ISBN: 9681675991.MARAGALL MIRA, Ernest (2002). Las comunidades de práctica como experiencia formativa para la mejora de las administraciones públicas [en línea]. En: VII Congreso Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, (08-11/10/2002), Lisboa (Portugal): Centro Latinoamericano de Administración para el desarrollo, CLAD. <http://unpan1.un.org/ intradoc/groups/public/documents/CLAD/clad0043914.pdf> [consulta: 24/07/2011].MARÍN MARÍN, Henry. (2005). Gestión del conocimiento, Capital intelectual, Comunicación y Cultura, Medellín (Colombia): Impresos Begón. 254 p. ISBN: 9583375047.MARTÍN DE CASTRO, Gregorio y LÓPEZ SÁEZ, Pedro. (2004) Bases conceptuales para la Dirección del Conocimiento en las Organizaciones [en línea]. En: Revista madri+d, No. 20 (dic. 2003-ene. 2004) Madrid (España): Comunidad de Madrid. <http://www.madrimasd.org/ revista/revista20/tribuna/tribuna3.asp> [consulta: 12/08/2001]MARTÍN DE CASTRO, Gregorio; LÓPEZ SÁEZ, Pedro y NAVAL LÓPEZ, José. (2004). Diná- micas del aprendizaje organizativo [en línea], En: Boletín Económico de ICE, Información Comercial Española, No. 2793 (26/01 a 01/02/2004). Madrid (España): Ministerio de Industria, Turismo y Comercio. p. 25-34. ISSN: 0214-8307. . <http://www.revistasice.com/CachePDF/ BICE_2793_25-34__DD5D23413490D2ACFA672D6B3522FFF9.pdf> [consulta: 07/07/2011].MORENO QUINTEROS, Juan José. (2006).Modelos y herramientas de gestión del conocimiento aplicadas a la gestión de procesos de negocios (BPM) para maximizar la efectividad de las organizaciones. Tesis doctoral (PhD. en Informática: Sociedad de la Información y el Cono- cimiento). Madrid (España): Universidad Pontificia de Salamanca, campus Madrid, Facultad de Ingeniería.NEWMAN, Mark; BARABÁSI, Albert-László and WATTS, Duncan J. (2006). The Structure and Dynamics of Networks, Princeton (New Jersey, USA): Princeton University Press. 624 p. ISBN: 0691113579.NONAKA, Ikujiro and TAKEUCHI, Hirotaka (1995). The Knowledge-Creating Company, New York (USA): Oxford University Press, 304 p. ISBN: 0195092694.NONAKA, Ikujiro y TAKEUCHI, Hirotaka (1999). La organización creadora de conocimiento, México: Oxford University Press. 318 p. ISBN: 9706134549.PÉREZ LÓPEZ, Susana. (1999). Relevancia estratégica del capital intelectual empresarial en la economía del conocimiento [en línea]. En: La gestión de la diversidad: XIII Congreso Nacional, IX Congreso Hispano-Francés, (16-18/06/1999), Logroño (La Rioja, España): Universidad de La Rioja. Vol. 2, p. 697-701. ISBN 84-95301-11-3 <http://dialnet.unirioja.es/servlet/fiche- ro_articulo?codigo=565283&orden=0> [consulta: 26/07/2011]PETRELLA, Carlos. (2011). La cultura, el conocimiento y la tecnología en el marco de procesos de conservación e innovación en las empresas estatales del Uruguay. Análisis del sector estatal de hidrocarburos uruguayo con foco en el desarrollo de ANCAP y DUCSA, Tesis de Doctora- do (Programa Sociedad de la Información y el Conocimiento). Madrid (España): Universidad Pontificia de Salamanca.PRAHALAD, Coimbatore Krishnarao y RAMASWAMY Venkat (2004). El futuro de la competencia. Barcelona (España): Gestión 2000. ISBN: 9872274126.ROTH, George y KLEINER, Art (2001). El lado humano del cambio. México: Oxford University Press.215 p. ISBN: 9706135766.SANCHEZ, Ron (ed.) (2003). Knowledge Management and Organizational Competence, New York (USA): Oxford University Press. 264 p. ISBN: 0199259283.SENGE, Peter (1993). La quinta disciplina. Barcelona (España): Ediciones Granica, ISBN: 8475773516.STEWART, Thomas (2001). La nueva riqueza de las organizaciones: el capital intelectual, Buenos Aires (Argentina): Ediciones Granica. 400 p. ISBN: 9506412537.TILAK, Jandhyala B. G. (2002). Knowledge Society, Education and Aid [on line]. In: Compare, Vol. 32, No. 3, London (UK): British Association for International and Comparative Education - Carfax Publishing, Taylor & Francis Group. p. 297-310. ISSN 1469-3623 <http://www.nuepa. org/libdoc/e-library/articles/2002jbgt.pdf> [consult: 12/07/2011] 215
    • Nº 25 - julio - diciembre / 2011TOFFLER, Alvin y TOFFLER, Heidy (1999). La creación de una nueva civilización. Barcelona (España): Plaza y Janes Editores. 140 p. ISBN: 978-8401459344.VALENTI LÓPEZ, Pablo (2002). La Sociedad de la Información en América Latina y el Caribe: TICs y un nuevo Marco Institucional [en línea]. En: Revista iberoamericana de Ciencia, Tec- nología, Sociedad e Innovación CTS+I, No. 2 (ene.abr.). Madrid (España): Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI). ISSN: 1681-5645.ZOLLO, Maurizio and WINTER, Sidney G. (2002). Deliberate Learning and the Evolution of Dynamic Capabilities [on line]. In: Organization Science, Vol. 13, No. 3, (may-jun.). Hanover (MD, USA): INFORMIS. p. 339-351. ISSN: 1526-5455 <http://www.jstor.org/pss/3086025> [consult: 23/07/2011]216
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Construcción de conocimiento significativo en ingeniería mecánica*1 [Construction of significant knowledge in mechanical engineering] Alejandro Arturo PÉREZ-VILLEGAS2, Adriana María SÁNCHEZ NAVARRETE3Recibo: 20.08.2011 - Ajuste: 18.09.2011 - Ajuste: 05.12.2011 - Aprobación: 17.12.2011 Resumen En este trabajo de investigación se expone el desarrollo de un prototipo para realizar pruebas de tensión, que fue construido por un grupo de alumnos de ingeniería mecánica. El proyecto surgió a partir de las observaciones en semestres anteriores, del bajo rendimiento en las asignaturas relacionadas con Re- sistencia de Materiales. La propuesta consistió en desarrollar un curso innovador, que permitiera la construcción del pensa- miento complejo, en la búsqueda de solución de problemas en esta rama de la ingeniería. Para abordar la condición citada, se escoge la estrategia del Aprendizaje Basado en Proble- mas (ABP), en la búsqueda de la formación del aprendizaje, mediante la resolución de un problema relevante y de interés para el estudiante. Palabras Clave: Enseñanza en Ingeniería Mecánica, Aprendizaje Basado en Problemas, Métodos innovadores de enseñanza.* Modelo para citación de este reporte de caso: PÉREZ VILLEGAS, Alejandro Arturo y SÁNCHEZ NAVARRETE, Adriana María (2011). Cons- trucción de Conocimiento Significativo en Ingeniería Mecánica. En: Ventana Informática. No. 25 (jul. – dic., 2011). Manizales (Colombia): Facultad de Ciencias e Ingeniería, Universidad de Manizales. p. 217-230. ISSN: 0123-96781 Artículo proveniente de un ejercicio de clase realizado en la Facultad de Ingeniería de la Universidad Autónoma de San Luis de Potosí.2 M.C. en Ingeniería Mecánica. Secretario Académico de la Facultad de Ingeniería, Universidad Autónoma de San Luis Potosí. San Luis de Potosí (México). Correo electrónico: aaperez@uaslp.mx.3 Estudiante de Ingeniería Mecánica, Facultad de Ingeniería, Universidad Autónoma de San Luis Potosí. San Luis de Potosí (México). Correo electrónico: asnavarrete@alumnos.uaslp. edu.mx. Nº 25 - Universidad de Manizales, julio-diciembre/2011 - pp 217-230 217
    • Nº 25 - julio - diciembre / 2011 Abstract This research project traces the development of a prototype ma- chine for mechanical testing by a group of engineering students. The starting point of the project was the previous observations of students’ low performance in subjects related to the Strength of Materials. Developing an innovative course was the method to solve the students’ low performance through Problem Based Learning (PBL) strategy, which stands for the learning process to take place through application of significant knowledge that leads to resolution of problems. Keywords: Mechanical Engineering Teaching, Problem Based Learning, Innovative teaching methods. IntroducciónEn observaciones de semestres anteriores, los alumnos mostrabancierta incapacidad para relacionar el conocimiento visto en clase conla práctica profesional; el aprendizaje se limitaba a la reproducciónmemorística, con niveles bajos de retención, situación que se ponía enevidencia en cursos posteriores.La tendencia a la atomización en los planes de estudio promueve ladisgregación del conocimiento, que le complica al recién egresadoaplicar los conocimientos adquiridos en las aulas y se necesita unaestrategia eficaz que promueva de modo relevante la pertinencia socialde los significados dispersos.Como resultado de esas observaciones, se aplica una propuesta inno-vadora, empleando la estrategia del Aprendizaje Basado en Problemas(ABP), con un enfoque constructivista hacia el aprendizaje significativo.El problema a resolver por los estudiantes, fue la construcción a escalade una máquina para realizar ensayos de tensión. Este proyecto con-templa los temas relacionados con la Resistencia de Materiales y parasu construcción deben reunirse ciertas habilidades y conocimientosbásicos de otras asignaturas ya cursadas. 1. Fundamento teórico1.1 Aspecto mecánicoLa composición y la microestructura de un material son determinantesen cuanto a sus propiedades. Las propiedades mecánicas brindaninformación sobre cómo responden los materiales cuando se encuen-218
    • Universidad de Manizales Facultad de Ciencias e Ingenieríatran sometidos a fuerzas aplicadas, y a través de dichas propiedadeses posible diferenciarlos. Como cada material responde de maneradiferente al mismo tipo de esfuerzo es necesario analizar su comporta-miento mediante ensayos o pruebas mecánicas. Por medio de prácticasestandarizadas, los ensayos permiten determinan las propiedades deun material según el tipo de carga al que se encuentra sometido.El ensayo de tensión constituye una prueba destructiva y mide la re-sistencia de un material a una fuerza de lenta aplicación. El equipoutilizado para este tipo de pruebas consiste en máquinas capaces deaplicar carga axial controlada sobre una probeta que tiende a alargarse.En la Figura 1, adaptada de Mott (2009), se muestra un esquema ge-neral del mecanismo por el cual la probeta se somete a una pruebade tensión. Durante la prueba, pueden observarse el incremento de sulongitud y la disminución del área transversal, prosiguiendo la pruebahasta llegar a la fractura de la probeta. Figura 1. Máquina para ensayos de tensión (Adaptada de Mott, 2009, p.56-57)La información obtenida durante la prueba, se traza en una gráficaesfuerzo–deformación, cuyo ejemplo se muestra en la Figura 2, dondese pueden diferenciar dos zonas, una elástica y otra plástica, estable-cidas de acuerdo a puntos específicos en la curva, como el límite deproporcionalidad, donde la deformación del material deja de tener uncomportamiento lineal, el límite de fluencia, a partir del cual se observauna deformación plástica, el esfuerzo último o máximo, y el esfuerzode fractura. 219
    • Nº 25 - julio - diciembre / 2011 Figura 2. Gráfica esfuerzo-deformación (Adaptada de Mott, 2009, p.56-57)La gráfica esfuerzo-deformación representa un instrumento fundamen-tal en la caracterización de materiales de acuerdo a sus propiedadesmecánicas, conocerla y aprender a interpretarla constituye una habili-dad necesaria del ingeniero en el campo de los materiales y el diseñomecánico.1.2 Planteamiento pedagógicoEl aprendizaje involucra los complejos procesos mentales del individuopara adquirir conocimiento, y no sólo la acumulación de información. Setrata de un proceso individual que amalgama experiencias subjetivas yconocimientos previos adaptándolos a conceptos nuevos y objetivos.El constructivismo sitúa al alumno como el creador de su propio cono-cimiento, para ello es necesario que el estudiante tome un papel activodentro del proceso de enseñanza-aprendizaje, sin embargo, el alumnono puede interiorizar el conocimiento o las experiencias expuestas porel profesor, porque los percibe como ajenos, convirtiéndose sólo enespectador. Además, los estudiantes se ven rebasados a causa de lascarencias en métodos de estudio, los conocimientos mal adquiridos y ala falta de habilidad para trabajar en equipo, lo cual constituye un retoy requiere el uso de estrategias pedagógicas pertinentes.Complementando las ideas anteriores con la propuesta del Apren-dizaje Basado en Problemas (ABP), el profesor se perfila como unfacilitador del conocimiento, cuyo trabajo es crear un ambiente queestimule al estudiante a aprender por sí mismo. El profesor, a través220
    • Universidad de Manizales Facultad de Ciencias e Ingenieríade la aplicación de herramientas pedagógicas, favorece también elintercambio de información y experiencias entre pares y permite laretroalimentación. El objetivo es romper la frontera entre el alumno yel conocimiento que se pretende impartir, muchas veces mencionadapor Rogers (s.f) en sus trabajos sobre la enseñanza centrada en elestudiante.Según el planteamiento de Díaz Barriga (2010), la estrategia parapromover una enseñanza situada para la promoción de aprendizajesignificativo, el ABP, tiene tres características centrales:- Organiza la propuesta de enseñanza y aprendizaje alrededor de problemas holísticos y relevantes.- Implica que los alumnos sean protagonistas de las situaciones pro- blemáticas planteadas.- Constituye un entorno pedagógico en el que los estudiantes realizan una fuerte cantidad de actividad cognitiva desarrollando habilidades complejas de solución de problemas y toma de decisiones.A través del ABP se plantea una situación problemática que involucra lostópicos que se desean que los estudiantes aprendan. Los personajesprincipales de la situación problema a resolver son los alumnos, por loque el papel del profesor se limita a fungir como asesor y promotor delaprendizaje mediante métodos inductivos. 2. MetodologíaPara la realización del proyecto se formaron dos equipos de tres inte-grantes cada uno, con el objetivo de construir una máquina universala pequeña escala. Se utilizaron materiales de recuperación y las má-quinas herramienta de los laboratorios de Procesos de Manufactura.Como parte de la investigación, los alumnos involucrados realizaronvisitas al Centro de Capacitación en Ingeniería de Materiales (CCIM) yal Instituto de Metalurgia, adscritos a UASLP. Gracias a estas activida-des tuvieron acercamientos con otros dispositivos a gran escala, pararealizar pruebas mecánicas, lo que les permitió familiarizarse con losprocedimientos reales y las normas correspondientes.La construcción de la máquina, como mecanismo complejo, obligó alos alumnos a recordar las bases teóricas y efectuar cálculo matemáti-co simple. El diseño del prototipo involucró conocimientos tales comoResistencia e Ingeniería de Materiales, Procesos de Fabricación, y porsupuesto, Diseño de Máquinas como una nueva experiencia; de estemodo, los estudiantes pudieron constatar la utilidad de los conocimientosanteriormente vistos. 221
    • Nº 25 - julio - diciembre / 2011Asimismo, los estudiantes se vieron en la necesidad de realizar elmaquinado de cada elemento componente del prototipo, mediante lacolaboración de los instructores del Laboratorio de Procesos de Ma-nufactura I. Al inicio se observó reserva de los estudiantes a operar lasmáquinas herramienta, sin embargo, conforme pasó el tiempo adqui-rieron mayor confianza y se mantuvieron involucrados en los procesosde maquinado. En la Figura 3 se puede observar el barrenado realizadopor los estudiantes, de la placa fija de la máquina. Figura 3. Barrenado de la placa fijaSe utilizó acero AISI 1045 para las columnas por sus característicasmecánicas, se calcularon las dimensiones de cada elemento de la má-quina considerando que debía presentar una resistencia considerablecomo para no deformarse al ejecutar el ensayo. En el mismo laborato-rio se maquinaron las probetas que serían sometidas a ensayos y serealizaron las pruebas finales de la máquina. Para realizar las pruebascon materiales de diferente resistencia, los alumnos emplearon aceroAISI 1018, latón y aluminio. La American Society for Testing Materials(ASTM, 2004), especifica, en su norma E8, las dimensiones de probetasestándar y señala las proporciones a considerar para realizar otras demenor tamaño, la cuales se utilizaron para cubrir el objetivo de realizarun prototipo a pequeña escala de las máquinas universales utilizadascomúnmente. En la Figura 4 puede observarse el maquinado de unade las probetas realizadas con latón.El diseño de las mordazas para sujetar las probetas también se realizóde acuerdo a la norma ya citada de la ASTM, para lo cual se optó porutilizar un sistema de roscas y además un sistema de tornillos opresores,222
    • Universidad de Manizales Facultad de Ciencias e Ingenieríalo que asegura una correcta sujeción de la probeta e impide errores alrealizar los ensayos. Figura 4. Maquinado de probeta de latón.Se empleó un cilindro hidráulico de cuatro toneladas de capacidadcomo fuente de aplicación de la fuerza. Se definieron los métodos paracaptación manual de datos y realizar la caracterización de la prueba,es decir, la carga aplicada a la probeta y sus cambios de dimensiones.Se realizó una investigación sobre los dispositivos existentes en el mer-cado para realizar las mediciones, como sensores de presión, celdasde carga, dinamómetros, extensómetros y micrómetros. Por cuestióneconómica se utilizó un pie de rey digital para medir la elongación dela probeta y se instaló un manómetro al cilindro por lo que se realizóel cálculo de la fuerza mediante la sección transversal del actuador.Se incorporaron también herramientas tecnológicas que hicieron máscompleta la elaboración del proyecto; se trabajó con un paquete de soft-ware CAD como auxiliar en el diseño y en el desarrollo de simulaciones.El uso de este tipo de software resulta ventajoso, ya que permite crear unpuente entre el desarrollo teórico y el trabajo práctico. El alumno puedeponer a prueba sus cálculos y predicciones en situaciones que simulancondiciones reales. En la Figura 5 se muestra un estudio realizado poruno de los estudiantes, en paquete de CAD, acerca de la concentraciónde esfuerzos en una probeta de latón sometida a tensión. 223
    • Nº 25 - julio - diciembre / 2011 Figura 5. Simulación del comportamiento de una probeta sometida a tracciónUna vez terminada la construcción del prototipo, se verificó el ensamblede la máquina y se rectificó que las mordazas se encontraran alineadas,se probó el ajuste de la probeta utilizando el sistema de roscas y detornillos, así como también se verificó el funcionamiento del vernier yel manómetro y su utilidad al momento de recabar los datos de cargay desplazamiento, por lo que fue posible comprobar el correcto funcio-namiento del prototipo terminado. El procedimiento seguido se adaptóde la norma de verificación ya citada. El prototipo terminado puedeapreciarse en la Figura 6. En la tabla 1 se enlistan los componentesque conforman la máquina Tabla 1. Elementos que componen el prototipo Pieza Cantidad Pieza Cantidad Placa 1 1 Placa base principal 1 Placa 2 1 Placa base del gato 1 Placa 3 1 Buje 2 Varilla 1 2 Balero lineal 2 Varilla 2 2 Tornillo agarraderas 2 Mordaza superior 1 Manija 2 Mordaza inferior 1 Gato hidráulico 1 Tornillo inferior 1 Vernier digital 1 Manómetro 1224
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Figura 6. Prototipo terminado, visto de frente.2.1 Papel del docenteEl profesor se mantuvo involucrado a lo largo del proyecto en el papelde asesor, encaminando la intervención de los alumnos por medio depreguntas y observaciones, con la intención de que articularan loscriterios que se desprendían de sus experiencias. El trabajo sobre lacomunicación de los alumnos fue fundamental, ya que al principio losargumentos que expresaba cada uno eran deficientes y muchas vecesla participación de los estudiantes se limitaba a asentir y pronunciarmonosílabos. Fue necesario que los estudiantes adquirieran no sóloconocimientos, sino la confianza necesaria que les ayudará a expresarde forma asertiva sus comentarios.Se favoreció el trabajo en equipo, orientando a los estudiantes a com-partir con sus compañeros conocimientos y habilidades adquiridos porellos previamente. El trabajo y la retroalimentación entre pares fueronfundamentales en la consecución del proyecto.Se motivó a los alumnos a documentar su trabajo y sus experiencias,por lo que se les solicitaron reportes semanales que incluyeran los 225
    • Nº 25 - julio - diciembre / 2011avances, dudas o contratiempos del proyecto. Los reportes, ademásde la interacción con los alumnos en el salón de clases, fueron instru-mentos valiosos para que el profesor detectara el progreso del proyectoasí como posibles necesidades y huecos en la organización del trabajoen equipo. 3. Resultados y evaluaciónEn la profesión de ingeniería se requiere tratar con la incertidumbrey la resolución de problemas en la práctica profesional, en ocasionescon insuficiente información. Además, los ingenieros necesitan ser ca-paces de convertirse en miembros eficientes, en los grupos de trabajocolaborativo y multidisciplinario, desarrollando la comunicación y lashabilidades en la resolución de problemas. Sin embargo, los recién gra-duados carecen de estas habilidades y muestran dificultades al aplicarlos conocimientos fundamentales para la solución de problemas en lapráctica, como aseguran Yadav, et al (2011). Llama la atención que anteun ejercicio numérico lo primero que muestra el alumno de IngenieríaMecánica es su calculadora, antes de hacer un análisis del problema.Para valorar las habilidades antes mencionadas, se realizó una eva-luación diagnóstica previa al proyecto, los indicadores revelaron elgrado de retención en los conocimientos fundamentales que teníanlos estudiantes del 8° semestre de ingeniería mecánica, quienes mos-traron una respuesta medianamente satisfactoria en las preguntas deconcepto elaboradas y en la solución de problemas planteados demanera específica.La evaluación formadora consiste en ayudar a que el alumno aprendadesde la evaluación formativa que propicia el mismo docente, y quesirve de base para que el alumno aprenda a apropiarse de los criteriosque motivan el auto aprendizaje. La evaluación mutua incluye la au-toevaluación y la coevaluación por parte de los miembros del grupo,de acuerdo con lo expuesto por Díaz Barriga (2010). En este caso serealizó la evaluación del proyecto por parte del profesor y a su vez sepromovió la autoevaluación y la coevaluación.La evaluación del docente de los resultados de diseño y construcciónde la máquina universal, se realizó mediante la rúbrica mostrada en laTabla 2, pues permite apreciar niveles progresivos de competencia opericia mediante el rango de desempeños posibles y cómo los alumnostransitan de un nivel al otro. Puede decirse que la rúbrica, como guíade puntaje, describe a través de un conjunto amplio de indicadoresel grado en el cual un estudiante está ejecutando un proceso o un226
    • Universidad de Manizales Facultad de Ciencias e Ingenieríaproducto. Por motivos prácticos se muestran en forma abreviada losniveles de clasificación y los criterios de ejecución en tres categoríascomo estudiante novato, aprendiz y practicante, prescindiendo de lacategoría de experto. Tabla 2. Rúbrica para evaluar la construcción del prototipo Novato Aprendiz Practicante Autenticidad Proyecto inverosímil Escasamente vinculado Vinculado a la vida real y poco creíble Calidad de la Falta de claridad Poco interesante, Planteamiento Narración apenas sugiere el medianamente suficiente problema Apertura para la Sesgado. Una sola Algunos visos de Discusión seria discusión respuesta discusión Complejidad de la Escasos conocimientos Escasos conocimientos Habilidades cognitivas propuesta de bajo nivel y habilidades en niveles superiores Vinculación curricular Escasa vinculación con Media vinculación Alta incorporación los contenidos curricular curricular Calidad crítica Preguntas cerradas y Preguntas abiertas Análisis y reflexión de generales invitando a la reflexión las ideas centralesAdemás de la aplicación de la rúbrica, se llevó a cabo la autoevaluacióny la coevaluación de los participantes, lo que motivó una interesantediscusión de análisis de los resultados. A continuación se presentanalgunos comentarios de estudiantes que participaron en el proyecto:- «Durante la primera etapa del proyecto me di cuenta que debía hacer uso de conceptos que alguna vez vi en clase pero que ya estaban olvidados, o que tenía bien memorizados pero no comprendía del todo su aplicación. Al enfrentarme con problemas que nadie más iba a resolver por mí y donde además era responsable de dar resultados, me vi obligada a retomar apuntes de clase y además a investigar en otras fuentes».- «Al principio tuve una resistencia a repasar cosas que se supone que ya sabía, pero al empezar a obtener resultados, empecé a interesar- me cada vez más en investigar y profundizar en mis conocimientos».- «Con respecto al uso de máquinas herramienta y de paquetería, una vez que vencí el recelo inicial de cometer un error, comencé a adquirir la sensibilidad para manejar este tipo de herramientas. No es que los conocimientos teóricos validaran su manejo, y tampoco la habilidad con las herramientas validó el conocimiento teórico, más 227
    • Nº 25 - julio - diciembre / 2011 bien ambos se unieron y dieron paso a un conocimiento nuevo y más completo».- «Casi sin darme cuenta, empecé a manejar conceptos que antes para mí eran confusos y que por lo tanto no tomaba en cuenta. Al trabajar en equipo, no todos avanzamos al mismo ritmo ni dominamos los mismos temas, por lo que es necesario aprender a expresar en palabras los conceptos que se van dominando»- «Al comenzar a exponer a mis compañeros mis puntos de vista y mis teorías con respecto al proyecto, me di cuenta que sin el estrés de hacer exámenes largos y rigurosos, obtuve el dominio de los conceptos relacionados al proyecto».- «El proceso de aprendizaje desarrollado por medio del problema/ proyecto, se fue dando de forma natural».Aunque el indicador indiscutible del éxito del proyecto fue haber termi-nado el prototipo, las observaciones del profesor y la autoevaluación,realizada de forma honesta, son referencias valiosas para evaluar eltrabajo desarrollado, y como base en los comentarios finales, los propiosalumnos percibieron un cambio positivo en su nivel de conocimientos,destrezas y actitudes. 4. ConclusionesConviene cuestionar la educación tradicional, tan arraigada en losmedios universitarios, y reflexionar en el desarrollo de métodos inno-vadores en la enseñanza de la Ingeniería Mecánica. El AprendizajeBasado en Problemas es uno de esos métodos innovadores y constituyeuna alternativa valiosa para el proceso enseñanza aprendizaje, puesbrinda mejores expectativas al novel egresado ante las exigencias delmercado laboral, con la intención de lograr mejor inserción al mediolaboral mediante la pertinencia social de la especialidad de ingeniería.Una de las competencias que debe desarrollar el docente, es la conduc-ción del proceso enseñanza-aprendizaje desde la perspectiva sociocul-tural, mencionado por Mercer (1996) citado por Díaz Barriga (2010), quese refiere a la interacción discursiva entre profesor y alumno dentro delaula. Según el Manual para la Formulación de Propuestas Curricularesde la Universidad Autónoma de San Luis Potosí (2007), todo egresadode la Universidad Autónoma de San Luis Potosí es portador de losconocimientos, aptitudes y destrezas en las disciplinas y campos deaplicación propios de la profesión, que referidos al campo profesionalpueden considerarse como una competencia. Por lo anterior, se deduceque el trabajo en el aula incide en el ámbito profesional.228
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Figura 7. Alumnos con el prototipo terminadoLo anterior comienza a cobrar sentido cuando el alumno transitade la regulación externa a una autorregulación, donde se ha in-ternalizado la motivación, fruto de la interacción con los demás ydebido también a la acción tutorial (Díaz Barriga, 2010). Cuandoel alumno ha logrado dar este salto, se perfila como un individuoautónomo y responsable de su propio conocimiento y de su de-sarrollo como profesionista y como integrante de la sociedad.De los estudiantes involucrados en el proyecto voluntario, se resintió elabandono de un integrante que dejó de asistir a clases. Los estudian-tes que permanecieron laborando en el proyecto lograron encontrar supropia motivación para superar dificultades y obtener como resultadoel funcionamiento de la máquina universal.En cuanto al prototipo, se considera sujeto a mejoras, las que podría de-sarrollar un nuevo equipo de estudiantes en futuros proyectos. Además,considerando las características de la máquina, se recomienda el usodel prototipo en el aula como material didáctico en materias como Me-cánica de Materiales, Diseño de Maquinas, entre otras, ya que facilitaríaa los estudiantes la comprensión de los principios que intervienen en lamáquina, permitiendo relacionar la teoría con la práctica. Se proponeademás, el seguimiento de los estudiantes involucrados en el proyec-to, quienes pudieran participar realizando demostraciones del trabajode la máquina para los grupos de alumnos que apenas comienzan suformación como ingenieros. 229
    • Nº 25 - julio - diciembre / 2011 BibliografíaASKELAND, D.R. y PHULÉ, P.P. (2004). Ciencia e Ingeniería de los Materiales. 4 ed. México: Thomson. 790 p. ISBN 970-686-361-3.ASTM (2004). E8 Standard Methods for Tension Testing of Metallic Materials. In: Annual Book or ASTM Standards. West Conshohocken (PA, USA): American Society for Testing and Materi- als. 27 p.BEER, Ferdinand Pierre. (2010). Mecánica de Materiales. 5 ed. México: McGraw-Hill. 788 p. ISBN 978-607-15-0263-6.CARRETERO, Mario (2009). Constructivismo y Educación. Buenos Aires (Argentina): Paidós. 222 p. ISBN 978-950-12-1518-2.CHEVALIER, A. (1994). Dibujo Industrial. México: Limusa. 319 p. ISBN 968-18-3948-X.COLL, César (1988). Conocimiento psicológico y práctica educativa: introducción a las relaciones entre psicología y educación. Barcelona (España): Barcanova.DÍAZ BARRIGA ARCEO, Frida. (2010). Estrategias Docentes para un Aprendizaje Significativo: una interpretación constructivista. 2 ed. México: MacGraw Hill. 465 p. ISBN 970-10-3526-7.ESPÍNDOLA CASTRO, José Luis. (2000) Reingeniería Educativa. México: PAX. 310 p. ISBN 96-860-423-2.MARKS, Lionell S. y AVALLONE, Eugene A. (2007) Marks Manual del Ingeniero Mecánico, 9 ed. México: McGraw-Hill. 1123 p. ISBN: 970-10-0662-3GERE, James M. (2009) Mecánica de Materiales. 7 ed. México: Thomson Learning. 1025 p. ISBN 970-830-040-3.HIBBELER, Russell Charles. (2004) Mecánica Vectorial para Ingenieros. 10 ed. México: Pearson. 687 p. ISBN 970-26-0500-8.KALPAKJIAN, Serope. (2008). Manufactura, Ingeniería y Tecnología. 5 ed. México: Pearson. 1296 p. ISBN 970-26-1026-5.MOTA ENCISO, Flavio (s.f.). La teoría educativa de Carl R. Rogers: alcances y limitaciones [en línea]. En: Temas de Educación, Universidad Autónoma de Guadalajara. Zapopan (Jalisco, México): Universidad Autónoma de Guadalajara, UAG. <http://kepler.uag.mx/temasedu/CarlR. htm> [consulta: 17/08/2011]MOTT, Robert L. (2009) Resistencia de Materiales. 5 ed. México: Pearson Educación. 776 p. ISBN 978-607-442-047-0.NORTON, Robert L. (2005) Diseño de Maquinaria. 3 ed. México: McGraw-Hill. 749 p. ISBN 970-10-4656-0.PÉREZ MORENO, Romy. (2006). Análisis de Mecanismos y Problemas Resueltos. 2 ed. México: Alfaomega. 299 p. ISBN 970-15-1226-X.ROGERS, C.R. (s.f.). Una Educación Centrada en el Alumno. [En línea] <http://boards5.melodysoft. com/Anarquismo2008/-cr-rogers-una-educacion-centrada-51.html> [consulta: 17/08/11].ROTHBART; Harold A. and BROWN, Thomas H. (2006). Mechanical design handbook: measure- ment, analysis, and control of dynamic systems. 2 ed. Columbus (OH, USA): McGraw Hill, 900 p. ISBN: 0071466363SÁENZ BLANCO, Fabiola. (2007). El Trabajo en Equipo: Teoría y Casos de Aplicación. Bogotá (Colombia): Universidad Distrital Francisco José de Caldas. 314 p. ISBN: 9789588247946.THIMOSHENKO, Stephen P. (1979). Mecánica de Materiales. México: UTEHA. 608 p. ISBN 968-438-684-2.UNIVERSIDAD AUTÓNOMA DE SAN LUIS POTOSÍ (2007) Manual para la Formulación de Propuestas Curriculares. [En línea]. San Luis Potosí (México): UASLP. <http://www.uaslp. mx/Spanish/Administracion/academica/DIE/innovacion_curricular/Documents/UASLP- ManualCurrDoctoV1.1F.pdf> [consulta: 17/09/2011].YADAV, Aman; SUBEDI, Dipendra; LUNDEBERG, Mary A. and BUNTING, Charles F. (2011). Problem-based Learning: Influence on Students’ Learning in an Electrical Engineering. [on line]. In: Journal of Engineering Education, Vol. 100, No. 2 (abr.). Washington, D.C.: American Society for Engineering Education, ASEE, p. 253-280. ISSN. 1069-4730.<http://www.jee. org/2011/April/05.pdf> [consult: 18/08/2011].230
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Políticas editorialesLa revista Ventana Informática, cuyo lema es: «Alguien está necesitando la información que usted está dispuesto a brindar. Usted está necesitando la información que alguien está dispuesto a brindar… Ventana Informática se mantiene abierta para que la información fluya en ambas direcciones»pone a consideración de la sociedad académica, sus políticas editoriales, con la pre-tensión de lograr que esta publicación se convierta en un espacio abierto y disponiblea todos quienes estudian, investigan y trabajan en las áreas de acción de la revista.1. Criterios de publicación, citación y reproducciónLa Revista Ventana Informática es una publicación semestral de carácter científico-tecnológico, orientada a promover y difundir los desarrollos y la investigación en el áreade la informática, las telecomunicaciones, la sociedad de la información y el conocimientoy disciplinas relacionadas.La Revista señala que la publicación de artículos no da derecho a remuneración algunay que la responsabilidad del contenido de los artículos es de los autores, inclusive enlo relacionado con la propiedad intelectual de otros autores y/o fuentes, por lo que laUniversidad de Manizales no asume responsabilidad por las opiniones y contenidosde los documentos publicados.Cada número de la revista incluye entre 9 y 15 artículos, de acuerdo a la calificaciónpromedia obtenida en el proceso de evaluación, y evitando que aparezcan más de doscolaboraciones de un mismo autor (en solitario o con coautores), así como que los artí-culos donde los integrantes de los comités o el director aparecen como autores, superenel 50% de los documentos publicados en cada número.Los artículos considerados como publicables y que no sean incluidos en el número enque se selecciona, quedan en reserva para el número siguiente, siempre y cuando losautores no decidan retirarlos.Los artículos pueden ser citados en otros documentos, siempre y cuando se indi-que claramente la siguiente información: Revista Ventana Informática. Manizales(Colombia): Universidad de Manizales, número de la revista, página(s) y año depublicación. ISSN 0123-9678, por lo que en cada artículo se presenta el modelode citación recomendado.La reproducción de artículos publicados en la revista con fines académicos y sin ánimode lucro, puede realizarse si se incluye la información establecida en el párrafo anterior.Si su reproducción implica otros usos, debe solicitarse autorización escrita al Directorde la revista Ventana Informática.2. Tipos de artículos publicablesLa Revista Ventana Informática recibe artículos preferiblemente inéditos (en caso deno serlo, los autores deben adjuntar los respectivos permisos para reproducir en estarevista). 231
    • Nº 25 - julio - diciembre / 2011Los artículos deben presentarse en idiomas español o inglés (el uno sirve como idio-ma alterno del otro), y cuando estén relacionados con un proyecto de investigación,debe adjuntarse un documento con la siguiente información: Investigador principal,coinvestigadores, entidad financiadora o que la respalda, fecha de inicio y fecha determinación (ejecutado o programado), estado actual. En caso de corresponder a tesis,debe especificarse el programa, el título académico, la institución y el tutor o presidente.2.1 Tipos de artículos publicablesLas colaboraciones deben estar en la perspectiva conceptual-disciplinal o de análisispráctico de la informática, las telecomunicaciones, la sociedad de la información y elconocimiento y las disciplinas que se consideren conexas.2.1.1 Artículo Científico. Su objetivo es presentar los resultados originales de unproyecto terminado de investigación y/o desarrollo. Todo artículo científico comprendelas siguientes partes:0. Introducción1. Fundamento teórico2. Metodología3. Resultados y Discusión4. Conclusiones5. Agradecimientos (opcional, no superior a 100 palabras)6. Referencias Bibliográficas (mínimo 15 fuentes confiables, pertinentes y actualizadas).7. Bibliografía complementaria (opcional)2.1.2 Artículo de reflexión. Presenta resultados de una investigación, sobre un temaespecífico y a partir de fuentes originales, desde una perspectiva analítica, interpretativao crítica del autor. Presentan las siguientes partes:0. Introducción1. Desarrollo temático (puede separarse en varios capítulos, según lo considere el los autores)2. Conclusiones3. Agradecimientos (opcional, no superior a 100 palabras)4. Referencias Bibliográficas (mínimo 20 fuentes confiables, pertinentes y actualizadas.5. Bibliografía complementaria (opcional)2.1.3 Artículo de revisión. Tiene por objetivo presentar el análisis, sistematizacióne integración de los resultados de investigaciones (publicadas o no) sobre un campode la ciencia o la tecnología, destinado a dar cuenta de sus avances y tendencias. Secomponen de las siguientes partes:0. Introducción1. Desarrollo temático (puede separarse en varios capítulos, según lo considere el los autores)2. Conclusiones3. Agradecimientos (opcional, no superior a 100 palabras)4. Referencias Bibliográficas (mínimo 50 fuentes confiables, pertinentes y actualizadas.5. Bibliografía complementaria (opcional)2.1.4 Reporte de caso. Presenta los resultados de un estudio sobre experiencias téc-nicas y metodológicas en una situación específica, incluyendo la revisión sistemáticay analítica sobre casos análogos o antecedentes. Comprende las siguientes partes:232
    • Universidad de Manizales Facultad de Ciencias e Ingeniería0. Introducción1. Antecedentes2. Metodología3. Resultados y Discusión4. Conclusiones5. Agradecimientos (opcional, no superior a 100 palabras)6. Referencias Bibliográficas (mínimo 15 fuentes confiables, pertinentes y actualizadas).7. Bibliografía complementaria (opcional)2.2 Especificaciones del artículoLa Tabla 1 recoge algunos aspectos específicos que los autores deben tener en cuentaal momento de construir sus artículos. Es de aclarar que se puede solicitar los formatos,tanto de artículos como de la información de autores. Tabla 1. Especificaciones a considerar en la construcción de artículos para la revista Ventana Informática Ítem Especificaciones Tamaño de página Carta (21.59 cm x 27.94 cm). Márgenes Simétricas de 3 cm. Interlineado Sencillo (0 pto antes, 0 pto después), en la totalidad del artículo. Longitud 10 a 15 páginas. Fuente Arial 14, mayúscula inicial, negrita, centrado. Longitud máxima Título de artículo de 15 palabras. Título de artículo en idioma Fuente Arial 12, mayúscula inicial, negrita, centrado, entre [ ]. alterno Fuente Arial 10, cursiva, negrita, centrado. Nombre(s) con mayúscula inicial Autor(es) del artículo y apellido(s) en mayúscula sostenida. Tipo de artículo Fuente Arial 10, cursiva, centrado, mayúscula inicial. Fuente Arial 12, mayúscula inicial, negrita, centrado. Numeración 0., 1., Títulos de primer orden 2., etc. Fuente Arial 12, mayúscula inicial, justificado, negrita. Numeración 1.1, Títulos de segundo orden 1.2, etc. Fuente Arial 12, mayúscula inicial, justificado, negrita, separado por un Títulos de tercer orden punto y un espacio del texto. Numeración 1.1.1, 1.2.1, etc. Fuente Arial 12, mayúscula inicial, justificado, negrita, separado por un Títulos de cuarto orden punto y un espacio del texto, e indicado con viñeta (•) Texto del artículo Fuente Arial 12, normal, justificado. Términos en idiomas Fuente Arial 12, cursiva. diferentes o no aceptados Expresiones resaltadas Fuente Arial 12, cursiva. Texto de resúmenes Fuente Arial 10, justificado, cursiva. Un párrafo entre 100 y 200 palabras. Palabras claves Fuente Arial 10, justificado, cursiva. Entre 3 y 6, en orden alfabético. Fuente Arial 12, justificado, en cursiva, entre « ». Si es breve (inferior a seis líneas) se inserta dentro de un párrafo. Citas bibliográficas directas Si es extensa (entre 6 y 12 líneas) se presentan en un bloque con una sangría de cuatro espacios (equivale a 1 cm) a ambos lados, que se conserva hasta el final. 233
    • Nº 25 - julio - diciembre / 2011 Ítem Especificaciones Fuente Arial 12, justificado. Se indican mediante expresiones que faciliten Citas bibliográficas la comprensión del texto (Según, De acuerdo con, Establece, o similares), indirectas acompañadas del respectivo autor(es). Arial 12, se ubica junto a la cita respectiva, indicando autor, año y página consultada (como se muestra en el numeral 2.2.3). Fuentes citadas Si son dos autores se unen con &; si son tres autores se separan los dos primeros con coma y el tercero con &; mientras en el caso que superen los tres autores, se escribe el apellido del primer autor acompañado de la expresión et al. Se indican con números consecutivos a lo largo del artículo, ubicados al Notas al pie de página final de la expresión correspondiente. El texto se presenta en fuente Arial 10, justificado. Fuente Arial 11, justificado. Atiende a los estilos presentados en la tabla 2. Referencias bibliográficas Las fuentes poco confiables, debido a su bajo o nulo control y arbitraje (como wikis, blog, páginas personales, entre otras), se descartan como referencias en los artículos presentados. Fuente Arial 10, cursiva, centrado. Se ubica debajo de las figuras y encima Título de tabla o figura de las tablas, acompañado de la fuente de procedencia respectiva (autor, año, página) Texto en fuente Arial 10, justificado. Líneas horizontales con grosor de ½ Tablas punto. No debe superarse las tres tablas en el documento, como tampoco tener tablas con más de 15 filas. 10.6 cm en el lado mayor, centrado, monocromático, insertado como imagen, alta calidad, formatos .jpg o .tif. Comprende fotografías, dibujos, Figuras diagramas y demás representaciones gráficas, sin incluir cuadros y tablas. Cada artículo tiene hasta tres figuras cuando haya tablas, o las cinco figuras, si el artículo no presenta tablas. Impersonal (pueden presentarse excepciones en citas directas), coherente Redacción y con adecuada ilación. El texto respeta las normas gramaticales y ortográficas de los idiomas utilizados. El texto no debe presentar indicios de apropiación inapropiada o Respeto por la propiedad coincidencia con documentos publicados. Se recomienda el adecuado uso intelectual de las citas, y la revisión previa del documento con aplicativos anti-plagio. Se indican la primera vez que aparezcan en el cuerpo del artículo, bien Abreviaturas como nota al pie o dentro de paréntesis en el texto. Líneas de código Fuente Courier 11 con la identación respectiva. Ecuaciones Fuente Cambria Math 11. Los números 1 a 9, si no están acompañados de unidades de medidas Números en el texto (Km., ml, KB) o no hacen parte de un lapso (3 a 5), se escriben en letras. Los números superiores siempre se presentan en dígitos.2.2.1 Presentación de la primera página. La página inicial del artículo está constituidapor los siguientes elementos:- El título del artículo, que con su concreción y claridad, permite identificar la temática desarrollada. Se escribe en el idioma original y debajo de él aparece su respectiva traducción al alterno.234
    • Universidad de Manizales Facultad de Ciencias e Ingeniería- El nombre completo del autor o autores y, como nota de pie de página, su respectiva información académica y laboral (cargo, institución y dirección de correo electrónico).- El tipo de artículo, con una nota al pie de página, indicando la información del pro- yecto que sirve de base para el artículo.- El resumen, tanto en el idioma original como en el alterno, que consiste en un texto descriptivo del contenido básico y su relevancia, al presentar de forma clara y breve los propósitos, el alcance del artículo, los procedimientos utilizados, los principales hallazgos y las conclusiones.- Las palabras claves, en el idioma original y el alterno, que consisten en expresiones fundamentales del artículo.2.2.2 Introducción. Todos los artículos presentan la correspondiente Introducción,donde se identifica claramente el problema o temática, presenta brevemente los tra-bajos más relevantes y las contribuciones de otros autores al tema, así como tambiénse justifica la realización del trabajo.2.2.3 Citas bibliográficas. Las citas, directas o indirectas, se presentan en el texto,acompañadas de su procedencia mediante la indicación entre paréntesis, del autor,año1 y página consultada (en caso de documento paginado), mientras su referenciabibliográfica se ubica en la bibliografía, de manera que haya una completa coherenciaentre las dos.Si existen varias referencias del mismo autor publicadas en el mismo año, se diferen-cian colocando las letras a, b, c, etc., a continuación del año, característica que seconservará en la bibliografía.• Citas textuales, literales o directas. Consiste en la transcripción de apartes textua-les procedentes de fuentes consultadas. Ellas se diferencian perfectamente del textogeneral mediante su escritura en cursiva y la utilización de comillas tipográficas («»).Si son citas breves, es decir inferior a seis líneas, se incluyen dentro de un párrafo,y en caso de tener una longitud entre 6 y 12 líneas, se diferencian al presentarse enun bloque con una sangría de cuatro espacios (equivale a 1 cm) a ambos lados, quese conserva hasta el final. Se recomienda evitar la presentación consecutiva de citasdirectas en el documento.Ejemplo1 (cita directa breve):A pesar de existir varias definiciones sobre ambiente virtual de aprendizaje, se asumecomo el «espacio físico donde las nuevas tecnologías tales como los sistemas satelitales,el Internet, los multimedia, y la televisión interactiva entre otros, se han potencializadorebasando al entorno escolar tradicional que favorece al conocimiento y a la apropiaciónde contenidos, experiencias y procesos pedagógico-comunicacionales» (Ávila & Bosco,2001, 1-2), indicando que está conformado por el espacio, el estudiante, el asesor,los contenidos educativos, la evaluación y los medios de información y comunicación.Ejemplo 2 (cita directa breve):Es importante tener en cuenta que «cada agente involucrado en la cadena de suministrodebe disponer de un sistema informático preparado para poder generar, gestionar yregistrar la información de trazabilidad necesaria en cada momento (entendiendo comoinformación de trazabilidad los lotes y/o fechas asociados a cada producto)» (Aecoc,s.f., 2), es decir, los sistemas de trazabilidad para su funcionamiento y desempeñonecesitan estar provistos por otros sistemas como son los de monitoreo o sistemas de1 Si no se cuenta con el año de publicación, se utiliza la expresión s.f. (sin fecha). 235
    • Nº 25 - julio - diciembre / 2011información, estos contienen todos los procesos de la trazabilidad, que a su vez sonalmacenados en bases de datos.Ejemplo 3 (cita directa extensa): «Los maestros y tutores juegan un papel crucial en el proceso de enseñanza-aprendizaje, proporcionando al estudiante retroalimentación sobre lo estudiado y orientación sobre la ruta a seguir, lográndose de esta manera un cierto grado de personalización del proceso educativo a las necesidades y aptitudes específicas de cada estudiante. Sin em- bargo, no se están explotando las capacidades de las computadoras de comportarse como entes inteligentes, capaces de funcionar como tutores de los aprendices y asistentes de los maestros» (Morales, 2007, 31)• Citas indirectas o contextuales. Son aquellas citaciones no literales, es decir, dondese presenta el resumen del planteamiento del autor consultado, sin que el consultanteemita juicios de valor. Se indican el autor y entre paréntesis, el año y la página dedonde proviene la información (en caso de documento paginado), acompañado deexpresiones que faciliten la comprensión del texto (según, de acuerdo con, afirma,sostiene, considera, etc.). Debe tenerse especial cuidado cuando una cita indirectasupere un párrafo, en el sentido de indicar con claridad corresponde a la misma cita.Ejemplo 1:Según la CEPAL (2001, 11), la balanza de pagos o financiera argentina fue la únicacrítica en la región, contagiando, durante los trimestres segundo y tercero, a las eco-nomías vecinas, las cuales, debido a la evolución del cuarto trimestre, se confía quese habrían desvinculado de ella.Ejemplo 2:Por otra parte, para Petrella (1993, 1999a y 1999b), este ha sido un centro de actividadprofesional como gerente de sistemas y como consultor en proyectos informáticos por muchotiempo, analizando el marco teórico de estos procesos de contratación y la necesidad deadaptarlos a cada situación específica, especialmente en instituciones estatales, conside-rando aspectos funcionales, técnicos, económicos, legales y notariales de cada proceso.Ejemplo 3:Uno de los enfoques principales de esta implementación es la posibilidad de usarmúltiples engines de protección, que utilizan métodos y técnicas heterogéneas parala detección de malware. Este modelo, denominado N-version protection (Oberheideet al., 2007), está basado en el concepto de N-version programming, introducido origi-nalmente por Liming & Avizienis (1977), en donde se propone la creación de múltiplesversiones de una aplicación con el fin de comparar sus salidas y así asegurar sufuncionamiento correcto.Ejemplo 4:La planeación prospectiva permite también la concurrencia entre los estudios defuturo, la planeación estratégica y los análisis, estudios y diagnósticos situacionales,para encontrar y priorizar el desarrollo de la cadena del valor en el marco de la gestióndel cambio, la gestión de la cultura la gestión de la comunicación y una interacción ycomprensión mutua entre los actores para pensar su futuro y tomar decisiones desdeel presente, como lo consideran Gavigan, Ducatel & Scapolo (2002, 22).2.2.4 Figuras y tablas. Las figuras y tablas solo son incluidas si contribuyen a la cla-ridad y nitidez del texto. Se numeran, describen e invocan en el texto, y se ubican enla misma página o en la siguiente, acompañada de su identificación.236
    • Universidad de Manizales Facultad de Ciencias e IngenieríaEjemplo 1 (tabla):Diseñar los instrumentos para garantizar la mayor cantidad de información. El diseñodel instrumento se llevó a cabo teniendo como referencia las estrategias y cada unade sus formas de aplicación, ilustradas por Heizer & Render (Tabla 4), se diseñó uncuestionario que posteriormente, con su aplicación, cumplió la función de guía de laentrevista realizada. Tabla 4. Categorización de estrategias productivas (Heizer & Rende, 1997a) Estrategia Forma de aplicación • Automatización ó interacción • Personalización Estrategia de producto reducida con el cliente • Modularizar • Hora de la verdad • Normas ISO • Gráficos de Paretto • Gestión de la calidad total • Diagramas de flujo Estrategia de calidad • Hojas de control • Histogramas • Diagramas de dispersión • Control estadístico de procesos • Diagramas causa – efecto • Inspección • Intensidad de trabajo alta y • Intensidad de trabajo baja y personalización baja personalización baja Estrategia de proceso • Intensidad de trabajo alta y • Intensidad de trabajo baja y personalización alta personalización alta Estrategia de capacidad • Arboles de decisión • Análisis del punto de equilibrio • Factores ponderados • Sistemas de información geográfica Estrategia de • Centro de gravedad • Modelos de regresión para localización • Análisis demográfico de la zona determinar la importancia de • Conteo del tráfico diversos factores. • Organización de posición fija • Organización de detallista/comercio Estrategia Layout • Organización orientada al proceso • Organización de almacenes • Organización de oficinas • Organización orientada al producto • Planificación de la mano de obra • Diseño de trabajo • Políticas de estabilidad en el • Especialización de la mano de Estrategia de recursos empleo obra. humanos • Jornadas laborales • Diversificación del trabajo • Clasificaciones de puestos y reglas • Tiempos estándares de trabajo • Muchos proveedores • Pocos proveedores • Cantidad de pedido económico Estrategia de • Integración vertical • Cantidad de pedido de producción aprovisionamiento • Keiretsu • Descuento por volumen de pedido Compras • Proveedores en función de la • Modelos probabilístico con plazo de Manejo de inventario necesidad entrega constante • Gestión de inventario Estrategia de • Programación agregada • Programación por proyecto programación • Programación a corto plazo Estrategia de • Técnicas de fiabilidad • Técnicas de mantenimiento mantenimiento 237
    • Nº 25 - julio - diciembre / 2011Ejemplo 1 (figura):Se puede decir en este momento que el MPLS es un protocolo de transporte que integradiferentes capas como una sola en sí misma, pero que permite separar las funcionesde control y envío de información sin necesidad de hacer traducciones o aumentar losprocesos de conmutación de la red, lo que si sucede con ATM, razón por la cual, ade-más de otras tantas MPLS se refleja como uno de los protocolos de mayor adopción,como lo presenta la figura 3. Figura 3. Crecimiento del Tráfico por Protocolo (Infonetics Research, 2007)2.2.5 Referencias bibliográficas. Todos los artículos presentan el listado de referenciasbibliográficas citadas en el texto. Se recomienda tener presente la cantidad mínima dereferencias establecidas para cada tipo de artículo.De manera opcional, puede incluirse la bibliografía complementaria, que consiste enaquellas fuentes no citadas, pero que suministraron algún apoyo documental en laconstrucción del artículo.• Organización de la referencias. Las referencias se ordenan alfabéticamente porautor y sin ningún tipo de numeración o viñeta.Si son autores personales consultados se presentan como APELLIDO, Nombre. En casode varios autores se separan por punto y coma (;), excepto el último que se separa conla conjunción y, o su equivalente en el idioma de la referencia, y sin omitir las normasinternacionalmente aceptadas para presentar los autores de acuerdo a su nacionalidad.Cuando la referencia corresponde a alguien que aparece como editor o compilador, seindica entre paréntesis, después del nombre sin coma previa, de preferencia abreviadoy en minúsculas: (ed.), (comp.).En caso de autor corporativo se coloca su nombre en mayúscula sostenida. Si envarias ciudades o países existe el nombre del autor corporativo, se indica la ciudad opaís entre paréntesis. Ejemplo de ellos es: MINISTERIO DE TRANSPORTE (Colom-bia); MINISTERIO DE TRANSPORTE (Venezuela), o MUSEO DE ARTE MODERNO(Medellín); MUSEO DE ARTE MODERNO (Cartagena de Indias); MUSEO DE ARTEMODERNO (Bogotá); MUSEO DE ARTE MODERNO (México).238
    • Universidad de Manizales Facultad de Ciencias e IngenieríaCuando existen varias citas del mismo autor, se ordenan por año empezando por lamás antigua, en tanto si se tienen diferentes fuentes del mismo autor en el mismoaño, se diferencian colocando las letras a, b, c, etc., a continuación del respectivoaño.• Estilos de referencia bibliográfica. La presentación de las referencias varía deacuerdo a su procedencia (libro, publicación periódica, ponencia, tesis, documentoelectrónico, etc.), por lo que, en la Tabla 2, se presenta el respectivo modelo, acom-pañado de ejemplos. Tabla 2. Modelo y ejemplo de referencias bibliográficas, según el tipo de fuente Tipo de Modelo Ejemplos fuente COLLINS, Philip G. & AVOURIS, Phaedon (2001). Introduc- ción de los nanotubos en el dominio de la electrónica. En: Investigación y Ciencia. No. 293 (feb.). Barcelona Autor. (Año). Título (España): Prensa Científica. p. 12-20. ISSN: 0210136X del artículo. En: COLLISON, C.; DENNISON, R.B. & RUUD, B. (2007). Using Título de la revista. social technologies to aid communities. In: Knowledge Artículo de Número del volumen, Management Review, Chicago (USA): Melcrum Publis- revista número de la entrega hing. (Mar-Apr). 10 p. ISSN: 1369-7633. (mes). Ciudad (País): TIMARÁN, R. & MILLÁN, M. (2005). Extensión del Lenguaje Editorial. Paginación. SQL con nuevas primitivas para el descubrimiento de Reglas de Asociación en una Arquitectura Fuertemen- ISSN te Acoplada con un SGBD. En: Revista Ingeniería y Competitividad. Vol. 3, No. 2, (dic.). Cali (Colombia): Universidad del Valle. p. 53-63. ISSN. 0123-3033. CEPAL (2001). Balance preliminar de las economías de América Latina y el Caribe. Santiago de Chile (Chile): CEPAL. 105 p. ISBN: 92-1-32188-8 SUAIDEN, Emir José (2004). El papel de la Sociedad de Autor. (Año). Título. la Información en América Latina. En: CARIDAD SE- Libro y BASTIÁN, Mercedes & NOGALES FLORES, J. Tomás Edición. Ciudad capítulo de (comp.) (2004). La información en la posmodernidad: La (País): Editor. sociedad del conocimiento en España e Iberoamérica. libro Paginación. ISBN Madrid: Centro de Estudios Ramón Areces. 336 p. ISBN: 84-8004-643-0 TANENBAUM, Andrew S. (2007). Modern Operating Sys- tems. 3 ed. Upper Saddle River (New Jersey, USA): Prentice Hall. 1104 p. ISSN: 978-0136006633 PARRA FUENTE, Javier (2005). Servicios Web Reflectivos y Adaptables Dinámicamente sobre Servidores de Aplica- ciones soportados por Máquinas Virtuales. Tesis doctoral Autor (año). Título. (Doctor en Informática). Madrid (España): Universidad Tesis y otros Tipo de trabajo (título Pontificia de Salamanca. 308 p. trabajos de académico). Ciudad SANABRIA HIGUERA, Fredy Mauricio & ROMERO VAR- grado (País): Institución. GAS, Rafael Alfonso (2005). Diseño e implementación Paginación. de un sistema para el almacenamiento de historial clínico en tarjetas inteligentes. Trabajo de grado (Ingeniero Electrónico). Bogotá (Colombia): Universidad de los Andes. 93 p. 239
    • Nº 25 - julio - diciembre / 2011 Tipo de Modelo Ejemplos fuente CHEN, F. & BURSTEIN, F. (2006). A dynamic model of knowled- ge management for higher education development In: 7th International Conference on Information Technology Based Higher Education and Training, 2006. ITHET ‘06 (10- Autor. (Año). Título. 13/07/2006), Ultimo (NSW). Proceedings ITHET’06. Pisca- En: Nombre del taway (NJ, USA): IEEE, p. 173-180. ISBN: 1-4244-0405-3 evento, (días/mes/ HONG-BING, L. (2007). DEA-Based Project Knowledge año), Ciudad sede Management Performance Evaluation. In: International Ponencias y (País): Organizador Conference on Management Science & Engineering, ICM- conferencias del evento. SE 2007 (20/22/08/2007), Harbin (Heilongjiang, China). Denominación Proceedings ICMSE 2007. Piscataway (NJ, USA): IEEE, de las memorias, p. 1561-1566. ISBN: 978-7-88358-080-5 PETRELLA, Carlos (2008). Radios en Internet un aporte a la Paginación. ISBN o Sociedad de la Información y del Conocimiento. En: Semana ISSN. Internacional del Conocimiento – VI Asamblea CISC (29- 31/10/2008), Manizales (Colombia): Comunidad Iberoameri- cana de Sistemas de Conocimiento, CISC. Recopilación de ponencias, p. 215-245. ISBN: 978-958-98891-0-7 ACOSTA PALACIO, Carlos Enrique (2010). Diseño e imple- tp:// mentación de una herramienta de representación del09]. conocimiento para apoyar la gestión de requisitos en un proceso de desarrollo de software [en línea]. Tesis dew to grado (Magíster en Ciencias, mención Computación). ion, Santiago de Chile (Chile): Universidad de Chile, Facultadaps. de Ciencias Físicas y matemáticas, Departamento de Ciencias de la Computación. <http://www.cybertesis.uchi-iew, le.cl/tesis/uchile/2010/cf-acosta_cp/html/index-frames.neu. Autor (Año html> 130 p. [consulta: 23/04/2011] publicación o CARIDAD SEBASTIÁN, Mercedes; MARZAL, Miguel Ángel; actualización). Título. AYUSO, María Dolores; SEBASTIÁ, Montserrat; REY, [Método de acceso Carina; JORGE, Carmen & MORALES, Ana María (2006). Documentos (en línea, fuera de Sociedad de la información e inclusión digital en España: Antecedentes. Primera parte [en línea]. En: Ciencias de electrónicos línea, CD-ROM)]. la Información. Vol. 37, No. 1 (abr.). La Habana (Cuba): * Ciudad: Editorial. Instituto de Información Científica y Tecnológica, IDICT. <Dirección completa <http://www.cinfo.cu/Userfiles/file/Cinfo/CINFO2006/ de la ubicación del abril2006/mercedes.htm> [consulta: 10/03/2009]. documento>. Fecha CISCO SYSTEMS (2008). MPLS FAQ for Beginners: de consulta entre [ ]. Introduction to MPLS [on line]. San José (California, EUA): CISCO. <http://www.cisco.com/en/US/tech/tk436/ tk428/technologies_q_and_a_item09186a00800949e5. shtml#intro> [consult: 21/07/2008]. FARRELL, Glen (2001). Chapter 8: Issues and Choices [on line]. In: FARRELL, Glen (ed.) (2001). The changing faces of virtual education. London (UK): The Common- wealth of Learning. p. 141-152. ISBN: 1-895369-75-4 <http://www.col.org/SiteCollectionDocuments/Virtual2_ complete.pdf> [consult: 16/07/2010] * En caso de revistas, libros o ponencias en formato digital, se utiliza el estilo respectivo indicado anteriormente, agregándole el método de acceso, la dirección completa de la ubicación del documento y la fecha de consulta. Cuando en el documento no se indica claramente su autor personal o corporativo, se asume como autor a la entidad responsable de sitio. 240
    • Universidad de Manizales Facultad de Ciencias e Ingeniería3. Proceso de recibo y selección3.1 Recibo de documentosLas convocatorias para el recibo de artículos se cierran en febrero 20 y agosto 20de cada año, aclarando que su recepción no implica la publicación ni el compromisoen cuanto a la fecha de ella. Los artículos son enviados mediante correo electrónicoa las cuentas ventanainformatica@umanizales.edu.co y ventanainformatica@gmail.com.Junto al artículo (construido en Microsoft Word y guardado en formato .doc o .docx), seenvían las figuras monocromáticas presentadas en él, debidamente identificadas (enformato .jpg o .tiff con alta calidad), los datos de los autores (en el formulario Informaciónde autores debidamente diligenciado) y los archivos de autorización de reproducción(si no es inédito) y de información del proyecto de investigación relacionado.3.2 Proceso de selecciónSe aclara que la revista tiene establecido:- Un artículo que no cumpla cabalmente con los parámetros de forma establecidos por la revista, no será sometido a evaluación temática.- Asumir que los autores han decidido retirar su artículo del proceso de selección, cuando no se presentan los ajustes solicitados dentro del plazo señalado. Lo anterior no implica que pierdan la posibilidad de presentarlo para ediciones futuras.- Establecer como rechazados, aquellos artículos que: - no correspondan a los intereses de la revista, - no cumplan con los parámetros de forma después de solicitado el primer ajuste, - obtengan una calificación promedio inferior a 60 puntos en la evaluación temática o en la evaluación integral, - habiendo supe- rado los 60 puntos promedio, exista consenso entre los evaluadores sobre la inconveniencia de su publicación, o – en su versión final se detecte algún tipo de plagio.- No reconsiderar la decisión cuando un artículo es rechazado, o ha sido asumido como retirado por no cumplir con los tiempos estipulados para las entregas.- Si después de un tiempo prudencial, alguno de los tres árbitros no ha cumplido con la entrega de su evaluación, el director informa a los autores sobre el resultado obtenido a partir de la evaluación de dos árbitros, salvo en aquellos casos que por resultados antagónicos, el director deba considerar la evaluación de un nuevo tercer árbitro.- Los artículos rechazados, o retirados por los autores durante el proceso de selección, quedan liberados de cualquier relación con la revista, y por lo tanto disponibles por parte de sus autores.- Cada autor de los artículos publicados, recibe un ejemplar del número correspondiente.El proceso de evaluación y selección de los artículos a publicar tarda máximo seismeses, desde la fecha límite establecida para el recibo, comprende tres momentos.3.2.1 Evaluación de forma. La primera evaluación se realiza, por el Comité Cien-tífico de Redacción, sobre el cumplimiento de los requisitos formales (Tabla 3) y laadecuación al interés temático de la Revista, de la cual se envía un mensaje a losautores donde se señala su resultado. En caso de corresponder al interés de larevista, se indican a los autores aquellos aspectos a ajustar y la fecha límite parahacer la nueva entrega. 241
    • Nº 25 - julio - diciembre / 2011 Tabla 3. Formato para la evaluación de forma de los artículos Parámetros Cumplimiento Observaciones ¿El título cumple el límite de longitud? Si/No ¿El título está también en el idioma alterno? Si/No ¿El artículo cumple con la extensión solicitada? Si/No ¿La información de autor(es) es completa? Si/No ¿Especifica el tipo de documento? Si/No ¿Especifica el proyecto de donde procede? ¿Presenta los resúmenes y palabras clave de Si/No acuerdo a lo solicitado? ¿Cumple las pautas de diseño (márgenes, tipo de Si/No fuente, interlineado, tamaño de página)? ¿Tiene las partes constitutivas solicitadas acorde al Si/No tipo de artículo? ¿Las citas bibliográficas son presentadas de acuerdo Si/No a lo solicitado? ¿Las tablas y figuras se presentan acorde a las Si/No pautas? ¿Las referencias bibliográficas respetan las pautas Si/No de la revista? ¿Las notas de pie de página están presentadas de Si/No acuerdo a las pautas? ¿La redacción es impersonal? Si/No ¿El documento presenta adecuada ortografía? Si/No3.2.2 Evaluación temática. Comprobado el cumplimiento de los requisitos formales,el artículo será enviado a evaluación por parte de tres árbitros expertos, integrantesdel Comité Científico de Arbitraje de la revista.Este arbitraje se hace de forma confidencial (doble ciego: los árbitros desconocen losnombres de los autores y viceversa), mediante el diligenciamiento de un formato espe-cífico (Tabla 4), que solicita su concepto sobre la conveniencia o no de su publicación,y las recomendaciones para mejoramiento del artículo. El resultado de la evaluaciónse informa a los autores oportunamente mediante correo electrónico, y en caso derequerirse, se indica la fecha para la entrega de los documentos ajustados, con el finde que los árbitros emitan su concepto definitivo sobre la condición de publicable o no. Tabla 4. Formato para la evaluación temática Puntaje Parámetros Observaciones máximo asignado ¿El título es adecuado para el contenido? 5   ¿Los resúmenes son coherentes con el documento? 5   ¿La introducción es adecuada para el documento? 5  242
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Puntaje Parámetros Observaciones máximo asignado ¿El documento presenta una estructura adecuada 5   y consistente? ¿El artículo se encuentra escrito con vocabulario 5   tecno-científico adecuado? ¿Las fuentes bibliográficas son confiables? 6   ¿Las referencias bibliográficas son actualizadas? 5   ¿La temática tiene interés y aporta novedad para la 7 comunidad académica? ¿El soporte teórico del artículo es profundo? 6   ¿Las citas bibliográficas son suficientes, pertinentes 5   y coherentes? ¿Las conclusiones son coherentes y profundas? 7 ¿Las fuentes citadas y la bibliografía tienen 5 correspondencia? ¿El artículo corresponde a un tema nuevo, o con un 7 enfoque no dado anteriormente? ¿El artículo es importante por la aplicabilidad de las 7 ideas, métodos o técnicas descritas? ¿El artículo contempla los detalles que permitan chequear la exactitud de los resultados o 7 afirmaciones? ¿El artículo presenta la suficiente claridad que lo 6 haga accesible a los lectores? ¿El artículo no presenta indicios de copia indebida 7 y violación de derechos de autor? Puntaje Total 100   ¿Cuál es el resumen de su evaluación? (hasta 50 palabras) - Publicar la versión actual del artículo _____ De acuerdo a su revisión, ¿cuál - Publicar después de realizarle los ajustes indicados _____ es su recomendación? - Replantear el artículo para una próxima edición _____ - No publicarlo en Ventana Informática _____ Aspecto a modificar Descripción de la modificación ¿Cuáles son las modificaciones que debe realizar?3.2.2 Evaluación integral. Una vez los árbitros emitan el concepto de publicable,los artículos con esa características (sin indicar sus autores), se envían al ComitéEditorial acompañado de un formato de evaluación (Tabla 5), para con su resultadodefinir los artículos de mejor calificación promedia que se publican en el respectivonúmero. 243
    • Nº 25 - julio - diciembre / 2011 Tabla 5. Formato de evaluación integral Puntaje Parámetros Observaciones máximo asignado Presentación del documento (estructura, redacción, ortografía, lenguaje tecno- 30   científico, fuentes consultadas, respeto a propiedad intelectual) Originalidad (resultados, conceptos, análisis, 35   prospectiva) Interés y novedad para la comunidad 35   académica Puntaje Total 100   ¿Cuál es el resumen de su evaluación? (hasta 50 palabras) - Publicar la versión actual del artículo _____ De acuerdo a su revisión, - Publicar después de realizarle los ajustes indicados _____ ¿cuál es su recomendación? - Replantear el artículo para una próxima edición _____ - No publicarlo en Ventana Informática _____5. Información de los autoresAdjunto al artículo se presenta un archivo en Microsoft Word (.doc o .docx) con la infor-mación del autor (si es individual), o de los autores (si el artículo es colectivo), mediante eldiligenciamiento de la Tabla 6. Para artículos colectivos se solicita que se multiplique la tablaformato, y se organice de acuerdo a la ubicación de cada autor en el encabezado del artículo. Tabla 6. Formato para la información de los autores Ítem Detalles Nombres: Apellidos: Insertar Fotografía Nacionalidad: reciente Fecha de nacimiento: Lugar de nacimiento: Documento de identificación: Título: Institución: Año obtención: Título: Institución: Información Año de obtención: académica Título: Institución: Año de obtención: Título: Institución: Año de obtención:244
    • Universidad de Manizales Facultad de Ciencias e Ingeniería Ítem Detalles Dirección: Ciudad: Información País: residencial Teléfono fijo: Teléfono móvil: Correo personal: Cargo: Institución: Dirección: Información laboral Ciudad: actual País: Teléfono fijo: Teléfono móvil: Correo laboral: Correo personal __ Correo laboral __ Correspondencia a residencia __ Correspondencia a oficina __ Contacto preferido Teléfono fijo residencia __ Teléfono fijo oficina __ Teléfono móvil personal __ Teléfono móvil laboral __ Artículos publicados en Autor. (Año). Título del artículo. En: Título de la revista. Número del volumen, los últimos dos años número de la entrega (mes). Lugar de publicación: Editorial. Paginación. ISSN. Participación en Autor. (Año). Título. En: Nombre del evento, (días/mes/año), Ciudad sede: eventos académicos en Organizador del evento. Denominación de las memorias, Paginación. ISBN o los últimos dos años ISSN.6. Árbitros de la revistaLa Revista Ventana Informática tiene un Comité Científico de Arbitraje conformadopor profesionales expertos en diferentes temáticas relativas al campo de acción de lapublicación, con título de posgrado y vinculados a universidades u otras empresas, querealizan el arbitraje de los artículos que han superado la evaluación de forma.Los árbitros, que como única contraprestación reciben un ejemplar de la publicación,evalúan máximo tres artículos por número de la revista, y aparecen en el listado deComité Científico de Arbitraje (Integrantes que realizaron arbitraje de artículospara este número), que se presenta en los preliminares de cada edición.Al ser este un medio de divulgación tecno-científica, al servicio de la sociedad aca-démica de la informática, las telecomunicaciones y la sociedad de la información y elconocimiento, se invita a los profesionales interesados en pertenecer a este comitépara que envíen su información, mediante el diligenciamiento de la Tabla 7. Tabla 7. Formato para información de árbitros Ítem Detalles Nombres: Apellidos: Insertar Fotografía Nacionalidad: reciente Fecha de nacimiento: Lugar de nacimiento: Documento de identificación: 245
    • Nº 25 - julio - diciembre / 2011 Ítem Detalles Título: Institución: Año obtención: Título: Institución:Información Año de obtención:académica Título: Institución: Año de obtención: Título: Institución: Año de obtención: Nombre del grupo: Cargo:Grupo(s) de Línea de investigación:investigación Nombre del grupo: Cargo: Línea de investigación:Temáticas que puedeevaluar Dirección: Ciudad:Información País:residencial Teléfono fijo: Teléfono móvil: Correo personal: Cargo: Institución: Dirección:Información laboral Ciudad:actual País: Teléfono fijo: Teléfono móvil: Correo laboral: Correo personal __ Correo laboral __ Correspondencia a residencia __ Correspondencia a oficina __Contacto preferido Teléfono fijo residencia __ Teléfono fijo oficina __ Teléfono móvil personal __ Teléfono móvil laboral __Artículos publicados en Autor. (Año). Título del artículo. En: Título de la revista. Número del volumen,los últimos dos años número de la entrega (mes). Lugar de publicación: Editorial. Paginación. ISSN.Participación en Autor. (Año). Título. En: Nombre del evento, (días/mes/año), Ciudad sede:eventos académicos en Organizador del evento. Denominación de las memorias, Paginación. ISBN olos últimos dos años ISSN.Otra informaciónrelevante246
    • Universidad de Manizales Facultad de Ciencias e Ingeniería7. Información adicionalPara la solicitud de los formatos o autorización para reproducción, la postulación comoárbitro de la revista o cualquier información adicional, el contacto puede hacerse porcorreo convencional escribiendo a:Revista VENTANA INFORMÁTICAFacultad de Ciencias e Ingenierías - Universidad de ManizalesTeléfono: +576 8899680 extensión 1689Fax: +576 8832718Carrera 9 No. 19-03Manizales, Caldas, ColombiaO bien, mediante correo electrónico a las cuentas:ventanainformatica@umanizales.edu.coventanainformatica@gmail.comEn caso de interés para establecer canje bibliotecario, se solicita hacerlo saber me-diante correo electrónico a la cuenta coleccion@umanizales.edu.co, de la Bibliotecade la Universidad de Manizales, con copia a la revista. 247