Cem medellin2012 memorias-formato_texto
Upcoming SlideShare
Loading in...5
×
 

Cem medellin2012 memorias-formato_texto

on

  • 1,045 views

 

Statistics

Views

Total Views
1,045
Views on SlideShare
1,028
Embed Views
17

Actions

Likes
0
Downloads
5
Comments
0

2 Embeds 17

http://masunad.com.co 13
http://www.masunad.com.co 4

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Cem medellin2012 memorias-formato_texto Cem medellin2012 memorias-formato_texto Document Transcript

  • Página 1INGENIERÍA ELECTRÓNICA 2SISTEMA DE CONTROL DOMÓTICO BAJO POWER ON RS/485. PhD(c). Juan Carlos Vesga Ferreira, Esp. Gerardo Granados Acuña ECBTI, Universidad Nacional Abierta y a Distancia UNAD, Bucaramanga, Colombia 9MIOFEEDBACK ANGYMIL. Orlando Harker S. Tutor-investigador adscrito a la Escuela de Ciencias Básicas e Ingeniería, Universidad Nacional Abierta y a Distancia UNAD, Bogotá, Colombia orlando.harker@unad.edu.co 16DISEÑO DIRECTO DE CONTROLADORES PARA SISTEMAS LINEALES USANDO EL MÉTODO VRFT Y EL ALGORITMO IPSO. Freddy Fernando Valderrama Gutiérrez. Escuela de Ciencias Básicas, Tecnología e ingeniería, Universidad Nacional abierta y a Distancia UNAD, Duitama, Colombia 24EL CAMINO HACIA AUTOMATIZACIÓN FARMACOLÓGICA. Diego Sendoya. Escuela de Ciencias Básicas, Tecnología e Ingeniería, UNAD, Neiva, Colombia 32EFECTOS DE LA RADIACIÓN ELECTROMAGNÉTICA SOBRE LA GERMINACIÓN DEL MAÍZ. Alexander Armesto Arenas. Facultad de Ciencias Agrarias y del Ambiente, Universidad Francisco de Paula Santander, Ocaña, Colombia 37LOCALIZACIÓN DE FUENTES DE ELECTROENCEFALOGRAFÍA BASADA EN MODELOS PARAMÉTRICOS. Jorge Iván Padilla Buriticá, Facultad de Ingeniería, Medellín, Colombia 40DISEÑO Y CONSTRUCCIÓN DE UNA ESTACIÓN AGROMETEREOOLÓGICA AUTOMATIZADA EN EL CENTRO BIOTECNOLÓGICO DEL CARIBE, SENA-CESAR, Armando Brito, Jair Barrios, Jaime Agudelo, Marcos Ortiz Centro Biotecnológico del Caribe-SENA Regional Cesar, Valledupar, Colombia 43SISTEMA DE ADQUISICIÓN DE DATOS DE BAJO COSTO, BASADO EN SOFTWARE Y HARDWARE LIBRE Y ABIERTO, CON INTERFACE MÓVIL. Jorge Gómez A., Conrado Nieto B. Escuela de Ingeniería, Programa de Ing. Electrónica, I. Universitaria Salazar y Herrera, Especialización Tecnológica en Desarrollo de Aplicaciones para Dispositivos Móviles, Centro de Servicios y Gestión Empresarial, Regional Antioquia SENA. Medellín, Colombia, Sur América. 50INGENIERÍA DE SISTEMAS 51PROYECTO DISEÑO DE MODELO AGENTE INTELIGENTE PARA APOYO A ESTUDIANTES EN AMBIENTES VIRTUALES DE APRENDIZAJE. Pilar Alexandra Moreno, Erika María Sandoval, Carlos Alberto Rojas1 Escuela de ciencias básicas, tecnología e ingeniería ECBTI, Universidad Nacional Abierta y a Distancia UNAD, Duitama, Colombia 59MECANISMO DE DETECCION COHERENTE PARA REDES ÓPTICAS DE ALTA VELOCIDAD. Edgar Rodrigo Enríquez Rosero. Escuela de Ciencias Básicas, Tecnología e Ingeniería, Universidad Nacional Abierta y a Distancia, Pasto, Colombia. 63INNOVACIÓN TECNOPEDAGOGICA APLICADA A LOS CURSOS DE FUNCIONARIOS Y DOCENTES COMPETENTES EN TIC. Víctor Fernando Cañón Rodríguez1, Leonardo Bernal Zamora. Escuela de Ciencias Básicas Tecnología e ingeniería, Vicerrectoría de Medios y Mediaciones Pedagógicas, Universidad Nacional Abierta y A Distancia UNAD, Tunja, Colombia 69USO DE PLATAFORMAS ROBÓTICAS COMO HERRAMIENTA EDUCATIVA. Evelyn Garnica Estrada. Facultad de Ingeniería, Corporación Universitaria Republicana, Bogotá, Colombia 74INNOVACIÓN EN EL DESARROLLO DE UNA APLICACIÓN MOVIL EN EL SECTOR AGRICOLA DE NORTE SANTANDER. Alveiro Rosado, Badwin Arévalo, Sir Alexci Suarez. Facultad de Ingenierías,
  • Universidad Francisco de Paula Santander Ocaña, Ocaña, Colombia 79PROYECTO DE AULA COMO DINAMIZADOR DE NÚCLEOS PROBLÉMICOS EN PROCESO ENSEÑANZA-APRENDIZAJE PARA DESARROLLAR SISTEMAS DE INFORMACIÓN. María Dora Alba Sánchez Gómez, Juan Evangelista Gómez Rendón, Escuela de Ciencias Básicas, Tecnología e Ingeniería, Universidad Nacional Abierta y a Distancia, Medellín, Colombia. 85ESCUELA, NTICS Y PEDAGOGÍAS ACTIVAS Santiago Botero-Sierra. Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia 89SOFTWARE DE ACCESO A INFORMACION INTITUCIONAL BASADO EN REALIDAD AUMENTADA EN LA UNIVERSIDAD FRANCISCO DE PAULA SANTANDER OCAÑA. Carlos Eduardo Lobo Jaime, Dewar Willmer Rico Bautista2 94EDUCACIÓN Y TECNOLOGÍA EN LOS PROCESOS COMUNICATIVOS. José Alejandro Franco Calderón Evelyn Garnica Estrada Facultad de Ingeniería, Corporación Universitaria Republicana, Bogotá, Colombia 99FORMACIÓN DEL DOCENTE EN CONTEXTOS B-LEARNING: IMPLICACIONES TECNOLÓGICAS, INVESTIGATIVAS Y HUMNISTICAS. Karolina González Guerrero, José Eduardo Padilla Beltrán, Diego Armando Rincón Caballero. Facultad de Educación y humanidades, Universidad Militar Nueva Granada, Bogotá, Colombia 106INGENIERÍA INDUSTRIAL 107IMPACTO EXPLORATORIO EN LA IMPLEMENTACION DE SISTEMAS DE CALIDAD Y AMBIENTAL EN LA GESTION Y PRODUCTIVIDAD DE LAS PYMES EN BOGOTA D.C. Oscar Alejandro Vásquez Bernal, Diana Patricia Díaz Velandia1 ECBTI, Universidad Nacional Abierta y a Distancia, Bogotá, Colombia 112DIAGNÓSTICO BASADO EN EL MODELO SCOR PARA LA CADENA DE SUMINISTRO DE LA EMPRESA MATECSA S.A. Investigador: José Ignacio Campos Naranjo Autores: Claudia Marcela Cruz Reyes, Juan Camilo Sánchez Rodríguez. Facultad de Ingeniería, Universidad Libre, Bogotá Colombia 118INTEGRACIÓN DE LOS SISTEMAS DE GESTIÓN PARA ACREDITACIÓN Y CERTIFICACIÓN DE LABORATORIOS. Adriano Cano Cuervo1, Jorge Acevedo Bohórquez2, Manuel Arturo Jiménez Ramírez 126ANÁLISIS DEL IMPACTO DE LA BUROCRACIA EN EL DESEMPEÑO DEL PROGRAMA DE INGENIERÍA INDUSTRIAL EN BOGOTÁ D.C. Manuel Jiménez1, Adriano Cano. Facultad de Ingeniería, Universidad de los Andes, Bogotá, Colombia 135ANÁLISIS DE LOS FACTORES QUE INCIDEN EN EL NIVEL ACTUAL DE IMPLEMENTACIÒN DEL SISTEMA DE GESTIÓN (ISO/TS16949) EN EMPRESAS DEL SECTOR AUTOPARTISTA. Nelson Vladimir Yepes González, John Jairo González Bulla. UAN, Regional Bogotá – Facultad de Ingeniería Industrial- Universidad Antonio Nariño 2012 141State of Knowledge Analysis to certification criteria for professional engineers Case Study in Colombia, United States, Canada, Guatemala, Honduras, El Salvador O. A.. Vásquez Bernal. National Distance Open University, Bogotá, Colombia. School of Basic Science, Technology and Engineering, Industrial Engineer Program. 147ANÁLISIS DE IMPACTOS ECOSISTÉMICOS GENERADOS POR LA EXPLOTACIÓN DE LA MINA PALACIO. FELIX ORLANDO AMAYA COCUNUBO ECBTI, Universidad Nacional Abierta y a Distancia, Bogotá, Colombia 150LA ECOEFICIENCIA COMO ESTRATEGIA DE CRECIMIENTO PARA LAS PYMES. William Eduardo Mosquera Laverde. Facultad de Ciencias Administrativas Económicas y contables, Universidad Cooperativa de Colombia, Bogotá, Colombia 158INGENIERÍA DE ALIMENTOS 159IMPLEMENTACIÓN Y VALIDACIÓN DE UN PANEL PARA LA EVALUACIÓN SENSORIAL DEL CACAO (Theobroma cacao) EN SAN VICENTE DE CHUCURI. Lucas Fernando Quintana Fuentes*, Salomón Gómez Castelblanco**
  • ECBTI, Universidad Nacional Abierta y a Distancia “UNAD”, Bucaramanga, Colombia. 166PRODUCCIÓN DE UNA BEBIDA ALCOHÓLICA DESTILADA TIPO LICOR A PARTIR DE LA FERMENTACIÓN DE UN JARABE HIDROLIZADO DE ALMIDÓN DE ÑAME (Dioscórea rotundata)CARLOS RAMÓN VIDAL TOVAR*, MARBELALVAREZ CASTELLAR, ALVARO ECHEONAMARTÍNEZ, Universidad Nacional Abierta y a Distancia – UNAD 171DISEÑO Y EVALUACIÓN DE UN EMPAQUE BIODEGRADABLE DE MORA EN FRESCO PARA LOS CULTIVADORES DEL DEPARTAMENTO DE RISARALDA. Carlos Cardona1, Henao Natalia. Facultad de Ciencias e Ingeniería, Fundación Universitaria del Área Andina, Pereira, Colombia 175EVALUACION DEL CONTENIDO DEL ÁCIDO ASCÓRBICO Y ACTIVIDAD PEROXIDASA SOBRE FLORETES DE BRÓCOLI (Brassica oleracea L, var. legacy), SOMETIDOS A PROCESO DE ESCALDADO Y LIOFILIZACIÓN. Golda Meyer Torres, Dairo Gil, Julie Carolina Parra, UNAD 181PURIFICACION DE UNA DEXTRANSACARASA (DS) PRODUCIDA POR LEUCONOSTOC MESENTEROIDES IBUN 91.2.98 CEPA NATIVA COLOMBIANA Glaehter Y. Flórez1, Sonia A. Ospina2, Gustavo Buitrago Hurtado3, Instituto de Biotecnología IBUN, Universidad Nacional de Colombia, Bogotá, Colombia.
  • INGENIERÍA ELECTRÓNICA
  • SISTEMA DE CONTROL DOMÓTICO BAJO POWER ON RS/485 PhD(c). Juan Carlos Vesga Ferreira, Esp. Gerardo Granados Acuña ECBTI, Universidad Nacional Abierta y a Distancia UNAD, Bucaramanga, Colombia Resumen En este trabajo se implementó un sistema inteligente básico didáctico asistido por computador para el control, supervisión, programación y ahorro de energía, mediante el uso del protocolo de comunicación RS/485 y una estructura de trama propia de tipo experimental. El sistema Domótico permite disponer de una vivienda o instalación dotada de un Sistema de Control capaz de realizar cualquier función que le pida. El módulo se programa de manera independiente a través del software de control según su identificación, lo que permite conformar sistemas de control distribuido en forma modular. Cada una de las salidas presenta funciones como: interruptor, interruptor programado, DIMMER para control de tensión aplicada a la carga. Este módulo didáctico servirá para el adiestramiento en todo lo referente a sistemas domóticos, incentivando, generando y capacitando a los estudiantes en el desarrollo de aplicaciones en el campo de la domótica y la inmótica. Palabras claves: Domótica, Control, Protocolo, Potencia. 1 INTRODUCCIÓN La Domótica se define como la integración en el hogar de los sistemas provenientes de sectores como el de la electricidad, la electrónica, informática, la robótica y las telecomunicaciones. El término “domótica”, derivada de las palabras doméstico e informático. No se trata de dar nombre a una nueva tecnología, sino a un conjunto de servicios integrados de la vivienda, para una mejor gestión de aspectos como el confort, la seguridad y el ahorro energético. En otro contexto también los franceses han respondido con una doble clasificación muy general; “domótica”, cuando se refiere a la vivienda, e “inmótica” cuando se refiere a la edificación no residencial (hospitales, hoteles, estaciones, plantas industriales, centros comerciales, edificios, otros.). Una vivienda es considerada Domótica, si incluye una infraestructura de cableado y los equipos necesarios para disponer de servicios avanzados en la misma; el conjunto de servicios de la vivienda está garantizado por sistemas que realizan varias funciones, las cuales están conectadas entre sí mediante redes interiores y exteriores de comunicación, que gracias a ello se obtiene un notable ahorro de energía, alto grado de comodidad, un nivel de seguridad y una nueva comunicación con el interior y/o exterior de la vivienda. En los sistemas informáticos fue donde se comenzó a utilizar el término ‘inteligente’ para distinguir aquellos terminales con capacidad de procesamiento de datos (inteligentes), de aquellos sin esa capacidad (no inteligentes). (Lamas, 2005). Esta capacidad de procesar automáticamente datos está íntimamente relacionada con la utilización de los microprocesadores y microcon- troladores; así, la incorporación de estos en distintas áreas ha hecho que se extienda comercialmente el uso de este sustantivo. Por ello, a pesar de que los llamados edificios inteligentes han sido objeto de la observación pública y han merecido la atención de los medios informativos, no puede decirse que exista una asimilación de los conceptos implicados, con denominaciones poco claras y en ocasiones engañosas. La Domótica se encarga de gestionar principalmente tres grandes campos de aplicación que son: el confort, la seguridad y la gestión de la energía. Actualmente, este tema es objeto de estudio al interior de un nuevo concepto denominado “Smart Grid”, el cual obedece a un nuevo concepto orientado al control, gestión y optimización de la red eléctrica. Un sistema domótico hace uso de una infraestructura de red y protocolos de comunicación especializados que permiten la interconexión de una serie de equipos y sensores, con el objetivo de obtener información en tiempo real sobre las variables a controlar en el entorno doméstico, generando con ello acciones sobre dicho entorno acorde con los resultados obtenidos en cada una de las mediciones. Para poder clasificar técnicamente un sistema de automatización de viviendas, es necesario tener claros una serie de conceptos técnicos, como son: Tipo de arquitectura, medio de transmisión, velocidad de transmisión y protocolo de comunicaciones. La arquitectura de un sistema domótico, como la de cualquier sistema de control, específica el modo en que los diferentes elementos de control del sistema se van a ubicar. Existen dos arquitecturas básicas: La arquitectura centralizada y la distribuida. Arquitectura Centralizada: Es aquella en la que los elementos a controlar y supervisar (sensores, luces,
  • válvulas.) han de cablearse hasta el sistema de control de la vivienda (PC o similar). El sistema de control es el corazón de la vivienda, en cuya falta todo deja de funcionar y su instalación no es compatible con la instalación eléctrica convencional en cuanto que en la etapa de construcción hay que elegir esa topología de cableado. Arquitectura distribuida: Es aquella en la que el elemento de control se sitúa próximo al elemento a controlar. En las arquitecturasdistribuidas, las redes de control pueden intercambiar datos mediante cables de pares trenzados, por corrientes portadoras sobre la misma red de baja tensión (powerlinecomunication), vía radio, por fibra óptica o con cable coaxial, siendo las dos primeras las de uso más frecuente. En los sistemas de arquitectura distribuida se deben de tener en cuenta para poder realizar comparaciones objetivas los siguientes criterios: Medios de transmisión, velocidad de transmisión, topología de la red y protocolos de comunicaciones. Entre los protocolos aplicados en domótica, el protocolo más extendido entre los diferentes elementos de la reddomótica es el X10, que utiliza la red eléctrica como medio de transmisión, aunque existen otros protocolos europeos como el EIB, CeBus, EHS y el llamado Lonworks. X-10 es uno de los protocolos más antiguos que se están usando en aplicaciones domóticas. Fue diseñado en Escocia entre los años 1976 y 1978 con el objetivo de transmitirdatospor las líneas de baja tensión a muy baja velocidad (60 bps en EEUU y 50 bps en Europa). Resulta muy económico ya que al usar las líneas de eléctricas de la vivienda, no es necesario tender nuevos cables para conectar dispositivos. (Sandoval 2000). Entre los sistemas propietarios más conocidos tenemos: Amigo, Biodom, Dialogo, Dialoc, Domolon, Cardio, SSI, Starbox, Simon Vox, Vantage, Crestron, Redes de datos, HomeRF, HomePNA, HomePlug, Middleware, HAVI, UpnP, JINI, HomeAPI, SWAP, OSGi y MHP, entre otros. La domótica se muestra como toda una promesa que revolucionará muchos hábitos facilitando las actividades mecánicas, monótonas o triviales, brindando mayor seguridad dentro del hogar. Por el momento, los altos costos de instalación de estos sistemas, hacen que la domótica llegue a un número limitado de usuarios; sin embargo, la tecnología seguirá su natural proceso exponencial de desarrollo, ofreciendo en un par de años más el acceso a estos sistemas integrales de control casero apta para toda la familia. 2 DESCRIPCIÓN DEL FUNCIONAMIENTO DEL MÓDULO DIDÁCTICO Figura 1. Esquema general del Módulo Didáctico una Vivienda Este sistema de control permite instalar un módulo en cada uno de los recintos a controlar. Cada módulo se encuentra constituido por tres entradas análogas y tres salidas, las cuales pueden manejar corrientes de hasta 20 amperios cada una. Adicionalmente, presenta dos terminales que se pueden utilizar como terminales para detección, conexión y configuración de sensores de humo, de humedad o de movimiento.En la figura 1, se ilustra el esquema general de conexión de los módulos domóticos en una vivienda. El módulo se programa de manera independiente a través del software de control según su identificación, lo que permite conformar sistemas de control distribuido en forma modular, además presenta protección de sobre corrientes, debido a que posee fusibles en caso de sobrecargas de energía a través de alguna de sus salidas. El módulo presenta dos conectores de tipo RJ-45 mediante los cuales se efectúa la comunicación, energización del módulo y conexión con la red de módulos inteligentes. Las principales características son: • Se utilizó Topología BUS para la conexión de los módulos, permitiéndose un máximo 15, debido a que se utilizó 4 bits para la identificación de cada módulo. • El protocolo de comunicación utilizado para la capa física es el RS-485, el cual permite transmisión de datos serial, con una distancia máxima entre el primero y el último módulo de 1 kilómetro según especificaciones del fabricante Texas Instrument, como norma para el uso del circuito integrado SN75176 utilizado para tal fin. • Fácil instalación
  • • Cada una de las salidas presenta funcionescomo: interruptor, interruptor programado, DIMMER para control de tensión aplicada a la carga. El sistema Domótico permite disponer de una vivienda o instalación dotada de un Sistema de Control capaz de realizar cualquier función que le pida. Comunicarse, proteger el establecimiento, controlar encendido y apagado de electrodomésticos, luces, toma corrientes incluyendo una gran variedad de controladores conectados por medio de una red bajo el uso de cable UTP como medio físico de transmisión. La alimentación de cada módulo al igual que la comunicación se transmite a través de este medio. Entre las funciones implementadas en el módulo domótico se pueden mencionar: • On/Off • Dimmer • Verificación del estado de comunicación • Cambio de número de identificación del módulo • Verificación de estado (Activado o desactivado) de sensores. • Programación de horarios On/Off • Habilitación y deshabilitación de salidas gobernadas por triacs. En la etapa de potencia se puede dividir en dos partes: • Detector de fase y cruce por cero • Generación de señales de control para activación de los triacs a un ángulo dado. 2.1 Detector de fase y cruce por cero. El detector de fase y cruce por cero, consiste en un circuito que se encarga de sensar la señal presente en la red eléctrica, señal que permite indicarle al microcontrolador los instantes en los cuales la onda de 60Hz cambia de semiciclo positivo a negativo y viceversa. El detector de fase está conformado por un divisor de tensión tal como se muestra en la figura 2, mediante una resistencia de 100k (la cual soporta la mayor parte del voltaje) y un diodo zener de 5.1V, el cual durante el semiciclo positivo se comporta como un regulador de 5V y durante el semiciclo negativo se comporta como un corto circuito. Figura 2. Detector de fase y cruceporcero A la salida del optotransistor se tiene una señal cuadrada de 5v a 60hz, la cual es enviada directamente al microcontrolador para ser analizada y cuantificar con precisión el ángulo de disparo deseado para los Triacs. La onda es aplicada al pin RB0 del Microcontrolador PIC16F84, el cual por medio de la interrupción externa detecta los flancos ascendentes o descendentes de la señal, identificando de esta manera el comienzo de un semiciclo. Figura 3. Formas de Onda presentes en el detector de fase y cruce por cero El voltaje presente en el Zener es aplicado a un circuito serie conformado por una resistencia de 220 y un led perteneciente a un optotransistor. Cuando el voltaje del Zener es de 5V, el led del optotransistor enciende, provocando que el transistor entre en modo saturación y el voltaje de salida sea de 5V. Cuando el voltaje del Zener es de 0V, el led del optotransistor se apaga, provocando que el transistor se comporte como un circuito abierto y el voltaje de salida sea de 0V. Este circuito entrega una señal de 5Vpp al optotransistor, el cual aísla la señal de la red eléctrica de los circuitos de control. En la figura 3, se muestran las señales presentes en el detector de fase y cruce por cero. Hay que observar que en este circuito ocurren dos cosas interesantes:
  • El ancho correspondiente a los niveles a voltaje de salida no son iguales, lo qu pequeño error en el disparo de los triacs. El error mencionado se debe al tiempo q en alcanzar su tensión regulada, la aproximar al instante en el que el voltaj fase sea igual a 5.1V. Este error se refleja ángulo de error, calculado aproxima siguiente forma: ERROR M M V ARCSEN SENV qq q =÷÷ ø ö çç è æ = = 1.5 )(*1.5 En casos generales podemos asumir reemplazando en la ecuación obtenemos q o ARCSEN qq ==÷ ø ö ç è æ = 72.1 170 1.5 Lo que indica que el error en el ángulo d triac se puede considerar despreciable. semiciclo positivo, el ángulo de error será semiciclo negativo será de -1.72o . 2.2 Interfase para activación de un triac Este circuito, el cual se puede observar en que permite activar el TRIAC en un dete de tiempo desde el microcontrolador, real entre este y la parte de potencia median Esta activación en pruebas experimental muy estable y libre de activaciones transitorios existentes en la red eléctrica. Figura 4. Circuito de disparo para TR El pulso de disparo que es aplicado a es desde el microcontrolador y tiene una grado (16.66ms/360), equivalente a 50 mente. En este caso como cada módulo dad de controlar tres TRIACs, se requier de estos por cada TRIAC y por cons independiente de disparo desde el m utilizándose RB1,RB2 y RB3 para tal fin. 2.3 Rutinas que activan los triacs en un En el microcontrolador se configuraron activación de cada uno de los TRIACs disparo específico, las cuales actúa alto y bajo en el ue conlleva a un que tarda el zener cual se puede je instantáneo de a realmente en un adamente de la R a VM=170V, y que: ERRORq de disparo de un Ya que para el á de 1.72o y en el c n la figura 4, es el erminado instante lizando el acople nte un optotriac. les demostró ser falsas debida a TRIACs ste circuito viene duración de un 0µs aproximada- tiene la posibili- re de un circuito siguiente un pin microcontrolador, ángulo dado n rutinas para la a un ángulo de an de manera sincronizada con el detector d el instante en el cual se cum ángulo de disparo, se aplica u través del pin correspondiente activar. 2.4 Rutinas para el control d Esta rutina permite controlar en forma ascendente o descen de tensión, pasando de tensió un tiempoa proximado de 5 recibe el valor del nuevo áng con el ángulo de dispar disminuyendo su valor según 2.5 Etapa de comunicación y el computador personal PC La comunicación serial, como la transferencia de informac datos descompuestos en secuencialmente uno tras otro Association) ha desarrollado es RS232 y RS423, que tratan c Estos estándares previamente para indicar que eran los est actualidad se les denomina están Las transmisiones en modo D diferencial balanceadas o equ prestaciones en procesos de señales diferenciales puedena del offset y señales de ruido in como tensiones de modo co transmitir se codifican y dec diferencial entre dos conducto corresponde al “0” lógico. Mient corresponde al “1” lógico). El ra soportable va de -7 a +12 V.R diseñado para grandes distan velocidades de transmisión (ha especifica hasta 32 emisores y de 2 hilos. 2.6 Comunicación serial con En el entorno de los mic establecer comunicaciones se que poseen funciones y regist como la familia 8X5X d Microchip, que se encargan relacionados a las comu previamente se han definido microcontrolador no posee im comunicaciones seriales, com de fase y cruce por cero. En mple el tiempo equivalente al un pulso de duración 46µs a e según el triac que se desea de tensión la tensión aplicadaa la carga, ndente, generando una rampa ón cero a tensión máxima en segundos. En esta rutina, se gulo de disparo y se compara ro actual, aumentando o el caso. entre el módulo de control C. o su nombre lo indica, realiza ción enviando o recibiendo bits, los cuales viajan o. La EIA (Electronics Industry stándares para RS485, RS422, con comunicaciones de datos. se les reconocían como "RS" tándares recomendados, en la ndares EIA. Diferencial (señales en modo uilibradas) ofrecen mayores e comunicación serial. Las a yudar a anular los efectos nducido que pueden aparecer omún en la red. Los datos a codifican en forma de voltaje ores (Si Va - Vb es < -0.2V, tras que si Va - Vb es > +0.2 V, ango de voltaje en modo común RS/485 (modo diferencial) fue ncias (hasta 1200m) y altas asta 100 Kbits/s). El estándar 32 receptores en un único bus n el Microcontrolador crocontroladores es posible eriales, e incluso hay algunos tros especiales para ello, tales e Intel o PIC16F87X de manejar todos los aspectos unicaciones asíncronas, si sus parámetros. Aún, si un mplementada la opción de las mo es el caso del PIC16F84,
  • ésta se puede implementar conociendo el proceso de transmisión serial asíncrono. Como el microcontrolador PIC16F84 no posee rutinas ni registros propios para comunicación serial, como ocurre con la familia PIC16F87X, fue necesario implementar las rutinas para transmisión y recepción serial. El proceso de comunicación se ha establecido a 2400 baudios, sin paridad, 8 bits de datos y un bit de parada. Tal como se ilustra en la figura 5. En el microcontrolador se utilizó el pin RA0 para recepción y RA1 para transmisión Figura 5. Estructura para envío/recepción de bit serialmente En este caso, el dato a transmitir debe estar en un registro de la RAM al que se ha denominado TRANSM. Igualmente, se utilizó en el microcontrolador el pin RA1 como línea de transmisión de datos. Los cuatro bits menos significativos corresponden al número de identificación del módulo (numerando los módulos de 1 a 15, el 0 no se utiliza por ser valor neutro en casos como cambio ángulo de disparo). Figura 6. Protocolo de Comunicación Los cuatro bits más significativos corresponden a la orden que se desea ejecutar. En la tabla 1 se muestra el listado de órdenes, con su respectivo código y función. Tabla 1. Listado de órdenes ejecutadas por el módulo domótico ORDEN CÓDIGO FUNCIÓN 0 0000 NO HACE NADA "COMODIN" 1 0001 DIMMER 2 0010 VERIFICAR ESTADO DEL SENSOR (ACTIVO O NO) 3 0011 ON_OFF 4 0100 CABIAR CONFIGURACION INTERRUPTOR - DIMMER 5 0101 CAMBIAR EL NUMERO DEL MODULO EN EEPROM 6 0110 LEER EL NUMERO DEL MODULO 7 0111 VERIFICAR ESTADO DE LA COMUNICACION 8 1000 LEER CONFIGURACION DEL MODULO 9 1001 HABILITAR Y DESHABILITAR SALIDAS Como se requiere de una interfase que permita convertir los niveles RS-232 a niveles RS-485. En el proyecto se utilizó el MAX232 como un integrado que permite convertir los niveles RS-232 a niveles TTL, y el integrado SN75176, que permite la conversión de niveles TTL a niveles RS-485. El SN75176, es un integrado fabricado por Texas Instrument, y permite configurarse como transmisor o como receptor, siendo necesario la implementación de dos integrados de este tipo, configurados como transmisor y receptor respectivamente, empleando como medio físico de transmisión cable UTP sin blindaje (según recomendaciones de la Texas Instrument); el esquema final de esta interfase se ilustra en la figura 7. Figura 7. Interfase de comunicación RS232/485 Figura 8. Onda correspondiente al valor 85 (01010101) recibida en PIC16F84 a través del pin RA0 a 2400 baudios La figura 8, muestra la forma de onda recibida en PIC16F84 a través del pin RA0, cuando desde el PC se envía serialmente el número 85 (01010101) a una velocidad de 2400 baudios, 8 bits de datos, un bit de
  • parada y sin paridad. La figura 9, ilustra la forma de onda correspondiente al valor 85 bajo el protocolo RS/485. Figura 9. Onda correspondiente al valor 85 (01010101) tomada entre los terminales T+ y T- del SN75176 (RS485) 2.7 Comunicación serial con el computador personal En esta aplicación se establece la comunicación serial entre el microcontrolador y el PC, empleando las rutinas de transmisión y recepción mediante Visual Basic. Para la utilización del puerto serial en Visual Basic se debe utilizar un control ActiveX llamado MICROSOFT COMM CONTROL, el cual permite manipular las comunicaciones seriales desde cualquier puerto serial existente en el PC y a velocidades configurables por el usuario. 2.8 Descripción del funcionamiento del software. El software de control permite obtener una visualización de toda la vivienda controlada, indicando zonas donde hay y no hay energía, dónde hay instalados sensores y su condición (activados o desactivados), aires acondicionados, tomas controladas, y otros elementos domóticos; lo que facilita el control de actividades. El software fue diseñado en Visual Basic 6.0 y es el encargado de realizar el control domótico, está constituido por dos formularios, uno de ellos es el formulario principal en el cual se puede construir el plano de la vivienda por plantas o pisos. Figura 10. Formulario Principal Módulo Domótico El otro formulario es el formulario de configuración de los módulos domóticos, en el cual se pueden programar las diferentes funciones de los módulos tales como horarios de funcionamiento, Dimmer, estado de los interruptores, verificación de la comunicación, habilitación de salidas de potencia y configuración de numeración del módulo. Este formulario sufre cambios o modificaciones en su aparien- cia según el tipo de módulo que se está trabajando. Figura 11. Cuadro de Elementos Elementos domóticos. En este cuadro se encuentran todos los elementos necesarios para la configuración del sistema domótico. En esta zona encontramos aquellos elementos que nos permiten dibujar el plano residencial, ilustrando paredes, lámparas incandescentes, toma corrientes, electrodomésticos, aires acondicionados, sensores de movimiento, sensores de humo, sensores de temperatura, interruptores sencillos, interruptores dobles e interruptores triples, los cuales son equivalentes a los módulos domóticos indicando cuantas salidas desean controlar como máximo. Por ejemplo, si se dibuja un interruptor doble significa que el módulo al cual representa, de las tres salidas que posee solamente utilizará dos y siempre se encontrará una salida deshabilitada.
  • Figura 12. Ventana de Configuración de función Dimmer y monitoreo de Sensores La ventana mostrada en la figura 12, permite habilitar y deshabilitar las funciones de Dimmer y detección de estado del sensor (Activado o Desactivado) conectado al módulo domótico. Cuando se habilita la opción Dimmer, el control de tensión suministrado a la carga (Min = 0% de tensión, Máx. = 100% de tensión), se debe efectuar utilizando el deslizador que se muestra en la figura siguiente. Figura 13. Deslizador para control de tensión suministrada a la carga Figura 14. Ventana para habilitación de salidas En la figura 14, se muestra la ventana que permite habilitar y deshabilitar las salidas controladas por los triacs que gobiernan la parte de potencia. Figura 15. Ventana de programación de horario ON/OFF En la figura 15, se muestra la ventana de configuración de horario On/Off de las salidas del módulo domótico, indicando la hora de encendido, la hora de apagado y se selección de los días en que se utilizará este horario. Se debe tener en cuenta que para habilitar esta función, se debe seleccionar la opción “Programar horario”. 3. CONCLUSIONES La comunicación se realizó empleando un sistema similar al maestro-esclavo, donde el PC hace las veces de maestro y es el encargado de enviar las órdenes y la configuración de cada uno de los módulos domóticos conectados a la red. El módulo, que hace las veces de esclavo, retransmite una trama (dirección + función) que recibió como orden, con lo cual el controlador o maestro compara bit a bit la trama recibida con la enviada confirmando que el módulo domótico recibió la orden correctamente. Debido a que los datos a transmitir no son de gran extensión, se opto por utilizar un protocolo de comunicación propio, que permite configurar todos los equipos que se vayan a conectar a la red. El sistema no detecta la presencia de equipo conectado a la red sin configuración previa. Se logró variar el ángulo de disparo de los Triacs grado a grado y de maneraprecisa, gracias a la exactitud que se pudo alcanzar con el microcontrolador, debido a que este brinda las ventajas de trabajar con un cristal de cuarzo y no con una red de tipo RC con la cual se hace convencionalmente. El sistema de comunicación mediante el uso de cable UTP como medio físico de transmisión, se comportó de manera estable, baja interferencia por fuentes electromagnéticas, permite comunicación a velocidades superiores a la establecida en el prototipo, facilidad de implementación y construcción, presenta un tamaño reducido, permite alcanzar mayores distancias en comparación con otros protocolos, reduce el empleo de redundancia en la comunicación. REFERENCIAS [1]Ceballos, Francisco Javier. (2000). Visual Basic 6.0. 2 ed. México, Ed. McGraw-Hill.ISBN 92-315-2116-6. [2]Gonzalez, Nestro. (1998). Comunicaciones y redes de procesamiento de datos. 3 ed. México, Ed. Mc Graw- Hill. ISBN 968-880-958-6. [3]Lamas, Javier. (2005). Sistemas de control para viviendas y edificios. 1 ed. México, Ed. Paraninfo, 1998. ISBN 84-283-2515-4. [4]MICROCHIP TECHNOLOGIES. (2002). PIC16F84 User’s Guide : Software versión 5.1 ,Microchip Technologies. [5]Rashid, Muhamed. (1993). Electrónica de Potencia. 2 ed. México, Ed. Prentice Hall. ISBN 968-880-586-6. [6]Sandoval, Juan. (2000). Domótica. 1 ed. México, Ed. Paraninfo, 1999. ISBN 84-283-2819-5. [7] Smith, Sedra. (1998). Circuitos y Microelectrónica. 4 ed. Oxford University Press,Inc. ISBN 0-19-511690-9. [8]Stallings, William. (2000). Comunicaciones y redes de computadores. 6 ed. Madrid, España: Pearson Educación. ISBN 84-205-2986-9. [9]Vesga, Juan. (2011). Sistema de control domótico utilizando la red eléctricac omo medio físico de transmisión. Revista Generación Digital Vol. 9 No. 1. Edición 16. ISSN 1909-9223.
  • MIOFEEDBACK ANGYMIL Orlando Harker S. Tutor-investigador adscrito a la Escuela de Ciencias Básicas e Ingeniería, Universidad Nacional Abierta y a Distancia UNAD, Bogotá, Colombia orlando.harker@unad.edu.co Resumen El Miofeedback capaz de adquirir, procesar, y visualizar las señales tomadas en la superficie del musculo bíceps, se diseñó e implemento como proyecto de grado presentado por las Ingenieras Yudy Milena Canizales y Ángela Jazmín Arévalo, bajo la dirección del autor, y para producción industrial en Colombia a través de Phoenix EM. Se desarrolló en tres fases, así: La primera fase consistió en el diseño del acondicionador de señal, el cual incluyó los amplificadores de niveles, los filtros pasa bajas, pasa altas y notch. Se diseñó e implemento el sistema de aislamiento y protección del equipo y del paciente. La segunda fase consistió en el procesamiento digital de la señal obtenida. La tercera fase fue la visualización de la señal por medio de un software realizado en LabVIEW. Se obtuvo finalmente un prototipo de acuerdo con los objetivos que se establecieron conjuntamente con la empresa Phoenix EM. Ltda. Palabras claves: Miofeedback, filtros pasa altas, filtros pasa bajas, filtros notch, adquisición no invasiva, procesamiento digital. Abstrac: The Miofeedback is able to acquire, process, and visualize signals taken from the surface of the biceps. It was designed and implemented as a thesis project by the engineers Yudy Milena Canizales and Ángela Jazmín Arévalo, under the supervision of the author, and for the industrial production in Colombia through Phoenix EM Ltd. The project was designed in three mayor phases: The first phase comprised the signal conditioner design which included level amplifiers, low pass and high pass filters, and notch. The isolation and equipment protection system, as well as the system for the patient were designed and implemented. The second phase consisted on the digital processing of the obtained signal. The third phase was endeavored to the signal visualization trough a software designed by LabVIEW. Finally, a prototype according to the established objectives was obtained jointly with Phoenix EM Ltda. Keywords: Miofeedback, low pass filters, high pass filters, non-invasive acquisition, digital processing. 1 INTRODUCCIÓN La miografía es una técnica de la electromedicina que nos permite realizar la medición y diagnóstico del estado de los músculos. Esta ha tenido un gran desarrollo en las décadas recientes. Los intentos por desarrollar sistemas de miofeedback eficientes y confiables han sido muchos en la década 2000 y comienzos de la década 2010. Uno de los problemas que más ha llamado la atención de los investigadores es el acondicionamiento de la señal muscular cuando esta es adquirida superficialmente (con métodos no invasivos). Los desarrollos que se han tenido en el procesamiento digital de señales, ha llevado al desarrollo de filtros que han conseguido un buen acercamiento a la solución del problema de interferencias, y poder liberar la señal de las interferencias externas e internas del sistema. No obstante, aunque teóricamente se ha conseguido eliminar la interferencia de la red de alimentación, los filtros digitales no han conseguido este propósito, y se ha recurrido a seguir utilizando la jaula de Faraday para garantizar el filtrado de las interferencias externas. Con esto se soluciona en buena parte el problema de las interferencias, pero siguen coexistiendo con el sistema los problemas de las interferencias en la frecuencia de 60 Hz por factores internos. La presente investigación ha buscado diseñar y desarrollar los filtros notch análogos, obteniendo los resultados que se muestran a continuación.
  • 2 DESARROLLO TECNOLÓGICO En una primera fase se diseña y desarrolla los amplificadores y filtros análogos de frecuencia. Las principales fuentes de ruido que afectan las señales mioeléctricas son las siguientes: •••• El ruido inherente en los componentes electrónicos. Todos los equipos electrónicos generan un ruido, cuyas características en frecuencia comprenden un rango desde 0Hz a cientos de Hertz, este ruido no puede ser eliminado, tan solo puede ser reducido por equipos electrónicos de alta calidad, diseño del circuito y técnicas de construcción. •••• El ruido del ambiente. Cualquier mecanismo que genere electromagnetismo contribuye al ruido, como es la transmisión de radio y televisión, cables de poder eléctrico, bombillos, lámparas fluorescentes, etc. Este ruido es inevitable, la principal fuente de ruido que debemos tener en cuenta en el ambiente, y en general que afecta la señal, es el proveniente de las fuentes de energía con una frecuencia de 60Hz. La señal de ruido en el ambiente tiene una amplitud del orden de uno a tres veces mayor que la señal mioeléctrica. •••• Movimiento de las partes. Hay dos principales movimientos en los componentes del sistema, uno de ellos se encuentra en la interface de detección, entre la superficie del electrodo y la piel. El otro movimiento se encuentra en el cable que conecta el electrodo al amplificador. •••• La inestabilidad de la señal. La amplitud de la señal es por naturaleza cuasi-aleatoria. Los componentes de frecuencia en el rango de 0 a 20Hz son particularmente inestables, por lo que es recomendable considerarlas como ruido indeseado y quitarlas del sistema. El ruido que más afecta, en la práctica, es el proveniente de las fuentes de alimentación de energía eléctrica. Para solucionar esto, la primera medida que se toma es la de utilizar un cable blindado para la conexión de los electrodos con el amplificador. Las mallas que blindan cada uno de los cables se conectan unidas al circuito y a través de éste a la referencia del mismo; de este modo, las perturbaciones se encuentran con un escudo” que presenta un potencial fijo, que es la malla que blinda los conductores de la señal mioeléctrica, por lo que no contaminan la señal. La segunda medida, se representan las señales mioeléctricas percibidas por cada electrodo como m1 y m2. Como ambos cables recorren aproximadamente la misma distancia desde el electrodo hasta el amplificador diferencial, y asumiendo que ambos puntos de medición se encuentran expuestos a la misma contaminación electromagnética del ambiente, resulta razonable concluir que el ruido sobre cada una de las señales m1 y m2 al entrar al circuito es casi idéntico para ambas. La señal mioeléctrica es representada por “m” y la señal de ruido por “n”. La respuesta que entrega el amplificador diferencial es la resta de las dos señales de entrada contaminadas, es decir: SeñalEMG = (m1 + n) – (m2 + n) = m1 – m2 [1] Se obtiene entonces la diferencia pura entre las dos señales mioeléctricas registradas. Pre amplificación Teniendo en cuenta las características de la señal mioeléctrica, es indispensable que pase por una etapa de amplificación debido a su pequeña amplitud, ésta señal es afectada en gran parte por el ruido. El amplificador diferencial se selecciona en esta etapa teniendo en cuenta su característica de eliminación de ruido, de este modo la selección de un amplificador debe tener como criterio principal un CMR alto, los amplificadores de instrumentación (INA) tienen un CMR que cumple esta condición. Teniendo en cuenta que la amplitud de la señal electromiográfica va desde 0 hasta 6mV y que los factores que influyen en la fidelidad de la señal es el ruido y la precisión, para esta etapa se empleó el circuito integrado INA114 de Burr- Brown, un amplificador diferencial de instrumentación que ofrece una excelente precisión, un rechazo de modo común (115dB a G = 1000). El valor de 50K , a partir de la cual se realizan los cálculos de ganancia, viene de la suma de las dos resistencias de realimentación internas de los amplificadores uno y dos (A1 y A2), como se observa en la siguiente figura. Fig. 1: Diagrama eléctrico de amplificador para instrumentación Fuente: www.datasheetcatalog.com. Este amplificador contiene internamente tres amplifi- cadores, los cuales realizan la diferencia entre las dos señales que le ingresan, pues la señal EMG se toma de dos partes del brazo, y hace la amplificación de la diferencia
  • dependiendo de la ganancia que se defina, en este caso se establece una ganancia aproximadamente de 50. Al establecer la ganancia se puede determinar RG por la siguiente forma: [2] Las pruebas se realizaron con la señal miográfica del musculo bíceps y con una ganancia de 10, 20, 30, 40, 50, 100, 200, 300, 400 y 500, observando que la señal se adquiere mejor y más definida amplificada 50 veces. Filtrado Se realiza diseño e implementación de los filtros pasa banda. Teniendo en cuenta que las señales mioeléctricas se generan en un rango de frecuencia de 0 a 500Hz, y que se deben eliminar las altas y las bajas frecuencias que habitualmente se consideran como ruido, se diseña y realiza un filtro pasa-banda de Butterworth de 60dB/década de 20Hz a 500Hz, este se compone de un filtro pasaaltas y de un filtro pasa-bajas de 60dB/década, este filtro fue elegido por su mayor eficiencia ya que un pasa-altas y pasa-bajas de -20dB/década tiene un ángulo de -45 a c , un filtro Butterworth de -40dB/década tiene un ángulo de fase de -90 a c y un filtro de -60db/década tiene un ángulo de fase de -135 a c, el filtro Butterworth es además lineal. Las frecuencias de corte están en 20Hz y 500 Hz. Finalmente se diseña el filtro de muesca (Notch), el cual atenúa el ruido que produce la señal eléctrica, es decir 60Hz. Fig. 2: Diagrama eléctrico de filtro pasa-altas Fuente: Autor Filtro pasa altas Veamos: La función de transferencia que describe este sistema es: Veamos entonces el diseño realizado: Como se puede observar en la siguiente figura, la señal en 20 Hz sale (señal en rojo) con amplitud de 65% y la misma fase. A partir de 25Hz encontramos que la señal de salida es igual a la de entrada. Fig. 3: Respuesta de filtro pasa-altas Fuente: Autor Filtro pasa bajas La siguiente es la configuración del filtro pasa bajas:
  • Fig. 4: Diagrama eléctrico de filtro pasa-bajas Fuente: Autor Filtro pasa bajas La función de transferencia que describe este sistema es: Veamos entonces el diseño realizado: Fh=500Hz con C3=10nF C1=1/2C3=5 nF C2=2C3=20 Nf Las pruebas se realizaron de la misma forma que en el filtro pasa altas, ingresando una señal senoidal a la entrada. Fig. 5: Respuesta de filtro pasa-bajas Fuente: Autor Como se puede observar en la figura, la señal en 523HZ se encuentra atenuada en un 70%, confirmando un funcionamiento correcto a la frecuencia de corte superior. Al tener funcionando los dos filtros (pasa altas y pasa bajas), se procede a unirlos en cascada para obtener el pasa banda entre 20 y 500 como se observa en la siguiente figura. Fig. 6: Respuesta de filtro pasa-banda Fuente: Autor Filtro rechaza banda Este filtro se construye con un filtro pasa banda más un sumador inversor para eliminar la frecuencia de 60Hz. Fig. 7: Diagrama eléctrico de filtro rechaza banda Fuente: Autor
  • fr=60Hz Como se puede observar en la figura, la señal de 60Hz se encuentra atenuada más del 70%, esto nos garantiza la no interferencia de ésta frecuencia sobre nuestra mioseñal. Protección al paciente y amplificación La protección al paciente está compuesta por 4 etapas, como se observa en la siguiente figura. La Etapa 1 es el sumador, la etapa 2 es el optoaislador, la etapa 3 es el restador y la etapa 4 es el inversor y amplificador que Fig. 8: Respuesta filtro rechaza banda Fuente: Autor Fig. 9: Diagrama eléctrico de protección y amplificación Fuente: Autor entrega la señal a nuestro acondicionador ya descrito. Procesamiento digital de la señal Para realizar la conversión análoga digital se utiliza la tarjeta de adquisición de datos DAQ NI USB 6008 de la National Instrument conectada en modo diferencial con una frecuencia de muestreo de 5KHz. Es claro, establece el teorema de Nyquist, la frecuencia de muestreo debe ser al menos el doble de la componente frecuencial más alta de la forma de onda que se quiere registrar, que para el caso de las señales mioeléctricas se encuentran en el rango de 20Hz a 500Hz donde las de mayor concentración están ubicadas en el rango de los 50Hz y 150Hz. La resolución en la medida del voltaje depende del número de bits dígitos binarios del conversor. Con 12 bits, la ventana total de diferencia de potencial de la señal proveniente del amplificador queda dividida en 4.096 (212) valores discretos de amplitud. La cuantización se realiza mediante el siguiente procedimiento: Donde: Considerando el retenedor de orden cero:
  • Obtenemos nuestra señal como: Donde: Aplicamos a ésta el algoritmo DFT (mediante el macro LabView) y obtenemos finalmente: Se aplica a ésta el algoritmo de la FFT y se obtiene en la reconstrucción de la señal, mediante el interface gráfico, lo siguiente: Fig. 10: Comparación de respuestas sin filtro y con filtro En la figura se puede observar una comparación de tres señales las cuales fueron visualizadas en el osciloscopio tektronix y en la interfaz gráfica de labVIEW: La que está en amarillo fue visualizada en el osciloscopio tektronix de la Universidad de Cundinamarca donde se observa una interferencia eléctrica producida por el mismo osciloscopio, esto hace que la señal mioeléctrica se observe con ruido. La segunda que se encuentra en la parte superior derecha y la tercera en la parte inferior derecha fueron visualizadas mediante la plataforma labVIEW donde se observa que el filtrado digital es necesario pues la interferencia captada es demasiado grande. La precisión de la reproducción es superior al 99%, y la exactitud es de 99.6%. 3 CONCLUSIONES Al Miofeedback diseñado e implementado, se le realizó pruebas in situ, bajo la supervisión y con la colaboración de personal médico del hospital Santa Clara, Misericordia, Instituto Roosevelt y hospital occidente de Kennedy se confirma el funcionamiento del prototipo MFB que se diseñó e implemento con los requerimientos establecidos por la empresa Phoenix EM. Se requiere un trabajo riguroso de investigación con el fin de complementar el proceso realizado hasta el momento. Quizás para la parte más crítica del sistema, cual es el filtro, y en particular el filtro para suprimir el ruido presente en las señales de EMG de superficie corresponde a 60 Hz. provenientes la red eléctrica, se observa que la mejor forma de filtrar esta señal es utilizando un filtro análogo por su efectividad y fácil implementación. Este proceso de investigación ha arrojado algunos datos interesantes como aporte en el estudio de la instrumentación biomédica, pero su principal aporte es, a no dudarlo, la plataforma de investigación que se ha dejado como base para futuras investigaciones en el área de la bioingeniería. 4 BIBLIOGRAFIA [1] Acondicionamiento de señales mioeléctricas Disponible en: http://biblioteca.utp.edu.co/tesisdigitales/texto/6213822A4 73as.pdf [Consultado 10 de junio de 2009]. [2] Amplificadores de instrumentación Disponible en: http://www.profesaulosuna.com/data/files/ELECTRONIC A/INSTRUMENTACION/amplif%20de%20instrumentac ion/t2.pdf [Consultado 10 de junio de 2009]. [3] Amplificadores Operacionales. Disponible en: http://www.superpbenavides.com/catalogo/componentes% 20activos/amplificadores/Amplificador%20Operacional.p df [Consultado 2 de noviembre de 2009]. [4] Análisis de Señales EMG Superficiales y su Aplicación en Control de Prótesis de Mano Disponible en: http://pisis.unalmed.edu.co/avances/archivos/ediciones/Ed icion%20Avances%202007%201/16.pdf [Consultado 28 de junio de 2009]. [5] Caracterización de señales electromiográ-ficas para la discriminación de seis movimientos de la mano. EMG signals characterization for discrimination of six-hand movements.
  • Disponible en: http://www.utp.edu.co/php/revistas/ScientiaEtTechnica/do csFTP/222942278-283.pdf [Consultado 18 de mayo de 2008]. [6] Compañía industrial PHOENIX ELECTROMEDICINA LTDA. Disponible en: http://www.phoenixem-co.com [Consultado 5 marzo de 2009]. [7] conducción nerviosa Disponible en: http://fcm.uncu.edu.ar/medicina/area/fisica/apuntes/06 Conduccion nerviosa.pdf [Consultado 13 de julio de 2009]. [8] COUGHLIN, Robert F. Amplificadores operacionales y circuitos integrados lineales. Quinta edición. Mexico: Prentice Hall, 1999. 518p. (Biblioteca Universidad de La Salle; no. 970-17-0267-0. [9] Dalcame, grupo de investigación biomédica. Disponible en: http://www.dalcame.com/emg.htm [Consultado 10 de octubre de 2009]. [10] DelSys Incorporated. Surface Electromyography: Detection and Recording. DelSys Incorporated. Disponible en: http://server.oersted.dtu.dk/personal/jw/Courses/31654/pd f/semgintro.pdf [Consultado 10 de febrero de 2008]. [12] Biomedical Engineering and Design Handbook, (2009), Myer Kutz, editor, Second edition, Mc Graw Hill, Vol. 1, Part 4, Chapter 22, Biomedical Signal Processing, pp. 559-578, N.Y., USA. [13] Harker, O., et. Al., (2004), Discriminador de Sonido Táctil y Visual DSTV para sordos y sordo-ciegos, Umbral Científico, ISSN 1692-3375, No. 4, pp 5-12. [14] D. G. Gerleman and T. M. Cook, (1992), “Selected topics in surface electromyography for use in the occupational setting: Expett perpective,” March 1992. Disponible en: http://www.cdc.gov/niosh/pdfs/91-100- d.pdf [Consultado 10 de abril de 2008]. [15] Electromiografía. Disponible en http://www.ate.uniovi.es/14005/documentos/clases%20pd f/Electromiografy.pdf [Consultado 10 de junio de 2008]. [16] Filtros activos. Disponible en: http://www.cps.unizar.es/~te/Docencia_archivos/eaa_arch ivos/t4_filtros.pdf, [Consultado 15 de marzo de 2008]. [17] (Guía para las normas internacionales para equipos médicos Online) K. Author. American National Institute Available. Disponible en: http://www.ansi.org [Consultado 2 de febrero de 2009]. [18] Hudgins B., Parker P., Scott RN., (1993), “New Strategy for MultifunctionMyoelectric Control”, IEEE TransBiomed Eng. Vol. 40, pp. 82 94. [19] Icontec. Norma Técnica Colombiana IEC-NTC 60601 (4454) equipo electromédico. Requisitos generales para la seguridad. 2001. [20] Instrumentation amplifier,” Disponible en: http://www.allaboutcircuits.com/vol_3/chpt_8/10.html [Consultado 10 de febrero de 2009]. [21] Instrumentación Virtual. Disponible en: http://www.tracnova.com/tracnovapub/La%20Instrumenta ci%F3n%20Virtual.pdf [Consultado 21 de febrero de 2010]. [22] J. R. Riskin, (2000), “A user’s guide to ic instrumentation amplifiers,” Analog Devices, no. N-244, pp. 10–18. [23] La Neurona, los Músculos y la Unidad Motora Disponible en: http://www.appcat.org/neurona_jfederico.pdf [Consultado 22 de agosto de 2010]. [24] LOVELY, Dennos F. The Control of Powered Upper Limb Prostheses: The origins and nature of the myoelectric signal. University of New Brunswick: 30 p. [publicación en línea]. Disponible en: <www.ee.unb.ca/kengleha/papers/IEEETBME2000.pdf> [consultado 15 de marzo de 2008].
  • DISEÑO DIRECTO DE CONTROLADORES PARA SISTEMAS LINEALES USANDO EL MÉTODO VRFT Y EL ALGORITMO IPSO. Freddy Fernando Valderrama Gutiérrez Escuela de Ciencias Básicas, Tecnología e ingeniería, Universidad Nacional abierta y a Distancia UNAD, Duitama, Colombia. Resumen Este trabajo muestra un proceso alternativo de diseño de controladores que no requiere el modelo matemático de la planta (basados en datos), el cual se usa el método VRFT (Sintonización de realimentación mediante referencia virtual) el cual se resuelve mediante el algoritmo IPSO (Optimización mediante enjambre de partículas mejorado). Aunque VRFT permite identificar controladores parametrizados linealmente aplicando solo un experimento en la planta, cuando los datos están contaminados con ruido aditivo en la medida, dicha metodología requiere del uso de variables instrumentales (IV) para identificar el controlador adecuado debido a que el vector de parámetros se polariza y el desempeño logrado no es satisfactorio; la determinación de variables instrumentales requiere un segundo experimento en la planta, o de la identificación de la misma. En este trabajo se explora el uso del algoritmo IPSO para resolver el problema VRFT en un sistema de transmisión flexible (Benchmark para sistemas de control digital), comprobándose que los resultados obtenidos son similares a los de variables instrumentales, siempre y cuando el ruido en la medida sea blanco con media cero, con la ventaja que al usar IPSO no se requiere del segundo experimento ni de la identificación de la planta, lo cual resulta útil para plantas industriales donde la experimentación puede resultar costosa en cuanto a tiempo y dinero. Palabras claves: Control basado en datos, VRFT, IPSO, variables instrumentales. 1 INTRODUCCIÓN El proceso clásico de diseño de controladores para sistemas dinámicos requiere en principio de un modelo matemático de la planta. Los modelos obtenidos usando leyes físicas pueden contener imprecisiones debido a dinámicas no modeladas y parámetros con algún grado de incertidumbre, esto lleva a que los controladores diseñados no cumplan con los requerimientos de la planta en lazo cerrado; por otra parte los modelos obtenidos pueden resultar muy complejos (orden elevado), aumentando a su vez la complejidad del controlador diseñado, y en este caso es necesario usar técnicas de reducción de orden cuyos resultados pueden llevar a que el controlador no se desempeñe satisfactoriamente, de hecho, los modelos confiables de plantas industriales resultan demasiado complejos o su construcción implica costos excesivos (Van Heusden, Karimi, & Soderstrom, 2011). La necesidad de modelos confiables para diseñar controladores llevó a plantear la teoría de identificación de sistemas (Ljung, 1990), en la cual no se requiere conocer exactamente las leyes que rigen el sistema dinámico, a cambio de ello, se realizan experimentos adecuados en la planta y los datos resultantes se usan para inferir las propiedades del sistema que los produjo (Ljung, 1990). Al considerar el problema de control donde las especificaciones se dan en términos de un modelo de referencia, el objetivo es diseñar un controlador que al ser conectado a la planta en lazo cerrado imite el comportamiento del modelo de referencia, esto se ilustra en la figura 1. La solución clásica a dicho problema requiere la identificación de la planta (diseño de controladores basados en el modelo) el cual es usado para calcular el controlador que minimiza el error entre el sistema en lazo cerrado y el modelo de referencia, este enfoque requiere resolver dos problemas de optimización, uno para identificar el modelo de la planta y otro para identificar el controlador, aún mas, en este enfoque puede resultar necesario aplicar una reducción de orden del controlador hallado, lo cual puede perjudicar el desempeño (Van Heusden, Karimi, & Soderstrom, 2011). Figura 1. Control basado en el modelo de referencia. Fuente Autor.
  • Recientemente se ha propuesto en (Hjalmarsson, 2002), (Karimi, Miscovic, & Bonvin, 2004), (Campi, Lechinni, & Savaresi, 2002), (Kosut, 2001) y (Helvoort, Jager, & Steinbuch, 2007) diseñar el controlador directamente a partir de datos experimentales de la planta en lazo abierto (Diseño directo de controladores basados en datos). Debido a que no se requiere el modelo de la planta con este enfoque se evita el modelamiento impreciso de la misma, por otra parte el controlador diseñado no depende de la estructura de la planta, además el orden y estructura del controlador pueden ser prefijados mientras que en las técnicas basadas en modelo, el orden del controlador es seleccionado de acuerdo al orden del modelo de la planta. Los métodos para el diseño directo de controladores basados en datos se pueden clasificar en dos grupos, los que necesitan de una serie de experimentos para ajustar progresivamente los parámetros del controlador, y en los métodos en que basta un experimento para calcular el controlador. La sintonización iterativa de realimentación (IFT) (Hjalmarsson, 2002) y la sintonización iterativa basada en correlación (ICbT) (Karimi, Miscovic, & Bonvin, 2004) hacen parte del primer grupo, y se puede decir que hacen parte de técnicas basadas en datos para control adaptativo, mientras que VRFT (Campi, Lechinni, & Savaresi, 2002) y la sintonización basada en correlación con garantía de estabilidad (CbT-GS) (Heusden, Karimi, & Bonvin, 2011) y el control no falsificado (UC) (Helvoort, Jager, & Steinbuch, 2007) hacen parte del segundo grupo, se resalta que estos métodos son adecuados en plantas industriales pues en este ámbito el factor económico, la seguridad y la disponibilidad resultan importantes, puesto que la realización de varios experimentos resulta costosa, y puede generar una parada extensa de la producción, en este trabajo el enfoque es VRFT. 2 MARCO TEÓRICO El método VRFT requiere solucionar un problema de optimización sin restricciones con métodos de estima del error de predicción (PEM), dicho método permite obtener buenos resultados cuando no existe ruido en la medida, de lo contrario se hace necesario realizar un nuevo experimento en la planta o la estimación del modelo de la misma, esto último hace que VRFT pierda sentido pues la idea de la identificación directa de controladores busca evitar la identificación de la planta para no tener problemas de sub-modelamiento. La realización de un segundo experimento puede provocar varianza en la estima de los parámetros del controlador. En las siguientes secciones se describen brevemente VRFT e IPSO. 2.1 VRFT Dada una planta lineal SISO (Una sola entrada y una sola salida) desconocida y un problema de control donde las especificaciones en lazo cerrado están descritas por un modelo de referencia estrictamente propio, el objetivo es diseñar un controlador lineal parametrizado de orden fijo para el cual el lazo cerrado se comporta de manera similar al modelo de referencia. Esto se hace minimizando la norma 2 elevada al cuadrado escrita en la ecuación 1, donde W es un filtro adecuado seleccionado por el usuario, M es el modelo de referencia mencionado, P es la planta y C corresponde al controlador cuyos parámetros son , el esquema se muestra en la figura 2. Figura 2. Representación esquemática de controladores basados en referencia virtual. Tomada de (Campi, Lechinni, & Savaresi, 2002) Por lo tanto la pregunta a resolver es ¿Cuáles son los parámetros que minimizan la diferencia entre el modelo de referencia y la función de transferencia en lazo cerrado? Enfoque de la referencia virtual. Suponga que un controlador C(z, ) es tal que el sistema en lazo cerrado resulta igual a M(z) , por lo tanto si el sistema es alimentado por cualquier señal de referencia r(t) su salida resulta ser M(z)r(t) , entonces una condición necesaria para que los dos sistemas tengan la misma función de transferencia es que la salida de ambos sea la misma dado una . La pregunta ahora es ¿Cuál debe ser para que la determinación del controlador sea fácil? Si se dispone de dos archivos de datos tomados de la planta, en uno de ellos los datos de entrada a la planta u y en el otro la salida obtenida y , ambos libres de ruido, entonces dado se selecciona tal que donde se le llama referencia virtual puesto que no es una señal que se aplique realmente a la planta, se obtiene matemáticamente a partir
  • de la salida y del modelo de referencia conocido, dadas las especificaciones de diseño: Se observa que M resulta impropio y es necesario agregar polos cuya respuesta desaparezca rápidamente en el tiempo para poder obtener la referencia virtual mediante simulación. Ahora es posible calcular el error virtual de seguimiento a la referencia así: Se debe notar que el modelo de referencia no puede ser 1, pues el error sería nulo. Aunque la planta no es conocida se sabe que está alimentada por el archivo de datos u (t ) por lo tanto un buen controlador sería aquel que genere u (t ) cuando es alimentado por e(t ) . Tales tareas se pueden describir en el siguiente algoritmo propuesto por (Campi, Lechinni, & Savaresi, 2002). Algoritmo básico VRFT. Se debe anotar que para que el algoritmo funcione u (t ) debe ser una señal suficientemente informativa y persistentemente excitante (ljung), Aunque el mínimo de (4) y (1) no coinciden en REFXX se demuestra que al seleccionar adecuadamente el filtro L los argumentos son cercanos y con ello la solución a (4) es sub-óptima; El filtro propuesto es: L( z ) = (1-M ( z ))M ( z ) (5) El anterior algoritmo no funciona cuando las medidas contienen ruido aditivo, para atacar este nuevo problema en VRFT se plantean dos opciones, ambas basadas en la técnica de variables instrumentales (lyung). La primera requiere realizar un nuevo experimento en la planta cuya entrada u sea la misma, lo cual resulta improcedente y difícil de lograr en un ambiente industrial. El segundo enfoque requiere de una estimación del modelo de la planta. En el ámbito de variables instrumentales los parámetros se obtienen mediante la siguiente expresión: Donde el regresor de IV se define así: 3 IPSO El algoritmo IPSO es un algoritmo de optimización global multivariable basado en el comportamiento de un enjambre de insectos, propuesto inicialmente por (Kennedy & Eberhart, 1995) y hace parte de los algoritmos de búsqueda directa pues debe evaluar la función objetivo para encontrar la solución. La idea es que cada partícula (i.e insecto del enjambre) usa su inteligencia individual, la inteligencia del grupo para encontrar una dirección que las lleve a todas a encontrar comida (i.e minimizar la función objetivo). En un instante dado cada partícula tendrá una posición y cierta velocidad, al inicio tales posiciones y velocidades son aleatorias. En cualquier instante cada partícula debe recordar la mejor posición descubierta (i.e donde encontró el valor mínimo de la función), y debe comunicar al resto del enjambre sobre las mejores posiciones halladas, de manera que
  • ajuste su velocidad basada en la información propia y la recibida del enjambre. Dado lo anterior el comportamiento de un enjambre cumple con tres propiedades: • Cohesión: Permanecer juntas. • Separación: Una partícula no debe permanecer tan cerca de las demás. • Alineación: Las partículas deben seguir a la mejor de ellas. Breve descripción de IPSO Se describirá brevemente el algoritmo IPSO, debido al espacio reducido para el documento, el lector puede referirse a (Rao, 2009) para profundizar. Dado el problema sin restricciones: Donde c1rata de aprendizaje individual y c2 representa la grupal, por su parte r1 y r2 son variables aleatorias uniformemente distribuidas entre cero y uno. Normalmente se asume c1 y c2 con un valor de 2. El factor q (i) se calcula para cada iteración así: Donde el máximo y el mínimo típicos de q son 0.9 y 0.1 respectivamente. d. Actualizar X en la iteración i-ésima y calcular nuevamente la función objetivo con las siguientes expresiones: e. El algoritmo finaliza bien sea por un máximo de iteraciones o con un límite inferior de la función objetivo (tolerancia) ambos entregados por el usuario. Dada la descripción del algoritmo se puede concluir ue este realiza una bús ueda exhaustiva, mediante la evaluación continua de la función objetivo y la actualización adecuada de la posición de cada partícula del enjambre. En el contexto de identificación directa de controladores cada partícula será un vector de parámetros q , así ue el tamaño de la partícula (Par) depende de la estructura del controlador seleccionada previamente, así ue: Donde r es la cantidad de parámetros de la estructura del controlador seleccionada. La función objetivo es la descrita en (4) donde N es la cantidad de datos disponibles. 4 VRFT – IPSO El algoritmo propuesto en este trabajo para la identificación directa de un controlador parametrizado de forma lineal en una planta SISO lineal e invariante en el tiempo se describe así:
  • x. Entregar el vector de parámetros obtenido. 5 METODOLOGÍA En principio se estudia el problema de diseño directo de controladores, sus diferentes enfoques y se selecciona uno de ellos para ser implementado mediante IPSO, luego se procede a implementar el algoritmo PSO de acuerdo con la codificación adecuada de las partículas y la evaluación de la función objetivo, la cual se logra implementar en Matlab R2010b dado que su cálculo requiere la simulación de un sistema dinámico discreto descrito por: La evaluación del desempeño de IPSO para VRFT versus VRFT con IV, se realiza mediante la simulación de un sistema dinámico de transmisión flexible, el cual es muy usado como Benchmark de control digital, y finalmente se comparan los resultados en el dominio de la frecuencia y el dominio del tiempo para diferentes realizaciones y distribuciones de ruido en la medida. Los criterios de comparación usados son la máxima desviación (Md) entre el modelo de referencia y el modelo obtenido en lazo cerrado, y el error cuadrático medio (mse). 6 EJEMPLO DE SIMULACIÓN La planta usada para comparar los resultados en un sistema de transmisión flexible se describe en el siguiente apartado. Nótese que para hallar el vector y(t) a partir de u(t) se requiere el modelo matemático cuando la planta física no está disponible, este es el caso de este trabajo, sin embargo el modelo usado se encuentra previamente validado en (Sojoodi & Majd, 2010). 6.1 Sistema de transmisión flexible Figura 3. Sistema de transmisión flexible. Tomado de (Sojoodi & Majd, 2010) Consiste en tres poleas conectadas mediante correas flexibles, la primera de ellas es conectada a un motor DC cuya posición ya está controlada mediante un lazo de realimentación local. El objetivo es diseñar un sistema de control de posición de la tercera polea. Las conexiones se ilustran en la figura 3. Como se observa el control es digital y se implementa en un PC, la función de transferencia se puede deducir mediante el análisis de tor ues y aceleraciones angulares de las poleas, en este trabajo no se especifica tal deducción, el resultado se muestra en la ecuación (10).
  • Donde: Los valores usados en el Benchmark son: Se asume un tiempo de muestreo Ts = 0.05 s . Por lo tanto al discretizar la planta se obtiene: La transmisión flexible es usada como Bechmark dado ue presenta dos frecuencias resonantes, ue resultan relativamente difíciles de manejar por un controlador clásico, esto se ilustra en la figura 4. Figura 3.Magnitud de la respuesta en frecuencia para el Sistema de transmisión flexible. Fuente: Autor. 6.2 Experimentos Como entrada suficientemente informativa se selecciona ruido blanco gaussiano con media cero y varianza 0.1, se toman 512 muestras con el periodo de muestreo usado para discretizar la planta. El modelo de referencia usado es: Donde el factor se usa debido al tiempo muerto de la planta. Además, donde indica el ancho de banda seleccionado para el modelo, en este caso se usa . La estructura del controlador seleccionada para ambos experimentos es: Para el primer experimento el ruido aditivo en la medida se selecciona con una varianza 10 veces menor al de la señal de prueba (0.01), para el segundo la varianza será solo cinco veces menor. Para hallar los resultados de VRFT con IV se usa la toolbox de matlab disponible en (Campi M. , 2011), lo referente a VRFT-IPSO se obtiene con el algoritmo planteado por el autor en la sección 4. Figura 4. Experimento 1. Respuesta al escalón del modelo de referencia, en lazo cerrado con VRFT-IPSO y con VRFT-IV. Fuente: Autor.
  • Figura 5. Experimento 1. Respuesta en frecuencia del modelo de referencia, en lazo cerrado con VRFT-IPSO y con VRFT-IV. Fuente: Autor. Experimento 1. En VRFT con IPSO el número de partículas usado es 15, la tolerancia de la función objetivo es 0.001, y el número máximo de iteraciones es 100. El modelo de referencia es el mismo para ambos métodos, y consecuentemente el filtro L también es el mismo. Para VRFT con IV las variables instrumentales se obtienen mediante la identificación de la planta con un modelo ARX de orden 4, y W se asume igual a 1. La figura 4 ilustra los resultados en el dominio del tiempo para ambos métodos, y la figura 5 muestra la respuesta en frecuencia. Experimento 2. Para revisar la sensibilidad ante la varianza del ruido de medida de ambos métodos, se usan los mismos parámetros del primer experimento y se cambia dicha varianza por 0.02. Los resultados se ilustran en las Figuras 5 y 6. Figura 5. Experimento 2. Respuesta al escalón del modelo de referencia, en lazo cerrado con VRFT-IPSO y con VRFT-IV. Fuente: Autor. Figura 6.Experimento2. Respuesta en frecuencia del modelo de referencia, en lazo cerrado con VRFT-IPSO y con VRFT-IV. Fuente: Autor 6.3 Resumen de resultados En cuanto a las respuestas en el dominio del tiempo no se aprecian diferencias significativas, en el dominio de la frecuencia se observa ue VRFT-IPSO atenúa más las ganancias en frecuencias altas, se observa también ue el lazo cerrado para ambos métodos presenta picos de resonancia atenuados de menor amplitud en IPSO, al calcular los parámetros de comparación se obtiene la siguiente tabla: Tabla 1. Error cuadrático medio (mse) y Máxima desviación En VRFT-IPSO y VRFT-IV. 7 CONLUSIONES El algoritmo VRFT-IPSO planteado en este trabajo permite diseñar controladores basados en datos con calidad similar a los diseñados mediante VRFT-IV con la ventaja de evitar el segundo experimento en la planta o la identificación de la misma. Dado ue la frecuencia de muestreo es 20 Hz, la respuesta en frecuencia importa desde cero hasta 10 Hz, y se puede concluir ue tanto VRFT-IPSO como VRFT-IV logran seguir el modelo de referencia adecuadamente hasta los 10 Hz. En VRFT-IPSO es posible imponer un valor muy pe ueño de la tolerancia para la función objetivo (Mayor precisión
  • entre el modelo de referencia y la función de transferencia en lazo cerrado), y para lograrlo basta con aumentar el número de iteraciones máximo, mientras ue en VRFT-IV el valor de la función objetivo no se puede ajustar. Es posible verificar la convergencia de VRFT-IPSO al revisar si todas las partículas tienden a un mismo punto en el espacio de los parámetros del controlador buscado. No obstante la convergencia de IPSO para VRFT depende altamente del vector inicial de parámetros, no converge cuando tal rango no contiene al vector de parámetros buscado. 8 REFERENCIAS [1] Ljung, L. (1990). System Identification. Prentice- Hall. [2] Kennedy, J., & Eberhart, R. (1995). Particle swarm optimization. Proceedings of the 1995 IEEE International Conference on Neural Networks. Piscataway. [3] Kosut, R. (2001). Uncertainty model unfalsification for robust adaptative. Annual reviews in control, 65-76. [4] Campi, M., Lechinni, A., & Savaresi, S. (2002). Virtual reference feedback tunning: A direct method for the design of feedback controllers. Automatica, 1337- 1346. [5] Hjalmarsson, H. (2002). Iterative Feedback Tunning- an overview. International Journal of Adaptative Control and Signal Processing , 373-395. [6] Karimi, A., Miscovic, L., & Bonvin, D. (2004). Iterative Correlation-Based controller tunning. International Journal of Adaptative Control and Signal Processing , 645-664. [7] Helvoort, J. v., Jager, B. d., & Steinbuch, M. (2007). Direct data-driven recursive controller unfalsification with analytic update. Automatica , 2034 – 2046. [8] Rao, S. (2009). Engineering Optimization theory and practice. United States: John Wiley & Sons. [9] Sojoodi, M., & Majd, V. J. (2010). A Technical Approach to H2 and Hinf Control of a Flexible Transmission System. Robotics Automation and Mechatronics (RAM), 2010 IEEE Conference on (págs. 124 - 128 ). Singapore: IEEE. [10] Campi, M. (22 de Marzo de 2011). Virtual Reference Feedback Tunning. Recuperado el 12 de 01 de 2012, de http://www.ing.unibs.it/~campi/VRFTwebsite/index Html [11] Heusden, K., Karimi, A., & Bonvin, D. (2011). Data- driven model reference control with asymptotically guaranteed stability. International journal of adaptive control and signal processing , 331–351. [12] Van Heusden, K., Karimi, A., & Soderstrom, T. (2011). On identification methods for direct datadriven controller tuning. International journal of adaptive control and signal processing , 448–465. i Correspondencia: freddy.valderrama@unad.edu.co
  • EL CAMINO HACIAAUTOMATIZACIÓN FARMACOLÓGICA Diego Sendoya1 Escuela de Ciencias Básicas, Tecnología e Ingeniería, UNAD, Neiva, Colombia Resumen Una de lasespecialidades de la medicinamás adecuadapara la aplicacióndela teoría de controles la farmacologíaclínica. El médico de hoy tiene unextensoarsenalde medicamentospara eltratamiento de una enfermedad. Sin embargo,la dosis adecuadade medicamentoses a menudo imprecisay puede ser unacausa importante del incremento en los costos, la morbilidad y la mortalidad. La muy significativavariabilidad farmacocinética y farmacodinámica entre pacienteslleva a lainevitable conclusión de uela dosificación precisare uiere un control en lazo cerrado. El enfo ue de estetrabajo ha sidoestudiarla reciente evolución delos métodosde controlen lazo cerradoyesbozar algunos delos retos futuros delcontrol para elsuministro activo de medicamentos. Haynumerosasaplicaciones potencialestales como el controlde la glucosa, la frecuencia cardíaca, la presión sanguínea, etc., ue puedenser mejoradascomo resultado delcontrol activoen la dosificaciónde medicamentos. Los resultados finales dependerán dela colaboración entrelos ingenieros de control y los investigadoresbiomédicos, y se verán reflejados enlas mejorasen el cuidado médico, la confiabilidad de los e uipos dedosificaciónde medicamentos, así como en la reducción de costospara el cuidado dela salud. Palabras claves: Modelos compartimentales; Control farmacológico; Control adaptativo no negativo; Dosificación controlada de medicamentos; Anestesia automatizada. 1 INTRODUCCIÓN Los avances en la ingeniería de control se han convertido en la base para alcanzar desarrollos tecnológicos en diversos sectores de la industria tales como: el energético, el uímico, el transporte, la electrónica, las redes, y las comunicaciones; sin embargo en áreas como la medicina se ha tenido un impacto mucho menor. Aun ue se han producido avances interesantes tales como la cirugía robótica, los sistemas electrofisiológicos, las má uinas para el soporte de vida, y las terapias o cirugías guiadas por imágenes; todavía existen, en general, grandes barreras para la aplicación de las técnicas de control modernas a la medicina. Los mayores obstáculos son: en primer lugar la incertidumbre de los sistemas, lo cual es inherente a biología, y en segundo lugar la escasa comunicación entre los ingenieros y la comunidad médica. Ambos impiden la elaboración de modelos matemáticos y, por ende, la aplicación de muchas de las herramientas de la ingeniería de control moderna. Por lo tanto, los avances futuros dependerán de la colaboración entre los ingenieros de control y los investigadores biomédicos. Una de las especialidades de la medicina más adecuada para la aplicación de la teoría de controles la farmacología clínica, una disciplina en la ue el modelamiento matemático ha tenido un papel destacado. Algunos de los avances más importantes en la medicina moderna se han presentado en esta especialidad. El médico del siglo 21 tiene un amplio arsenal de medicamentos para el tratamiento de una enfermedad. Sin embargo, aun ue se tiene una gran cantidad de agentes terapéuticos, la dosis adecuada de medicamentos es a menudo imprecisa y puede ser una causa importante del incremento en los costos, la morbilidad y la mortalidad. Es importante considerar cómo se derivan las directrices de dosificación. El desarrollo de medicamentos se inicia con la experimentación animal, de donde los agentes prometedores son llevados a ensayos en humanos, comenzando con voluntarios sanos y siguiendo con pacientes ue tienen la enfermedad para la ue se está desarrollando el medicamento. Las etapas iniciales de estos ensayos se centran en la seguridad del paciente mientras ue las pruebas finales por lo general involucran la administración ciega y aleatoria de un placebo y de dosis diferentes del medicamento para evaluar la eficacia. Si se observa un efecto terapéutico, entonces, el medicamento puede ser aprobado y, en general, la dosis recomendada es la ue se encuentra eficaz en el paciente promedio.
  • El problema es ue ningún paciente es un paciente promedio. Existe una gran variabilidad entre pacientes en el efecto terapéutico de cual uier dosis dada (variabilidad interpaciente). En la gran mayoría de los casos, la dosis adecuada para un paciente específico se encuentra por ensayo y error. Por ejemplo, el tratamiento para un paciente con hipertensión arterial se iniciará con la prescripción de la dosis recomendada y luego, durante el seguimiento, se observa el efecto del medicamento sobre la presión sanguínea y se ajusta la dosis deforma empírica. Este proceso puede ser engorroso, lento e impreciso. 2 FARMACOLOGÍA CLÍNICA BÁSICA Desde hace algún tiempo ha sido evidente ue la dosificación de medicamentos se podría hacer sobre una base más racional, mediante la utilización del modelamiento farmacocinético y farmacodinámico. La farmacocinética es el estudio de la concentración de medicamentos en diversos tejidos como una función del tiempo. La farmacodinámica es el estudio de la relación entre la concentración del medicamento y el efecto. Este modelamiento se basa en la teoría de los sistemas dinámicos. La disposición de los medicamentos en el cuerpo es una compleja interacción de numerosos procesos metabólicos y de transporte, muchos de los cuales son todavía poco entendidos [1],[2]; sin embargo, los modelos compartimentales pueden encapsular efectivamente estos procesos[3]. Con el propósito de describirla disposición del medicamento, estos modelos suponen ue el cuerpo está compuesto de unos pocos compartimientos homogéneos y ue el medicamento se transporta entre los compartimientos o se elimina mediante procesos metabólicos lineales. Un modelo común para los medicamentos ue se administran por vía intravenosa, es el modelo bicompartimental. Este modelo supone ue hay un compartimiento central ue recibe la dosis intravenosa y la mezcla instantáneamente. El medicamento se transfiere entonces a un compartimiento periférico o se metaboliza y elimina del cuerpo. El medicamento en el compartimiento periférico se transfiere de nuevo al compartimiento central con una cinética lineal. El supuesto de la mezcla instantánea no es realista, pero tiene poco efecto sobre la precisión del modelo, siempre y cuando no se intente modelar la concentración de medicamento inmediatamente después de la dosis inicial. Los datos experimentales utilizados para el modelamiento fármaco cinético se recogen mediante la administración del medicamento a los pacientes y la posterior extracción de muestras de sangre en varios instantes después de iniciada la dosificación; esto permite determinar la concentración de medicamento como una función del tiempo. En consecuencia, la mayoría de las investigaciones farmacocinéticas se enfocan en las concentraciones sanguíneas, ya ue es técnicamente imposible medir realmente la concentración de medicamento en el tejido donde se cree ue es el sitio del efecto terapéutico, y con frecuencia se supone ue la concentración en el sitio del efecto y la concentración sanguínea se relacionan linealmente. Por otra parte, el modelamiento farmacodinámico es más empírico. Se puede suponer ue el efecto del medicamento es proporcional a la concentración de medicamento en el sitio del efecto, pero esto es claramente poco realista, ya ue admite la posibilidad de un efecto ilimitado del medicamento. Por ejemplo, considérese un medicamento ue disminuye la frecuencia cardiaca. No es realista suponer ue el efecto del medicamento es proporcional a su concentración ya ue no hay límite en la concentración del medicamento, pero si existe un límite sobre su efecto (la frecuencia cardiaca no puede ser menor ue cero). El modelo empírico debe incorporar un efecto techo. Cabe señalar ue los modelos farmacodinámicos son inherentemente no lineales, encontraste con los modelos farmacocinéticos, ue son generalmente lineales. Sin embargo, la interacción con la farmacodinámica puede dar lugar también a una farmacocinética no lineal. 3 DOSIFICACIÓN DE MEDICAMENTOS Además de la seguridad y la eficacia, la aprobación de cual uier nuevo medicamento re uiere una evaluación farmacocinética. El perfil farmacocinético puede ser útil en el desarrollo de las directrices de dosificación. Sin embargo, la aplicación de los principios básicos usualmente se simplifica bastante. Por ejemplo, si se sabe ue una dosis de 50 mg de un medicamento antihipertensivo es eficaz en el paciente promedio y también se sabe ue su vida media es de 12 horas, entonces se puede proponer un es uema de dosificación ue comienza con una dosis inicial de 50 mg con la subsiguiente dosificación de 25 mg cada 12 horas. De hecho, muchas de las directrices de dosificación recomendadas por los fabricantes de medicamentos se basan en cálculos sencillos como estos. Y, aun ue a menudo no es percibida como tal por el médico, la dosificación inicial del medicamento es una forma de control en lazo abierto, es decir, control sin
  • realimentación, ser peligrosamente lento o impreciso en entornos como la sala de operaciones o la unidad de cuidados intensivos. Es en este ambiente donde la tecnología de control tiene mucho ue ofrecer a la medicina moderna. Los primeros intentos de control en lazo cerrado se centraron en el control sobre las variables ue se pueden medir adecuadamente, y las principales aplicaciones para la administración de medicamentos se han dado en la regulación hemodinámica yen el control de los niveles de conciencia. Se revisará brevemente el control en lazo cerrado de la función cardiovascular, ya ue muestra muchos de los problemas en la aplicación de la tecnología de control a las funciones fisiológicas. 4 CONTROL EN LAZO CERRADO DE LA FUNCIÓN CARDIOVASCULAR Después de una cirugía mayor, como una cirugía cardiaca, muchos pacientes se hacen profundamente hipertensos [7], y necesitan tratamiento ya ue la presión sanguínea elevada puede causar disfunción cardiaca, lo ue conlleva al edema pulmonar o a la is uemia de miocardio y puede ser un factor de riesgo para el accidente cerebro vascular. Hay un número de potentes medicamentos disponibles para el tratamiento de la hipertensión post-operatoria, pero la dosificación para alcanzar la presión sanguínea deseada puede ser difícil. La dosis insuficiente deja al paciente con hipertensión y la sobredosis puede reducir la presión sanguínea a niveles asociados con el shock. Desde finales de 1970, ha habido interés en el desarrollo de controladores para la administración de nitroprusiato de sodio, un antihipertensivo potente y de uso común. Los primeros intentos utilizaron métodos simples como los controladores proporcional-derivativos o proporcional- integral-derivativo ue asumían una relación lineal entre la velocidad de infusión y el efecto [8]. Uno de los retos significativos en el diseño de un controlador de presión sanguínea es el hecho de ue hay un tiempo de retardo entre la administración del medicamento y el efecto clínico. No tomar en cuenta este tiempo de retardo puede conducir a oscilaciones significativas del sistema. Estos controladores iniciales de presión sanguínea incluían un tiempo de retardo en el modelo del sistema, sin embargo, se suponía ue el retardo era el mismo para todos los pacientes. Estos controladores fueron exitosos en algunos pacientes, pero no tuvieron una aplicación clínica muy amplia, ya ue es evidente ue la variabilidad interpacientes y el hecho de ue la sensibilidad individual del paciente al medicamento varía con el tiempo, hacen esencial el uso de controladores adaptativos. Posteriormente, se desarrollaron controladores adaptativos de modelos sencillos y con modelos múltiples [9], [10]. Los controladores adaptativos de modelo sencillo se basan en la estimación online de los parámetros del sistema mediante la metodología de varianza mínima o de mínimos cuadrados. Estos controladores no fueron tampoco aceptados debido a los transitorios de gran amplitud. Los controladores adaptativos de modelos múltiples representan el sistema por uno de un número finito de modelos. Para cada modelo hay un controlador independiente. La salida del controlador es la suma de la probabilidad ponderada de las salidas de cada modelo. Los controladores adaptativos de modelos múltiples han demostrado ser algo más satisfactorios. Los posteriores refinamientos al control de la presión sanguínea han incluido el control adaptativo con modelo de referencia simple [11], ue aparenta ser prometedor en las simulaciones, y los métodos basados en redes neuronales [12]. También ha habido un interés sustancial en el control óptimo ya ue el nitroprusiato de sodio tiene efectos tóxicos secundarios cuando la dosis es demasiado alta [13]. Estas investigaciones sobre el control de la presión sanguínea revelan los desafíos inherentes a los sistemas biológicos, específicamente la no linealidad, la variabilidad interpacientes (incertidumbre del sistema), y el tiempo de retardo. A pesar de las mejoras, los controladores de la presión sanguínea en lazo cerrado rara vez se utilizan clínicamente. El hecho de ue el control en lazo cerrado de la presión sanguínea no ha sido adoptado ampliamente por los médicos no es demasiado sorprendente si se tienen en cuenta las complejas interrelaciones de las variables hemodinámicas. Sin embargo, esto también indica un área donde las futuras aplicaciones de la teoría de control podrían ser muy valiosas. 5 CONTROL EN LAZO CERRADO DE LA ANESTESIA Desde hace mucho tiempo ha existido interés en el control de la anestesia en lazo cerrado. La anestesia adecuada se compone de varios elementos: la analgesia, ue consiste en la falta de respuesta refleja, tal como mayor presión sanguínea o frecuencia cardiaca ante un estímulo uirúrgico; la arreflexia, la falta de movimiento ( ue simplifica la tarea del cirujano), y la hipnosis o la falta de conciencia. A fin de implementar un control en lazo cerrado es necesario medir y evaluar el estado de la conciencia.
  • El electroencefalograma (EEG), es una medida de la actividad eléctrica en el cerebro, y desde hace años se conoce ue sus valores cambian con la inducción de la anestesia [14]. Sin embargo, relacionar cuantitativamente el EEG al efecto anestésico ha sido un desafío. Recientemente, ha habido un progreso sustancial en el desarrollo de monitores de EEG procesado ue proporcionan una medida de la profundidad de la anestesia. A partir del trabajo pionero de Bickford [15], Schwilden y sus colegas desarrollaron y probaron clínicamente un controlador adaptativo basado en modelo para la entrega de la anestesia por vía intravenosa utilizando la frecuencia media del espectro de potencia del EEG como variable de control[16]. El algoritmo implementado no ofrecía una gran ventaja sobre el método de control manual. Se han hecho intentos para desarrollar un control más preciso, especialmente en el área de farmacología anestésica. En la década de 1980, con el incremento de la disponibilidad de pe ueños computadores ue podían ser llevados a la sala de operaciones, varios grupos de investigadores desarrollaron sistemas de bombas controladas por computador ue ajustaban continuamente la velocidad de infusión de medicamento para alcanzar y mantener la concentración de medicamento deseada por el médico [4] – [6]. Aun ue las directrices de dosificación inicial pueden basarse en el paciente promedio, la muy significativa variabilidad farmacocinética y farmacodinámica entre pacientes, observada en la mayoría de los medicamentos, lleva a la inevitable conclusión de ue la dosificación precisa del medicamento re uiere un control en lazo cerrado. Pero note ue mejorar solamente la precisión de alcanzar una determinada concentración de medicamento ue puede o no conducir a un mejor control de su efecto, dada la variabilidad farmacodinámica. Aun ue el proceso de dosificación del medicamento para lograr el efecto deseado puede ser aceptable para el tratamiento ambulatorio crónico, este proceso puede ser peligrosamente lento o impreciso en entornos como la sala de operaciones o la unidad de cuidados intensivos. Es en este ambiente donde la tecnología de control tiene mucho ue ofrecer a la medicina moderna. Los primeros intentos de control en lazo cerrado se centraron en el control sobre las variables ue se pueden medir adecuadamente, y las principales aplicaciones para la administración de medicamentos se han dado en la regulación hemodinámica y en el control de los niveles de conciencia. Se revisará brevemente el control en lazo cerrado de la función cardiovascular, ya ue muestra muchos de los problemas en la aplicación de la tecnología de control a las funciones fisiológicas. 6 CONTROL EN LAZO CERRADO DE LA FUNCIÓN CARDIOVASCULAR Después de una cirugía mayor, como una cirugía cardiaca, muchos pacientes se hacen profundamente hipertensos [7], y necesitan tratamiento ya ue la presión sanguínea elevada puede causar disfunción cardiaca, lo ue conlleva al edema pulmonar o a la is uemia de miocardio y puede ser un factor de riesgo para el accidente cerebro vascular. Hay un número de potentes medicamentos disponibles para el tratamiento de la hipertensión post-operatoria, pero la dosificación para alcanzar la presión sanguínea deseada puede ser difícil. La dosis insuficiente deja al paciente con hipertensión y la sobredosis puede reducir la presión sanguínea a niveles asociados con el shock. Desde finales de 1970, ha habido interés en el desarrollo de controladores para la administración de nitroprusiato de sodio, un antihipertensivo potente y de uso común. Los primeros intentos utilizaron métodos simples como los controladores proporcional-derivativos o proporcional- integral-derivativo ue asumían una relación lineal entre la velocidad de infusión y el efecto [8]. Uno de los retos significativos en el diseño de un controlador de presión sanguínea es el hecho de ue hay un tiempo de retardo entre la administración del medicamento y el efecto clínico. No tomar en cuenta este tiempo de retardo puede conducir a oscilaciones significativas del sistema. Estos controladores iniciales de presión sanguínea incluían un tiempo de retardo en el modelo del sistema, sin embargo, se suponía ue el retardo era el mismo para todos los pacientes. Estos controladores fueron exitosos en algunos pacientes, pero no tuvieron una aplicación clínica muy amplia, ya ue es evidente ue la variabilidad interpacientes y el hecho de ue la sensibilidad individual del paciente al medicamento varía con el tiempo, hacen esencial el uso de controladores adaptativos. Posteriormente, se desarrollaron controladores adaptativos de modelos sencillos y con modelos múltiples [9], [10]. Los controladores adaptativos de modelo sencillo se basan en la estimación online de los parámetros del sistema mediante la metodología de varianza mínima o de mínimos cuadrados. Estos controladores no fueron tampoco aceptados debido a los transitorios de gran amplitud. Los controladores adaptativos de modelos múltiples representan el sistema por uno de un número
  • finito de modelos. Para cada modelo hay un controlador independiente. La salida del controlador es la suma de la probabilidad ponderada de las salidas de cada modelo. Los controladores adaptativos de modelos múltiples han demostrado ser algo más satisfactorios. Los posteriores refinamientos al control de la presión sanguínea han incluido el control adaptativo con modelo de referencia simple [11], ue aparenta ser prometedor en las simulaciones, y los métodos basados en redes neuronales [12]. También ha habido un interés sustancial en el control óptimo ya ue el nitroprusiato de sodio tiene efectos tóxicos secundarios cuando la dosis es demasiado alta [13]. Estas investigaciones sobre el control de la presión sanguínea revelan los desafíos inherentes a los sistemas biológicos, específicamente la no linealidad, la variabilidad interpacientes (incertidumbre del sistema), y el tiempo de retardo. A pesar de las mejoras, los controladores de la presión sanguínea en lazo cerrado rara vez se utilizan clínicamente. El hecho de ue el control en lazo cerrado de la presión sanguínea no ha sido adoptado ampliamente por los médicos no es demasiado sorprendente si se tienen en cuenta las complejas interrelaciones de las variables hemodinámicas. Sin embargo, esto también indica un área donde las futuras aplicaciones de la teoría de control podrían ser muy valiosas. 7 CONTROL EN LAZO CERRADO DE LA ANESTESIA Desde hace mucho tiempo ha existido interés en el control de la anestesia en lazo cerrado. La anestesia adecuada se compone de varios elementos: la analgesia, ue consiste en la falta de respuesta refleja, tal como mayor presión sanguínea o frecuencia cardiaca ante un estímulo uirúrgico; la arreflexia, la falta de movimiento( ue simplifica la tarea del cirujano), y la hipnosis o la falta de conciencia. A fin de implementar un control en lazo cerrado es necesario medir y evaluar el estado de la conciencia. El electroencefalograma (EEG), es una medida de la actividad eléctrica en el cerebro, y desde hace años se conoce ue sus valores cambian con la inducción de la anestesia [14]. Sin embargo, relacionar cuantitativamente el EEG al efecto anestésico ha sido un desafío. Recientemente, ha habido un progreso sustancial en el desarrollo de monitores de EEG procesado ue proporcionan una medida de la profundidad de la anestesia. A partir del trabajo pionero de Bickford [15], Schwilden y sus colegas desarrollaron y probaron clínicamente un controlador adaptativo basado en modelo para la entrega de la anestesia por vía intravenosa utilizando la frecuencia media del espectro de potencia del EEG como variable de control [16]. El algoritmo implementado no ofrecía una gran ventaja sobre el método de control manual. Posteriormente se desarrollaron otras medidas de la profundidad de la anestesia a partir del EEG. Posiblemente, la más notable de ellas es el índice biespectral o BIS [17]. El BIS es una medida derivada del EEG ue parece estar estrechamente relacionada con el nivel de conciencia y ue puede seguir los cambios en la latencia de algunos de los componentes de frecuencia de la señal EEG. Recientemente, Struys y sus colegas han descrito un controlador en lazo cerrado para la administración del anestésico propofol por vía intravenosa mediante un algoritmo adaptativo basado en modelo con el BIS como la variable de control [18]. Utilizando este algoritmo, Struys y sus colegas demostraron un excelente rendimiento, medido por la diferencia entre la señal BIS de referencia y la señal BIS observada. En contraste con estos controladores adaptativos basados en modelos, Absalom y sus colegas han desarrollado un controlador proporcional-integral-derivativo utilizando la señal BIS como la variable para controlarla infusión de propofol [19]. El error de rendimiento absoluto promedio de este sistema fue bueno(8.0%), aun ue en 3 de 10 pacientes se observaron oscilaciones de la señal BIS alrededor del punto de operación y la anestesia se consideró clínicamente inadecuada en 1de los 10 pacientes. Dadas las incertidumbres de los modelos farmacocinéticos y farmacodinámicos, y la magnitud de la variabilidad interpaciente, se están investigando controladores adaptativos independientes de los parámetros. En particular, en una serie de trabajos se desarrollaron algoritmos de control adaptativo directo y de redes neuronales adaptativas para sistemas no negativos y de compartimientos. Los modelos no negativos y compartimentales proporcionan un amplio marco de referencia para los sistemas biológicos y fisiológicos, incluyendo la farmacología clínica, y son muy adecuados para el problema de control en lazo cerrado de la administración de medicamentos. Utilizando estructuras de modelos no negativos y compartimentales, un trabajo sobre el control adaptativo
  • directo basado en Lyapunov se desarrolla en [20], el cual garantiza estabilidad asintótica parcial del punto de operación del sistema en lazo cerrado, es decir, estabilidad asintótica del punto de operación con respecto a la parte de los estados del sistema en lazo cerrado asociada a las variables de estado fisiológicas. Además, se demuestra ue los estados restantes asociados con las ganancias del controlador adaptativo cumplen con el criterio de estabilidad de Lyapunov. Adicionalmente, el controlador adaptativo se construye sin re uerir conocimiento de los parámetros farmacocinéticos y farmacodinámicos del sistema mientras ue proporcionan una entrada de control no negativa para la estabilización robusta con respecto a un punto de operación dado. También recientemente, se han desarrollado algoritmos de control adaptativo con redes neuronales para hacer frente al control en lazo cerrado de la administración de medicamentos [21].Las redes neurales consisten en una interconexión ponderada de elementos fundamentales llamados neuronas, las cuales son funciones ue consisten de una unión sumadora y un funcionamiento no lineal ue involucra una función de activación. Las redes neuronales han atraído la atención debido a su inherente ar uitectura de procesamiento paralelo y altamente redundante. Este paralelismo hace posible actualizar eficazmente online una red neuronal. Estas propiedades hacen de las redes neuronal es una opción viable para la identificación de sistemas y el control adaptativo en farmacología clínica. En [22], se presenta un marco de referencia para el control adaptativo con redes neuronales ue tiene en cuenta la variabilidad farmacocinética y farmacodinámica entre pacientes de forma combinada. 8 RETOS Y OPORTUNIDADESEN EL CONTROLFARMACOLÓGICO Aun ue en los últimos años se han propuesto varios algoritmos de control para el suministro activo de medicamentos como se informa en este documento, el control en lazo cerrado para la farmacología clínica se encuentra todavía en su infancia. Hay numerosos retos y oportunidades por delante. En particular, una suposición implícita inherente a todos los marcos de control ue se han discutido en este artículo es uela ley de control se lleva a cabo sin tener en cuenta la amplitud del actuador y las restricciones en la velocidad de saturación. En aplicaciones farmacológicas, las velocidades de infusión del medicamento pueden variar de paciente a paciente y es vital ue no superen determinados valores de umbral. Como consecuencia, en los sistemas de suministro de medicamentos se debe tener en cuenta las no linealidades y las restricciones del actuador (es decir, las restricciones en la velocidad de infusión de la bomba), ya ue pueden degradar seriamente el rendimiento del sistema en lazo cerrado, y en algunos casos llevar el sistema a la inestabilidad. Estos efectos son más pronunciados para los controladores adaptativos, los cuales deben seguir la adaptación aún cuando el lazo de realimentación se ha roto debido a la presencia de la saturación del actuador, causando un controlador inestable. Otra cuestión importante ue no ha sido considerada por la mayoría de los algoritmos de control analizados en este trabajo es el ruido de medición del sensor. En particular, las señales EEG pueden presentar una variación alrededor de 10% debido al ruido. Por ejemplo, la señal BIS puede ser dañada por el ruido electromiográfico, es decir, señales eléctricas ue emanan de los músculos. A pesar de ue el ruido electromiográfico puede ser minimizado mediante parálisis muscular, existen otras fuentes de ruido en la medición (electrocauterio, rayos X, movimiento) ue son de naturaleza estocástica y deben tenerse en cuenta dentro de los procesos de diseño del control. En muchos modelos compartimentales se supone ue la transferencia de masa entre los compartimientos es instantánea. A pesar de ue esto es una suposición válida para algunos sistemas biológicos y fisiológicos, en general no es verdad; especialmente en ciertos modelos farmacocinéticos y farmacodinámicos. Por ejemplo, si un bolo de medicamento se inyecta en la circulación y se busca su nivel de concentración en el espacio extracelular e intercelular de algún órgano, existe un tiempo de retardo antes de ue se detecte en dicho órgano. En este caso, suponer la transferencia de masa instantánea entre los compartimientos producirá modelos erróneos. Por lo tanto, para describir con precisión la distribución de agentes farmacológicos en el cuerpo humano, es necesario incluir en cual uier modelo matemático farmacocinético alguna información de los estados pasados del sistema. Por supuesto, esto conduce a sistemas dinámicos con retardo [23]. Esto es especialmente relevante para abordar correctamente el tiempo de retardo inherente en e uilibrar el compartimiento en el sitio del efecto con el compartimiento central. Por ejemplo, para el control adaptativo, tendría ue ser desarrollado un algoritmo adaptativo no lineal para sistemas compartimental es con tiempo de retardo desconocido. El control óptimo para la administración de medicamentos es también, a menudo, necesario en farmacología clínica. Por razones terapéuticas, en la unidad de cuidados intensivos, puede ser deseable mantener la cantidad de medicamento en un compartimiento por encima de cierto nivel de umbral mínimo, mientras en otro compartimiento se mantiene la cantidad por debajo de un determinado
  • nivel máximo. Además, para minimizar los efectos secundarios del medicamento, es deseable minimizarla dosis de los medicamentos utilizados. La administración de medicamentos en clínicas y hospitales por lo general no cumplen las condiciones antes mencionadas. Por lo tanto, la ley de control óptima no negativa tendrá ue ser diseñada para mantener la concentración plasmática de medicamento deseada, la cual es dictada por los efectos terapéuticos, y para minimizarla dosis del medicamento para reducir los efectos secundarios. 9 CONCLUSIONES No hay duda de ue, en general, la tecnología de los sistemas de control tiene mucho ue ofrecer a la farmacología y, en particular, a la anestesia en la unidad de cuidados intensivos. Los pacientes ue son sometidos a una cirugía o se recuperan en la unidad de cuidados intensivos, re uieren la administración de medicamentos para regularlas principales variables fisiológicas (por ejemplo, la presión arterial, el gasto cardíaco, la frecuencia cardíaca, el grado de conciencia, etc.) dentro de los niveles deseados. La velocidad de infusión de cada medicamento administrado es crítica, lo ue re uiere una vigilancia constante y ajustes frecuentes. El control en lazo abierto realizado por el personal clínico puede ser muy tedioso, impreciso, lento, y a veces de mala calidad. Como alternativa, el control en lazo cerrado puede lograr ue el sistema alcance un rendimiento deseable dentro de entornos altamente inciertos como la sala de cirugía y la unidad de cuidados intensivos. El control robusto y adaptativo tiene el potencial para mejorar la calidad de la atención médica, así como de restringirlos crecientes costos de atención en salud, debido a ue los controladores robustos y adaptativos pueden hacer ue el sistema alcance un buen rendimiento sin la excesiva dependencia de los modelos del sistema. Es claro ue el control en lazo cerrado para la farmacología clínica permitiría un avance significativo en el estado del arte de los sistemas de administración de medicamentos, al igual ue ampliaría nuestra comprensión de los amplios efectos de los agentes farmacológicos y anestésicos. Aun ue el enfo ue de este trabajo ha sido estudiarla reciente evolución de los métodos de control activos para ofrecer sedación a pacientes en estado crítico en un entorno de cuidados intensivos y esbozar algunos de los retos futuros del control activo de la sedación, estos métodos de control tendrán implicaciones para otros usos del control en lazo cerrado para la administración de medicamentos. Hay numerosas aplicaciones potenciales tales como el control de la glucosa, la frecuencia cardíaca, la presión sanguínea, etc., ue pueden ser mejoradas como resultado del control activo en la dosificación de medicamentos. Los resultados finales se verían reflejados en las mejorasen el cuidado médico, la confiabilidad de los e uipos de dosificación de medicamentos, así como en la reducción de costos para el cuidado de la salud. REFERENCIAS [1] Gilman, A. G., Hardman, J. G. y Limbird, L. E. (1996). Goodman and Gilman’s The Pharmacological Basis of Therapeutics, 10th ed. New York, NY: McGraw-Hill. [2] Welling, P. G. (1997). Pharmacokinetics: Processes, Mathematics, and Applications, 2nd ed. Washington DC: American ChemicalSociety. [3] Jac uez, J. A. (1985). Compartmental Analysis in Biology and Medicine. Ann Arbor, MI: University of Michigan Press. [4] Shafer, S. L., Varvel, J. R., Aziz, N. y Scott, J. C. (1990). “Pharmacokinetics of fentanyl administered by computer-controlled infusion pump”. Anesthesiology, vol. 73, 1092–1102. [5] Bailey, J. M. y Shafer, S. L. (1991). “A simple analytical solution to the three compartment pharmacokinetic model suitable for computer controlled infusion pumps”. IEEE Trans. Biomed. Eng., vol. 38, no. 6, 522–525. [6] Shafer, S. L. y Gregg, K. (1992). “Algorithms to rapidly achieve and maintain stable drug concentrations at the site of drug effect with a computer-controlled infusion”. J. Pharmacokinetics Biopharm., vol. 20, no. 2, 147–169. [7] Levy, J. H., Michelsen, L. G., Shanewise, J. S., Bailey, J. M. y Ramsay, J. G. (1999). “Postoperative cardiovascular management”, en Cardiac Anesthesia, 4th ed. Philadelphia, PA: WB Saunders. [8] Sheppard, L. C. (1980). “Computer control of the infusion of vasoactive drugs”. Ann. Biomed. Eng., vol. 8, 431–444. [9] Arnsparger, J. M., McInnis, B. C., Glover, J. R. y Normann, N. A. (1983). “Adaptive control of blood pressure”. IEEE Trans. Biomed. Eng., vol. 30, 168– 176. [10] He, W. G., Kaufman, H. y Roy, R. J. (1986). “Multiple model adaptive control procedure for blood pressure control”. IEEE Trans. Biomed. Eng., vol. 33, 10–19. [11] Pajunen, G. A., Steinmetz, M. y Shankar, R. (1990). “Model reference adaptive control with constraints for postoperative blood pressure management”. IEEE Trans. Biomed. Eng., vol. 37, no. 7, 679–687.
  • [12] Chen, C. T., Lin, W. L. y Kuo, T. S. (1997). “Adaptive control of arterial blood pressure with a learning controller based on multilayer neural networks”. IEEE Trans. Biomed. Eng., vol. 44, no. 7, 601–609. [13] Behbehani K. y Cross, R. R. (1991). “A controller for regulation of mean arterial blood pressure using optimum nitroprusside infusion rate”. IEEE Trans. Biomed. Eng., vol. 38, no. 6, 513–521. [14] Rampil, I. J. (1998). “A primer for EEG signal processing in anesthesia”. Anesthesiology, vol. 89, no. 4, 980–1002. [15] Bickford, R. G. (1951). “Automatic electroencephalographic control of anesthesia (servo-anesthesia)”. Electroencephalographic Clin. Neurophysiol., vol. 3, 83–86. [16] Schwilden, H., Schuttler, J. y Stoeckel, H. (1987). “Closed-loop feedback control of methohexital anesthesia by quantitative EEG analysis in humans”. Anesthesiology, vol. 67, 341–347. [17] Glass, P. S., Bloom, M., Kearse, L., Rosow, C., Sebel, P. y Manberg, P. (1997). “Bispectral analysis measures sedation and memory effects of propofol, midazolam, iso¯urane, and alfentanil in normal volunteers”. Anesthesiology, vol. 86, 836–847. [18] Struys, M., De Smet, T., Versichelen, L., Van de Vilde, S., Van den Broecke, R. y Mortier, E. (2001). “Comparison of closed-loop controlled administration of propofol using BIS as the controlled variable versus “standard practice” controlled administration”. Anesthesiology, vol. 95, 6–17. [19] Absalom, A. R., Sutcliffe, N. y Kenny, G. N. (2002). “Closed-loop control of anesthesia using bispectral index: Performance assessment in patients undergoing major orthopedic surgery under combined general and regional anesthesia”. Anesthesiology, vol. 96, no. 1, 67–73. Haddad, W. M., Hayakawa, T. y Bailey, J. M.(2006). “Adaptive control for nonlinear compartmental 1 Correspondencia: diego.sendoya@unad.edu.co
  • EFECTOS DE LA RADIACIÓN ELECTROMAGNÉTICA SOBRE LA GERMINACIÓN DEL MAÍZ. Alexander Armesto Arenas1 Facultad de Ciencias Agrarias y del Ambiente, Universidad Francisco de Paula Santander, Ocaña, Colombia Resumen En este trabajo, se evaluó el efecto radiaciones electromagnéticas sobre la germinación del Maíz (Zea mays), semilla normalmente cultivada en el municipio de Ocaña Norte de Santander Colombia, y cuyo nombre vulgar esta descrito como maíz pullita. Se hicieron tres tratamientos, uno con frecuencias de 980 Megahertz (MHz), otros de 443 Megahertz (MHz) y la testigo, cada una de estas con tres repeticiones. Dichas emisiones de onda se hicieron con antenas de media onda, situadas a una distancia de a 37 cm del sustrato donde fueron sembradas las semillas. La radiación electromagnética emitida fue las 24 horas del día, durante 8 días y cuyos resultados mostraron diferencias estadísticas significativas; observando a los 8 días un porcentaje de germinación de 92%, 80% y 50% y a los 15 días un 98%, 95% y 84%, para los tratamientos con emisiones de onda de 890 MHz, 443 MHz y las testigos, respectivamente. En este mismo orden se observó un bajo porcentaje de cenizas en comparación con las testigos, con uno resultados de 12,6903%, 16,1732% y 18,4509%. En los análisis de peso seco no se observaron diferencias significativas; con respecto a la altura, se observó en los primeros días, una ganancia de longitud para las plantas sometidas a la más alta frecuencias seguido da las más baja frecuencia y la testigo, en el ultimo día se notó una mayor altura para las de menor frecuencia, seguido de la más alta frecuencia y la testigo. Palabras claves: Zea mays, electromagnetismo, frecuencia, germinación. 1 INTRODUCCIÓN Es universalmente conocido que las plantas utilizan la luz para hacer la fotosíntesis. En cambio, no lo es tanto, que las plantas tienen un sistema nervioso que funciona de manera similar al de los humanos: una especie de neurotransmisores regulan la distribución del agua, la oclusión de las hojas... Así se intuye que el sistema nervioso de las plantas puede sufrir daños por fuentes externas, y que, por ejemplo los campos magnéticos procedentes del Sol pueden acelerar algunos procesos biológicos como el crecimiento de las plantas. Los efectos de la electricidad sobre las plantas han fascinado a los investigadores durante siglos. En 1770, en Turín, el profesor Gardini colgó una serie de alambres en el jardín de un monasterio y empezaron a morir muchas plantas. Cuando Gardini saco los alambres, las plantas renacieron. Entre 1868-84, un científico finlandés, Selim Lemström, realizó una serie de expediciones a las regiones polares. Sus observaciones le permitieron teorizar que la rica vegetación en los meses de verano se debía, no a que la luz del día se alargaba, sino al incremento de la actividad eléctrica de la aurora boreal. Un refugiado húngaro hizo discurrir la corriente eléctrica a través de un inbrtnsfrto von semillas de limón. Cuando la corriente iba hacia una dirección, aumentaba su medida; pero se arrugaba cuando la corriente corría en dirección opuesta. [1] La energía electromagnética actúa sobre la materia e interrelaciona con los organismos biológicos, en cada etapa de desarrollo desde la germinación, y por ello puede ser una técnica de bajo costo para mejorar la calidad de semilla. En esta investigación se evaluó el efecto de la irradiación electromagnética sobre la calidad fisiológica de la semilla de maíz (Zea mays L.), del híbrido experimental ‘CL-11 x CL-12’, con un campo electromagnético de baja frecuencia. Se compararon 12 tratamientos de campos magnéticos, con intensidades de 160 y 560 mT y siete tiempos de exposición (t) de 0, 30, 60, 120, 240, 360 y 480 min, en un diseño experimental de bloques completos al azar con cuatro repeticiones. Hubo diferencias estadísticas significativas en la velocidad de emergencia y porcentaje de establecimiento de plántulas al cuarto día, y al día 17 en el peso seco. Se detectó bioestimulación positiva con exposición de 30 y 60 min a una intensidad de 560 y 160 mT (dosis de 705.6 y 27.42 K
  • J m-3 s-1, respectivamente). Con la dosis de 705.6 K J m- 3 s-1 hubo un incremento significativo de 69.2 % en comparación con el testigo en velocidad de emergencia, de 90.5 % en establecimiento de plántulas y de 36.6 % en peso seco. [2]. Otros estudios demuestran que La irradiación de semillas con láseres de baja intensidad da lugar a incremento en la biomasa de las plantas [3], en la producción de frutos [4] y es capaz de cambiar la biomasa de las raíces y la densidad estomática [5]. Semillas de maíz híbrido CL1 x CL4 expuestas a intensidades de láser diferentes y los tiempos de irradiación. Con el fin de observar diferencias cualitativas en la clorofila a y b espectros de absorción óptica de las hojas de las plántulas, cuyas semillas fueron irradiadas y no irradiadas, mediante el uso de la espectroscopia fotoacústica (PAS). Un diseño experimental de bloques completos al azar con tres repeticiones. La unidad experimental incluyó a 10 semillas, de los que eligen al azar tres plantas. El análisis de varianza (ANOVA) para ambas clorofilas reveló significativa (P <0,05) las diferencias entre los tratamientos. [6] Hoy en día a de reconocer, que las empresas agrícolas, en su afán de obtener producciones de una manera más limpia y rápida, están al tanto de cualquier avance tecnológico para favorecerse en tal problemática. Pues bien uno de esos tantos inconveniente de siembra y obtención de cosechas, es obtener una rápida germinación, sin tener ningún efecto en los procesos metabólicos de la planta. Así, aprovechando la energía electromagnética como opción, el objetivo de este trabajo consistió en acelerar la emergencia o germinación de las plantas de maíz (Zea mays), por medio de ondas electromagnéticas de entre 900 Megahertz (MHz) y 443 Megahertz (MHz), con potencia de 5 vatios, emitidas por antenas de media onda, teniendo en cuenta de forma hipotética, que las ondas electromagnéticas aceleran la emergencia o germinación de las plantas y que en su efecto dicho campo electromagnético de mayor frecuencia tiene mejor influencia en su respectivo desarrollo. Todo esto con el fin buscar nueva alternativas de producción agrícola sustentable y sostenible en pro de un ambiente sano. 2 MATERIALES Y METODOS El ensayo fue hecho en el vivero de la Universidad Francisco de Paula Santander, Ocaña, Norte de Santander, Colombia. Se utilizaron semillas de maíz (Zea mays) no certificadas y cultivadas en el respectivo municipio, con un porcentaje de germinación promedio del 95%. Se utilizaron 100 semillas por prueba con una masa promedio de 34 gramos, homogenizadas por tamaño, y escogidas al azar, con un total de 900 unidades. En su siembra se utilizo en sustrato a base de arenilla, y semilleros de plástico, ubicados dentro de jaulas de mallas metálicas con agujeros de 3mm de diámetro. Para su respectiva radiación electromagnética se utilizaron circuitos transmisores y antenas de media onda de 890 MHz y 443 MHz con 5 vatios de potencia. La temperatura promedio fue de 21 °C, con una temperatura máxima de 25 °C y una mínima de 17 °C. Dicho experimento fue dado a cielo abierto. Diseño experimental Se utilizó un diseño experimental completamente al azar (DCA) con tres tratamientos: uno con emisiones de onda de 890 MHz, otro con 443 MHz y un último sin ningún tipo de radiación electromagnética. Para cada una de estas pruebas se hicieron tres repeticiones. Metodología. Como pretratamiento las semillas fueron puestas en procesos de imbibición durante 24 horas. Luego, A partir de la siembra los cultivos empezaron a ser irradiados, ubicando cada antena a 35cm de cada prueba, durante 8 días las 24 horas del día. La única variable dependiente a medir en el octavo día fue la germinación, y las variables del día quince fueron: germinación, altura, peso seco y cenizas. Normalmente el conteo de plantas germinadas se hizo diariamente a la misma hora durante toda la prueba. La siguiente tabla y el gráfico muestran los resultados de germinación a los 8 días de haber hecho la respectiva siembra. Tabla I. Porcentaje de germinación por tratamiento y total de plantas germinadas. Día 8 Porcentaje de plantas germinadas Tratamiento Repeticiones(r) Promedio TOTAL r1 r2 r3 890 89 98 88 92 275 443 83 76 80 80 239
  • 000 53 54 43 50 150 TOTAL 664 Grafico 1. % de Germinación vs Frecuencia. Día 8 Par estos resultados se le aplican el respectivo análisis de varianza. Ver Tabla II. Tabla II. Análisis de Varianza (Germinación día 8) FACTOR TIPO NIVELES VALORES Tratamiento aleatorio 3 0. 443. 890 Análisis de varianza Fuente Grado de Libertad Suma de Cuadrados Cuadrados medios (F) (P) Tratamiento 2 2760,2 1380,1 51,97 0,000 Error 6 159,3 26,6 Total 8 2919,6 Varianza (S) = 5,15321, Coeficiente de determinación (R2 ) = 94,54%, R2 .(ajustado) = 92,72% Distribution = F Significancia = (P) En estos resultados se muestra diferencias significativas entre los tratamientos, logrando una mayor germinación las semillas sometidas a radiaciones electromagnéticas de 890MHz, en comparación con las sometidas 443MHz y las testigos, aunque las semillas sometidas a frecuencia más baja estaban por encima de las pruebas que no presentaban ningún tipo de radiación (testigo). En este primer análisis se puede observar una diferencia de germinación promedio entre las plantas sometidas a 890 MHz y las testigo en un 42%, y las sometidas 443 MHz y las testigo en un 30%. Teniendo en cuenta que partir del día 8 las plantas dejaron de ser irradiadas, el día 15 se le volvió hacer un análisis de germinación y se obtuvieron los siguientes resultados. Tabla III. Porcentaje de germinación por tratamiento y total de plantas germinadas. Día 15 Porcentaje de germinación Tratamiento Repeticiones Promedio TOTAL r1 r2 r3 890 98 98 99 98 295 443 98 95 93 95 286 000 87 83 81 83 251 TOTAL 832 Tabla IV. Análisis de Varianza (Germinación día 15) FACTOR TIPO NIVELES VALORES Tratamiento aleatorio 3 0. 443. 890 Análisis de varianza Fuente Grado de Libertad Suma de Cuadrados Cuadrados medios F P Tratamiento 2 360,22 180,11 33,77 0,001 Error 6 32 5,33 Total 8 392,22 S = 2,3094, R2 = 91,84%, R2 (ajustado) = 89,12% En este análisis se aprecian diferencias significativas en los respectivos tratamientos, manteniéndose las semillas sometidas a la más alta frecuencia en un porcentaje alto, seguido de la prueba la baja frecuencia y la testigo. Gráfico 2. Porcentaje de Germinación vs Frecuencia. Día 0 20 40 60 80 100 890 443 000 %PromediodeGerminacion Frecuencia MHz Germinacion vs Frecuencia 75 80 85 90 95 100 890 443 000 %promediodegerminacion Frecuencias MHz Germinacion vs Frecuencia
  • Gráfico 3. Porcentaje de Germinación por día. Día 0 hasta día 15 Tabla V. Porcentaje de plantas anormales y que no terminaron su germinación TRATAMIENTO % ANORMALES % NO GERMINARON 890 3 2 443 1 4 000 6 16 De lo anterior podemos observar ue las semillas sometidas a ondas electromagnéticas de 890MHz sobrepasaron el nivel de germinación normal de la planta cuando es cultivada en condiciones normales, teniendo un cuenta ue la semillas sometidas a la más alta frecuencia mostraron un color amarillento en el noveno día a partir de la siembra. En la siguiente tabla y grafico se observa la altura en centímetros (cm) promedio ue alcanzaron las plantas a los 15 días, y se observa ue estuvieron por encima del tratamiento testigo, las plantas sometidas a las respectivas radiaciones electromagnéticas. Tabla VI. Altura Promedio por Tratamiento Altura promedio.(cm) Tratamiento Repeticiones r1 r2 r3 Promedio 890 11,45 13,48 11,20 12,04 443 12,90 12,94 13,03 12,96 000 9,4 10,83 10,99 10,40 Gráfico 4. Altura promedio alcanzada el día 15 Tabla VII. Análisis de Varianza (altura alcanzada el día 15) FACTOR TIPO NIVELES VALORES Tratamiento aleatorio 3 0. 443. 890 Análisis de varianza Fuente Grado de Libertad Suma de Cuadrados Cuadrados medios F P Tratamiento 2 10,0154 5,0077 6,44 0,032 Error 6 4,6690 0,7782 Total 8 14,6844 S = 0,882138, R2 = 68,20%, R2 (ajustado) = 57,61% Se puede concluir ue hay diferencias significativas en la altura ue alcanzaron los tratamientos. En el gráfico 4, se observa claramente ue las plantas sometidas a 443MHz alcanzaron la mayor altura. De esto hay ue tener en cuenta ue por su rápida germinación las plantas ue empezaron ganando altura fueron las sometidas a 890 MHz, En cuanto a los análisis de materia secas y materia humedad no se obtuvieron diferencias significativas, oscilando cada prueba entre un promedio del 12% de materia seca La siguiente tabla muestra los resultados arrojados en cuanto al análisis de porcentaje de ceniza Tabla VIII. Porcentaje promedio de Ceniza Porcentaje de Ceniza Tratamiento Repeticiones r1 r2 r3 % Promedio 890 13,7221 13,0619 11,2869 12,6903 443 16,6198 13,2126 18,6873 16,1732 000 19,6015 16,0728 19,6785 18,45 0 20 40 60 80 100 1 2 3 4 5 6 7 8 9 101112131415 Porcentajedegerminacion Dias Porcentaje de germinacion 890 443 000 0 5 10 15 890 443 000 Promediodealtura(cm) Tratamiento Altura(cm) 890 443 000
  • Tabla IX. Análisis de Varianza. Porcentaje de Ceniza FACTOR TIPO NIVELES VALORES Tratamiento aleatorio 3 0. 443. 890 Análisis de varianza Fuente Grado de Libertad Suma de Cuadrados Cuadrados medios F P Tratamiento 2 50,091 25,046 5,64 0,042 Error 6 26,646 4,441 Total 8 76,737 S = 2,10738, R2 = 65,28%, R2 (ajustado) = 53,70% Estos resultados muestran ue en plantas sometidas a 890 MHz y 443MHz, describieron diferencias significativas con la testigo. Mostrando en menor porcentaje las plantas sometidas a a la respectiva radiación electromagnética 3 CONCLUSIÓN La aplicación de ondas electromagnéticas de 890MHz y 443MHz a 5 vatios de potencia durante los primero días a partir de la siembra, aumenta la velocidad de germinación en el maíz siendo de mayor influencia las de mayor frecuencia. Notándose normalidad en materia seca pero cambios desfavorables a nivel de ceniza. REFERENCIAS [1] Pujol, C. Miralles, J. y Navarro, V. (2000). Planta electromagnetizada, en Pujol, C. y Miralles, J. Electromagnetismo (7), Barcelona: Drassanes. Associació de Mestres Rosa Sensat. [2] Domínguez, A., Hernández, C., Cruz A., Carballo, A., Zepeda, R. y Martínez, E. (2010). Semilla de maíz bajo la influencia de irradiación de campos electromagnéticos. Revista Fitotecnia Mexicana 33, 183-188 [3] Ivanova, R. and S. Stoyanova. (2000). Effect of presowing irradiation of seed from winter rapeseed by helium-neon laser on the growth, yield and quality of the green mass, Biotehnologija-u-stocarstvu 16:75-83. [4] Gladyszewska, B., B. Kornas-Czuczwar, R. y Koper, S. (1998). Theoretical and practical aspects of presowing laser biostimulation of te seeds, Inzynieria Rolnicza 2:21- 29. [5] Benavides-Mendoza, A., J. Garnica-Serna, C. Hernández-Aguilar, H. Ramírez-Rodríguez, J. Hernández- Dávila, V. Robledo-Torres. (2003). Respuesta al estrés y crecimiento de plántulas cuyas semillas fueron irradiadas con láser de baja intensidad, AGROFAZ 3:269-272. [6] Aguilar, C., Cruz, A., Carballo, A., Ivanov R. y Michtchenko A. (2005). Espectroscopia fotoacústica aplicada al estudio de la influencia de la irradiación de láser sobre las semillas de maíz. San Martin Journal Physique 4, 853-855. Correspondencia: aarmestoa@ufpso.edu.co armesto97@hotmail.com
  • LOCALIZACIÓN DE FUENTES DE ELECTROENCEFALOGRAFÍA BASADA EN MODELOS PARAMÉTRICOS. Jorge Iván Padilla Buriticá Facultad de Ingeniería, Medellín, Colombia Resumen La estimación de las distribuciones de corriente a partir de registros electroencefalográficos se conoce como un problema inverso, el cual puede resolverse aproximadamente mediante la inclusión de modelos dinámicos como restricciones espacio-temporales en la solución. En este trabajo, se considera la tarea de localización de fuentes de electroencefalografía, donde se obtiene una estructura específica para el modelo dinámico de la distribución de corriente en el cerebro, directamente de los datos de electroencefalografía, mediante el ajuste de un modelo autorregresivo multivariado. Mientras que otros enfoques consideran una aproximación de la conectividad interna de las fuentes, la metodología propuesta toma en cuenta una estructura realista del modelo estimado a partir de los datos, de manera que se haga posible encontrar mejores soluciones inversas. El desempeño de la metodología propuesta se valida sobre señales simuladas de electroencefalografía, con diferentes relaciones señal a ruido, donde la tarea de localización de fuentes se evalúa por medio de los errores de localización y de ajuste de datos. Por último se demuestra que estimar estos modelos hace posible obtener soluciones inversas de precisión considerable, en comparación con otras soluciones inversas. Palabras claves: EEG, MVAR, Problemainverso, Regularización, BEM, Filtro de Kalman 1 INTRODUCCIÓN La estimación de la actividad cerebral a partir de señales de electroencefalografía (EEG) es un problema inverso mal condicionado (Infinito número de actividades internas en las fuentes proporciona la misma señal en el cuero cabelludo) que no puede resolverse sin algún tipo de regularización. La localización de fuentes electroen- cefalográficas (ESL) es una técnica que consiste en inferir la configuración interna del cerebro que podría explicar la actividad electromagnética reflejada en el cuero cabelludo, es decir, el problema inverso en EEG. En este sentido, un modelo paramétrico como el modelo autorregresivo multivariado (MVAR), se puede proponer para llevar a cabo la tarea de ESL, dado que dicho modelo presenta beneficios como la exactitud y la capacidad de seguimiento de la dinámica en el tiempo, de un conjunto de variables cite{Poulimenos06}. Sin embargo, la descripción obtenida de la señal EEG a partir de los parámetros del modelo MVAR no corresponde a la misma actividad dentro del cerebro, por lo que estos modelos no son suficientes para resolver o describir las dinámicas internas de las fuentes cite{Gomez08}. Por esta razón, es necesario mejorar la representación de la conectividad interna de las fuentes directamente de los parámetros estimados. De esta manera, una técnica para resolver el problemainverso en EEG es el filtrado de Kalman, porque proporciona un marco natural para la incorporación de restricciones dinámicas en el problema de localización de fuentes. Por ser un problema mal condicionado, la tarea de localización de fuentes requiere restricciones anatómicas y fisiológicas para una solución adecuada, razón por la cual, se debe tener en cuenta un conocimiento a priori sobre la región de origen para obtener una solución única, cuando se halla la solución directamente, como en el caso estático cite{Grech08}. Para superar estos inconvenientes, métodos recientes han propuesto que se tenga en cuenta la dinámica fisiológica de EEG basados en modelos lineales o no lineales cite{Galka04_priors}, cite{GiraldoDekker10}. Sin embargo, la solución dinámica resultante para problema inverso puede describirla interacción real entre las fuentes. Este trabajo presenta una metodología basada en modelos MVAR con parámetros invariantes en el tiempo, que puede ser utilizada de forma conjunta con el filtro de Kalman para estimar la dinámica de las fuentes, las cuales están implementadas sobre un modelo realista del cerebro
  • calculado con el método de elementos de frontera. El desempeño de esta metodología se valida sobre señales EEG simuladas con diferentesniveles de ruido, para las cuales se evalúa la localización de las fuentes mediante los errores de localización y de ajuste de datos, también se hacen pruebas adicionales mediante análisis de componentes independientes como técnica de separación ciega de fuentes, para reducir el número componentes que deben analizarse con el filtro de Kalman. Finalmente, se muestra que a pesar de utilizarla pseudo-inversa regularizada de Tikhonov, los parámetros MVAR proporcionan información suficiente para alcanzar una localización precisa de las fuentes. 2 MATERIALES Y MÉTODOS 2.2 Modelos paramétricos para el análisis de bioseñales Con el fin de desarrollar métodos automatizados de asistencia diagnóstica a partir del análisis de bioseñales, es necesario obtener modelos con los cuales se pueda describir de forma precisa la dinámica de las mismas. Esta tarea se ha llevado a cabo utilizando modelos paramétricos y modelos no paramétricos, sin embargo en este trabajo se han preferido los modelos paramétricos debido a la precisión y la capacidad de seguimiento de la dinámica de variables en el tiempo cite{Poulimenos06}, además con los coeficientes del modelado paramétrico se pueden describir comportamientos patológicos, determinar conexiones fisiológicas relevantes en el cerebro y además encontrar relaciones de interés entre los electrodos cite{Gomez08}. Los parámetros de estos modelos codifican las dependencias secuenciales del sistema de una manera sencilla y eficaz; además pueden interpretarse como conectividades efectivas dentro del sistema que las genera cite{SPM_book}. En general cuando se utilizan modelos paramétricos deben tenerse en cuenta dos tareas principales: • La estimación de parámetros del modelo, en este caso se hará con Modelos autorregresivos • Selección adecuada del orden del modelo, se utilizará el criterio BIC 2.3 ModelosAutorregresivosMultivariados para EEG) Modelos Autorregresivos Multivariados (MVAR). Sea una serie de tiempo multivariada estacionaria , , donde es la -ésima serie de tiempo que compone el vector , siendo n, el número de canales que conforma la señal multivariada. Un modelo MVAR para la serie de tiempo , se define como [8]: (1) Donde , 1, , es la -ésima matriz de parámetros del modelo MVAR, que se define como, € • ‚, ƒ 1, … , „† , mientras es un vector aleatorio no correlacionado con media cero y matriz de covarianza ‡ , cuya distribución comúnmente se asume gaussiana. De forma que el modelo MVAR descrito (1) puede ser reescrito en la forma alternativa ˆ ‰ (2) dondeˆ es una matriz de tamaño „ „ , en la que se encuentran los valores previos de la serie de tiempo , siendo ˆ ˆ ˆ , con elementos: ˆ Š ‹ ‹ ‹ ‹ Œ Œ • Œ ‹ ‹ Ž La Ec. (2) considera el modelo MVAR como una relación lineal simple entre el vector de parámetros ‰y la serie de tiempo multivariada , dada a través de la matriz de medición ˆ que contiene la información de los valores pasados de . 2.4 Título de capítulos y subdivisiones MARCO EXPERIMENTAL Ajuste de los modelos MVAR. El ajuste de los modelos MVAR consiste en determinar el orden del modelo• así como determinar los valores de las matrices de parámetros •, , • . Con el fin de determinar el orden del modelo, se puede utilizar el criterio de información Bayesiano (BIC), que se define como: ‘’“ •€ ” •–—‡ — ”• •– ˜, donde —‡ — denota el determinante de la matriz ‡ , ˜ es la cantidad de muestras en el modelo y • el orden. El orden óptimo se selecciona como aquel que maximiza el criterio BIC. La calidad del ajuste de los modelos MVAR se puede medir mediante dos criterios, el error cuadrático medio (MSE) y el índice de correlación. Ambas medidas se definen como:
  • donde es el -ésimo canal de la señal E -ésimo canal estimado de la señal EEG covarianza cruzada entre e ; e desviaciones estándar de e respectiva Localización de fuentes: Para mejorar la representación de conecti de las fuentes obtenida con los parámetro MVAR, se utiliza el Filtro de Kalman ( proporciona un marco natural para la inco restricciones dinámicas en el problema de de fuentes. Además del filtro de Kalman se uti adaptaciones de covarianza . Para la evaluación se emplean datos EE en 32 electrodos ubicados de acuerdo co 10–20, la distribución de las fuentes e solución se hace mediante una rejilla re interior de la corteza. Se comparan la obtenidas con el filtro de Kalman y sus de covarianza. El análisis se realiza para el modelo esf capas así como para el modelo BEM. EEG, es el G, es la e son las amente. vidad interna os del modelo (KF), porque orporación de e localización lizaron las EG simulados on el estándar en el espacio ectangular al as soluciones adaptaciones férico de tres CONCLUSIONES • Se desarrolló una metodo fuentes de electroencefal paramétricos y filtro de fue evaluada para señale se hizo para diferentes ni simulados ubicados a dif del cerebro. Como res analizados presentan erro nivel de ruido es muy a profunda • Se estimó una estructu directamente de los dat parámetros del modelo modelo no uniforme mejorar la localización d asumir alguna dinámica e REFERENCIAS [1] Eco, Umberto. (1996). narrativos. Barcelona: Lu [2] Fernández, G. (1999) Cuadernos de Pedagogía [3] Carpio, L (1996). Mate A. Educación sistem Narcea. ología para la localización de lografía, basada en modelos e Kalman. Esta metodología es sintéticas, la comparación iveles de ruido y con dipolos ferentes profundidades dentro sultado, todos los métodos ores de localización cuando el alto y la fuente simulada es ura dinámica lineal tomada tos simulados EEG con los MVAR, para obtener un del cerebro, que permitió de las fuentes sin tener que en el cerebro. Seis paseos por los bosques umen. ). Some didactic aspects. a, 279, 13-24. eriales didácticos, en García, mática (229-250), Madrid:
  • DISEÑO Y CONSTRUCCIÓN DE UNA ESTACIÓN AGROMETEREOOLÓGICAAUTOMATIZADA EN EL CENTRO BIOTECNOLÓGICO DEL CARIBE, SENA-CESAR Armando Brito, Jair Barrios, Jaime Agudelo, Marcos Ortiz Centro Biotecnológico del Caribe-SENA Regional Cesar, Valledupar, Colombia Resumen Los fenómenos relacionados con la atmosfera, el tiempo y el clima son factores ambientales que inciden de diversa manera en el desarrollo y resultado de las actividades humanas sobre un determinado territorio. En este sentido, surge la meteorología que es la ciencia que estudia dichos fenómenos. Ahora, si los beneficios generados se encaminan a las labores agrícolas nace la Agrometeorología; que es una de las herramientas más importantes con las que cuenta esta ciencia son las estaciones meteorológicas automatizadas, que tienen la capacidad de registrar y recolectar información de variables climáticas en forma automática y en tiempo real. Como resultado de esta investigación, se hizo el diseño y posterior construcción de una estación agrometeorológica que registro parámetros de temperatura, humedad, presión atmosférica, entre otros, leídos por medio de Transductores de señal. Estas lecturas son acondicionadas para luego ser procesadas mediante microcontroladores y transmitidas a través de un sistema de comunicación inalámbrico en forma automática. La estación Agrometeorológica funciona en forma autónoma, las 24 horas, con un sistema de alimentación a través de energía renovable (paneles solares) con el propósito que El Centro Biotecnológico Del Caribe - SENA cuente con toda la información meteorológica disponible para su estudio y desarrollo de proyectos de investigaciones aplicadas en los procesos agropecuarios del centro. Abstract Phenomena related to the atmosphere, weather and climate are environmental factors that affect in different ways in the conduct and outcome of human activities on a given territory. In this sense, there is the weather which is the science that studies the sephenomena. Now, if the benefits are directed to agriculture Agrometeorology born, which is one of the most important tools with which this science has are automated weather stations that have the ability to record and collect information on climate variables in the form automatically and in real time. Keywords: Automated weather station, weather variables, microcontrollers. 1 INTRODUCCIÓN La Meteorología es una ciencia tremendamente avanzada, basada en nuestro conocimiento de la Física y en el uso de las más modernas tecnologías. Los meteorólogos son capaces, incluso, de predecir el tiempo hasta con una semana de antelación con márgenes de error bastante discretos. En esta ciencia la base de estudio es la atmósfera donde se busca el conocimiento de una serie de magnitudes, o variables meteorológicas, como la temperatura, la presión atmosférica o la humedad, las cuales varían tanto en el espacio como en el tiempo. En la Agrometeorología, una de sus principales herra- mientas son las estaciones meteorológicas las cuales son las encargadas de recolectar todas estas variables a través de una serie de instrumentos de medición. Las bases de datos generados por estos equipos se pueden utilizar para hacer estudios climáticos así como para la elaboración de predicciones meteorológicas a partir de modelos numéricos. Dichas estaciones anteriormente eran del todo analógicas y necesitaban de mucha supervisión humana, acarreando todos los problemas que esto conlleva. Hoy día con todos los avances realizados en la electrónica, informática y comunicaciones nos es posible contar estaciones meteorológicas automatizadas denominadas EMA’s, las cuales nos permiten con un mínimo de intervención
  • humana recolectar todas estas variables meteorológicas a través del uso de sensores, transmitirlas, incluso desde largas distancias y almacenarlas en sistemas de información que facilitan su procesamiento y consulta. 2 PLANTEAMIENTO DEL PROBLEMA En nuestro país los costos de adquisión de estas estaciones son muy elevados, ya que la mayoría de estas son importadas, provocando que en nuestro país sean pocas las empresas o entidades que puedan hacer uso de ellas. Debido a la dificultad que tienen algunos sectores en nuestro país para adquirir estos sistemas, tal es el caso del sector agrícola, para el cual es muy importante el conocimiento de esta información para determinar periodos de lluvia, sequias, heladas. Que les permita organizar adecuadamente la siembra, producción y recolección de sus cultivos. Es por esto que se gesta la necesidad de crear prototipos que nos permitan a futuro diseñar y construir estaciones Agrometeorológicas automatizadas de bajo costo, que sean asequibles para los diferentes sectores de nuestro país. 3 ESTADO DEL ARTE En la actualidad, existen las estaciones meteorológicas convencionales cuyas características son: instrumentos análogos, alta intervención humana, recolección de datos manual. A continuación, en la figura 1 se muestra una estación meteorológica convencional utilizada en el aeropuerto Alfonso López de la ciudad de Valledupar. Fig. 1. Estación meteorológica convencional. Por otra parte en las estaciones meteorológicas automatizadas (EMA’s), sus instrumentos de medida son sensores que permiten convertir digitalizar la información para luego ser trasmitida y almacenada en sistemas de información. Para su posterior estudio y procesamiento. La figura 2, nos muestra una peque estación meteorológica automatizada. Fig. 2. Estación meteorológica automatizada 3.1 Variables Meteorológicas Se les considera variables metereológicas a los distintos datos o característiscas que podemos extraer de la atmosfera a través de instrumentos de medición u observación, entre estas las más medidas por las estaciones meteorológicas son las siguientes: • Temperatura • Punto de rocío • Humedad • Presión • Visibilidad • Dirección del viento • Velocidad del viento • Precipitación • Evaporación 4 RESULTADOS Las variables Agrometeorología medidas, nos permitieron estudiar las condiciones meteorológicas, climáticas e hidrológicas y su interrelación en los procesos de la producción agrícola del centro Biotecnológico del caribe, SENA Regional Cesar. Con ello se pudo establecer la necesidad de cooperar con la agricultura para utilizar mejor los recursos climáticos y luchar contra las
  • adversidades del tiempo para obtener altos y mejores rendimientos. Se pudo establecer que manipulando y controlando las variables Agrometeorógicas, podemos variar a las condiciones que caracterizan la atmósfera y el cultivo en un momento determinado. Los dispositivos electrónicos y diseños utilizados fueron los siguientes: Fig 3. Sensor de presión Fig. 4Montaje del sistema
  • SISTEMA DE ADQUISICIÓN DE DATOS DE BAJO COSTO, BASADO EN SOFTWARE Y HARDWARE LIBRE Y ABIERTO, CON INTERFACE MÓVIL. Jorge Gómez A., Conrado Nieto B. Escuela de Ingeniería, Programa de Ing. Electrónica, I. Universitaria Salazar y Herrera, Especialización Tecnológica en Desarrollo de Aplicaciones para Dispositivos Móviles, Centro de Servicios y Gestión Empresarial, Regional Antioquia SENA. Medellín, Colombia, Sur América. Resumen Esta ponencia presenta el desarrollo de un sistema de adquisición de datos, basado en software y hardware, libre y abierto, aplicando MyOpenLab, una programa de origen alemán, orientado al modelado y la simulación de sistemas físicos, electrónicos y de control, bajo General Public License (GPL) de código abierto, que cuenta con librerías de: Inteligencia artificial, control, digitales, entre otras, y la posibilidad de definir las propias, tiene características similares a LabVIEW. El software está escrito en lenguaje Java, lo que permite migrarlo a múltiples plataformas como Windows, Linux, y con algunas adaptaciones a Dispositivos Móviles, además cuenta con una red de colaboradores a nivel mundial, posee características muy interesantes como la comunicación con Ardulema, un clon de Arduino en el que se basó en primera medida esta Investigación. Como Hardware libre es adaptado Arduino una tarjeta de desarrollo que viene equipada con microcontroladores atmega, es una plataforma educativa para la enseñanza de tecnología que incluye conceptos de sistemas complejos, programación, electrónica básica, automatización, y robótica, entre otros. Se escoge por comodidad pues tiene mucha documentación y código también libre y abierto, gracias a su gran comunidad de aprendizaje que se puede integrar en este proyecto y algunos posteriores. La necesidad a satisfacer con el proyecto radica en resolver el problema de altos costos en software y hardware de adquisición de datos comerciales, su falta de modularidad y su reducida capacidad de adaptación a las necesidades, así como presupuestos de estudiantes y las pequeñas empresas, proyecto de mejoramiento empresarial realizado para la Corporación Lunamedia. El paso siguiente incluirá la construcción y teleoperación de un Robot Manipulador, hacer uso del estándar Java 3D y operación con dispositivos móviles celulares por sistema Bluetooth o a través de internet utilizando una VPN (Red Privada Virtual). Palabras claves: OpenHardware , OpenSoftware, Arduino, MyOpenLab, Adquisición de Datos. 1 INTRODUCCIÓN En la actualidad son cada vez más comunes las tareas que requieren, adquirir y procesar datos, las tarjetas e interfaces de los sistemas de adquisición de datos comerciales tienen precios elevados. Con el presente trabajo se busca dar a conocer las funcionalidades de las herramientas Libres y de Código Abierto: MyOpenLab y Arduino. La necesidad a satisfacer con el proyecto radica en resolver el problema de altos costos en software y hardware de adquisición de datos comerciales y su falta de modularidad y capacidad de adaptación a las necesidades y presupuestos de los estudiantes y las pequeñas empresas. Además se hace una relatoría del proceso de investigación y las pruebas realizadas al prototipo funcional que se desarrolló durante una investigación formativa como proyecto final del curso Adquisición de Datos, que se imparte en la Institución Universitaria Salazar y Herrera de la ciudad de Medellín, además hace parte del informe de práctica empresarial en la modalidad de Mejoramiento
  • en la Entidad sin ánimo de lucro Corporación Lunamedia dedicada el diseño y producción de contenidos culturales, educativos y comunitarios. 2 PLANTEAMIENTO DEL PROYECTO 2.1 Pregunta de Investigación ¿Cuáles son las herramientas, métodos y soluciones acordes desde los puntos de vista técnico y pedagógico para diseñar e implementar una Interface de Adquisición de Datos a Bajo Costo, Basada en Software y Hardware, Libre y Abierto, aplicable a un curso Adquisición de Datos y extrapolable a la industria y otros cursos? 2.2 Justificación La gran posibilidad que abre a las personas la educación on-line o e-learning es el lograr que discapacitados, personas de bajos recursos (que les impide la movilidad a hasta los centros de enseñanza), estudiantes con largos periodos de enfermedad que los aleja de la presencialidad y otros miembros que antes no podían estudiar por carecer de tiempo en las jornadas establecidas por las universidades, logren una formación que les permita alcanzar una mejor calidad de vida al prepararlos para una carrera y un trabajo dignos, sin embargo se encuentra con un gran escollo: las materias que mayormente tienen contenidos prácticos o son en su esencia laboratorios. En este proyecto se propone estudiar la tecnología para la implementación e incorporación de nuevas innovaciones tecnológicas TICS (Tecnologías de Información y Comunicación) aplicadas en Ambientes Virtuales de Aprendizaje, un prototipo de “Interface de Adquisición de Datos de Bajo Costo, Basada en Software y Hardware Libre y Abierto” avanzando en la investigación y desarrollo de “Laboratorios virtuales” y “Laboratorios Remotos” en el área de electrónica, específicamente en el curso de Adquisición de Datos, para ofrecerse en complemento o como alternativa al software e interface (Hardware) comercial. El desarrollo de este tipo de herramientas ha demostrado su pertinencia al enfrentar al futuro profesional ante situaciones reales donde se interactúa directamente con los equipos y dispositivos físicos o con paquetes de software sofisticado al cual no tienen acceso usualmente los estudiantes en sus hogares. 2.3 Objetivos General. Diseñar e implementar un prototipo de laboratorio virtual como herramienta educativa que pueda ser aplicable al curso de sistemas de adquisición de datos que se imparte en la Institución Universitaria Salazar y Herrera de la ciudad de Medellín como trabajo de mejoramiento empresarial realizado para la Corporación Lunamedia. Específicos • Implementar una interface de hardware abierto en la construcción del módulo de laboratorio que le permita comunicarse con sensores y actuadores. • Reducir los costos de materiales en las prácticas de los estudiantes de áreas relacionadas con la adquisición de datos. • Trabajar con el software libre y abierto de adquisición de datos y permitir la comunicación con la placa escogida para realizar las practicas. 3 CONCEPTUALIZACIÓN ¿Qué es Software Libre (Free Software)? Esta denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation [1]…“el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado”… Se suele confundir con el software gratis pero es una acepción diferente, pues este solo es que no tiene costo para el usuario, pero puede traer muchas restricciones. ¿Qué es Código Abierto (Open Software)? Es el software que se distribuye junto con su código fuente, y con una licencia de uso que garantiza que quien lo adquiere: Puede estudiarlo, corregirlo, mejorarlo y adaptarlo a cualquier necesidad puede utilizarlo para cualquier propósito tiene el derecho de redistribuirlo, siempre que preserve su carácter abierto. El hecho de que el código fuente esté disponible y pueda ser modificado es la razón por la cual es habitual referirse a este tipo de software como "software de código fuente abierto" (en inglés, "open source software"), o simplemente software abierto. ¿Qué es Hardware Abierto (Open Hardware)? Existen hoy en día miles de diseños de libre distribución y el Hardware Abierto (HA) busca no solamente hacer más accesible esa información, sino el promover y dotar de
  • marco jurídico al diseño libre con el fin de proteger y alentar a todos los desarrolladores hardware [2]. ¿Qué es Arduino? Arduino es un entrenador de microcontroladores de origen italiano muy difundido en el mundo por su fácil uso y su gran equipo de desarrolladores y colaboradores. …“Arduino es una plataforma de prototipos electrónica de código abierto (open-source) basada en hardware y software flexibles y fáciles de usar. Está pensado para artistas, diseñadores, como hobby y para cualquiera interesado en crear objetos o entornos interactivos. Arduino puede sentir el entorno mediante la recepción de entradas desde una variedad de sensores y puede afectar a su alrededor mediante el control de luces, motores y otros artefactos.”… [3] Figura 1 Arduino UNO Fuente : http://www.arduino.cc El microcontrolador de la placa se programa usando el Arduino Programming Language (Lenguaje propio basado en Wiring un sistema y una tarjeta anterior diseñada por Diego Barragan un colombiano) y el Arduino Development Environment (basado en Processing un lenguaje de captura y visualización de datos dirigido a diseñadores y profesionales del área grafica en su mayoría). …“Los proyectos de Arduino pueden ser autonomos o se pueden comunicar con software en ejecución en un ordenador (por ejemplo con Flash, Processing, MaxMSP, etc.). Las placas se pueden ensamblar a mano o encargarlas preensambladas; el software se puede descargar gratuitamente. Los diseños de referencia del hardware (archivos CAD) están disponibles bajo licencia open-source, por lo que eres libre de adaptarlas a tus necesidades. Arduino recibió una mención honorífica en la sección Digital Communities del Ars Electronica Prix en 2006.” …[4] …“Una de las características más importantes de esta plataforma de hardware es la posibilidad de construir las tarjetas en casa ya que sus componentes pueden encontrarse en las tiendas de componentes electrónicos y usando una protoboard o un circuito impreso muy fácil de producir puede construirse una tarjeta cuyo costo es muy bajo si lo comparamos con otras plataformas de hardware libre. También existe una gran cantidad de proveedores que distribuyen la tarjeta en todo el mundo, como también un sin número de proyectos basados en la tarjeta base que adicionan características o hacen la tarjeta más asequible esto gracias a la naturaleza de hardware libre con la que se distribuyen los diagramas de la plataforma, es así como existen un sin número de tarjetas basadas en Arduino, como la ArbuinoBT que adiciona un radio bluetooth para la comunicación inalámbrica, la Arduino Mega con un gran número de entradas y salidas para proyectos más grandes, tarjetas basadas en otras familias de micro controladores y la popular Freeduino, una tarjeta que puede ser fácilmente armada en casa que incluye el circuito impreso y todo el montaje es con componentes fáciles de soldar que no utilizan montaje superficial. Adicionalmente existen tarjetas de expansión conocidas como Shields, las cuales pueden conectarse sobre la tarjeta Arduino de forma modular las cuales adicionan una característica específica a la plataforma, de tal modo que se pueden construir artefactos adicionando estas Shields unas sobre otras para lograr el conjunto de características buscadas y convirtiendo a la plataforma Arduino en una plataforma Modular de desarrollo de prototipos de hardware”… [5] ¿Por qué Arduino? Existiendo tantos otros microcontroladores y plataformas microcontroladoras disponibles para computación física. Pics de Microchips, free Scale de Motorola, Parallax
  • Basic Stamp, Netmedia's BX-24, Phidgets, MIT's Handyboard, entre otras ofertas de funcionalidad similar. Todas las tarjetas de desarrollo de microcontroladores en teoría tratan de crear un protocolo simple y lo encierran en un paquete fácil de usar. Arduino también pero brinda unas ventajas especiales para docentes, estudiantes y enamorados de la tecnología sobre los otros sistemas: • Gran comunidad de colaboradores: Existen en el mundo miles de colaboradores y apasionados de la plataforma Arduino. • Económica: La placa Arduino son relativamente no costosas comparadas con otras plataformas de microcontroladores. La versión menos cara del módulo Arduino puede ser ensamblada a mano, e incluso los módulos de Arduino preensamblados cuestan menos de $ 50.000 pesos colombianos. • Multiplataforma: El software de Arduino se ejecuta en sistemas operativos Windows, Macintosh OSX y GNU/Linux e inclusive dispositivos móviles que permitan correr el runtime JRE de Java. La mayoría de los sistemas microcontroladores están limitados a Windows. • Entorno simple y claro: El entorno de programación de Arduino es de fácil aprendizaje, pero suficientemente flexible para que los usuarios avanzados puedan aprovecharlo también e inclusive extenderlo a sus necesidades, para profesores, está convenientemente basado en el entorno Processing. • Código abierto y software extensible: El software Arduino está publicado como herramienta de código abierto, disponible para extensión por programadores experimentados; puede ser expandido mediante librerías C++, y la gente que quiera entender los detalles técnicos pueden hacer el salto desde Arduino a la programación en lenguaje AVR C en el cual está basado. De forma similar, puedes añadir código AVR-C directamente en tus programas Arduino si quieres. • Código abierto y hardware extensible: El Arduino está basado en los microcontroladores ATMEGA y de Atmel. Los planos para los módulos están publicados bajo licencia Creative Commons, por lo que diseñadores experimentados de circuitos pueden hacer su propia versión del módulo, extendiéndolo y mejorándolo. Incluso usuarios relativamente inexpertos pueden construir la versión de la placa del módulo para entender cómo funciona y ahorrar dinero. Figura 2 MyOpenLab Fuente : http://myopenlab.de ¿Por qué MyOpenLab? MyOpenLab: Es un software de libre distribuido bajo licencia GPL de código abierto, escrito en Java, multiplataforma y orientado a la realización de aplicaciones de modelado y simulación de sistemas físicos, electrónicos y de control con un amplio campo de aplicaciones. El poder grafico de MyOpenLab y sus potencias de cálculo y proceso de datos le hacen candidato para la experimentación y elaboración de prototipos tanto en el aula, el laboratorio, así como en el hogar y la empresa. En este programa existe la posibilidad de conexión a través de los puertos USB del ordenador con el mundo físico a diversos tipos de hardware entre ellos se encuentra Arduino. [5] 4 PLANTEAMIENTO Y REALIZACIÓN Se planeó una investigación sobre las placas y software disponibles en el medio para la adquisición de datos teniendo como la directriz principal que fuesen abiertos y libres, para posteriormente adaptarlos a las necesidades del curso. Se tuvieron en cuenta restricciones de presupuesto como $100.000 como máximo. Se realizó una investigación por internet donde se encontró MyOpenLab como solución de bajo costo y gran versatilidad y en trabajo de campo de las posibles ofertas. Se encontró placas como Freeduino (Clon de Arduino con materiales nacionales que enviaban por correo desde la Universidad Autónoma de Manizales), el Pingüino, del cual se tiene muy buenos resultados y que es totalmente construible con materiales nacionales, pero
  • se optó por adquirir en una rebaja en la tienda I+D del centro comercial la cascada de Medellín un Arduino UNO original hecho en Italia, con el que finalmente se realizaron las pruebas y la puesta a punto del sistema cumpliendo la limitación de presupuesto autoimpuesta (se logró bajar a $70.000 precio final). Figura 3 Arduino en programa de simulación Physical Etoys Fuente : Elaboración Propia Se programó Arduino con la plataforma libre y totalmente abierta, la documentación se puede encontrar en http://www.arduino.cc por medio de la conexión USB sin necesidad de quemadores ni entrenadores de microcontrolador adicional, para poder comunicarse con MyOpenLab, se transfirió el programa a la placa y se realizaron las pruebas de simulación de un sensor utilizando una de las entradas analógicas de la placa utilizando para ello un potenciómetro de 10k para simular la medida. Figure 4 Esquema simplificado de E/S para conexión entre MyOpenLab y Arduino Fuente. Elaboración propia basada en boceto de www.myopenlab.de Se identificó el puerto con al que se socio la tarjeta en este caso arduino UNO y se procedió a simulo un solo sensor al que se le pidió al programa MyOpenLab que lo graficara y lo compara con un nivel establecido para disparar una alarma o un actuador que en este caso fue un led. Figura 5 Pantallazo del Programa realizado en MyOpen Lab para adquirir datos por medio del Arduino Fuente : Elaboración Propia
  • Figura 6 Pantallazo Instrumento Virtual en MyOpenLab para adquirir y procesar datos por medio del Arduino Fuente : Elaboración Propia Los cuadros y los gráficos, figuras y las ilustraciones deben incluir en la parte inferior un título o explicación (fuente) que contenga número de gráfico, nombre y explicación breve, en letra normal, cursiva, centrado y con fuente a 8 Puntos. Deben ir numerados consecutivamente con números arábigos. Las tablas deben incluir en la parte superior un título o explicación que contenga número de tabla, nombre y explicación breve, en letra normal, cursiva, centrado y con fuente a 8 Puntos. Deben ir numeradas consecutivamente con números romanos. 4 RESULTADOS Y SU VALORACIÓN 4.1 Pruebas realizadas Se realizaron pruebas de valoración del sistema en varios computadores incluyendo un netbook Samsung con Windows 7 donde se obtuvieron resultados buenos, aunque se dispararon varios fallos de software, en un computador de escritorio con Windows XP se obtuvieron cero fallos, por lo que se recomienda en máquinas de estas características por ahora, mientras se realiza la actualización de software. 4.2 Resumen Final Se desarrolló una interface de adquisición y exportación de datos basados en software y hardware, tanto libre como abierto, con MyOpenLab. Se realizó toda la programación del sistema con características muy interesantes como la comunicación con Arduino en el que se basó la investigación que puede aplicarse en sistemas complejos, programación, electrónica básica, automatización, y robótica, entre otros con su gran comunidad de aprendizaje que se pueden integrar algunos proyectos posteriores. 4.3 Análisis crítico • El sistema logrado es totalmente aplicable en múltiples campos tanto de la electrónica como de la automatización y la robótica. • Abre el campo a futuras investigaciones que se vienen gestando en la facultad. • Es fácil de implementar y adaptar a las necesidades de los diferentes laboratorios. 4.4 Conclusiones construidas con los hallazgos. Lo más relevante es la aplicabilidad y versatilidad del sistema. La tendencia en el mundo se mueve hacia el hardware libre y abierto y a los sistemas de bajo costo, las alternativas comerciales son caras y con muchas restricciones. Se propuso como escenario futuro (Hace 6 meses cuando culminó la investigación): • La aplicación en el aula de este sistema (ya se está implementando en el curso de adquisición de datos este semestre). • Poner en marcha del Semillero de Robótica Educativa y Hardware Libre “ROEDHA LIBRE” como parte del Grupo de Investigación en Electrónica y Automática (GEA) con el apoyo del área de Mecatrónica de la Escuela de Ingeniería y de grupos de investigación de otras entidades educativas como el Tecnológico Pascual Bravo Institución Universtaria (Ya es una realidad). • Se participó como expositores en el V Salon de Inventores y Alta Tecnología, organizada por la Sociedad Antioqueña de Ingenieros y Arquitectos (SAI) en el centro de Convenciones Plaza Mayor de Medellín a finales de 2011. • Se hará parte del Encuentro Regional de Semilleros de Investigación que organiza la Red de Colombiana de Semilleros de Investigación (REDCOLSI). • Se plantea continuar con la segunda y tercera fase del proyecto en el que se está trabajando desde la Especialización Tecnológica en Desarrollo de Aplicaciones para Dispositivos Móviles y desde el Centro de Servicios y Gestión Empresarial Regional Antioquia del SENA, para poder integrar el estándar
  • Java 3D y la plataforma Android (o Windows Phone) para la teleoperación por medio de Dispositivos Móviles Celulares que integren el sistema de comunicación Bluetooth y una VPN (Segunda Fase del Proyecto), para conectarse a un plataforma de robótica de manipuladores al que se integrará un cortador Láser de Baja Potencia con fines académicos (Tercera Fase del Proyecto). • Se recibió apoyo para compra de equipos por parte de la Escuela de Ingeniería de la Institución Universitaria Salazar y Herrera. • Se generó gran espectativa en la comunidad académica y se han recibidó muchas solicitudes para integrar el semillero y se están analizando las hojas de vida en el caso de las personas naturales y el certificado de existencia y representación legal, en caso de las jurídicas, así como las propuestas de participación en proyectos. 5 REFERENCIAS [1] Stallman, Richard (2004) Software libre para una sociedad libre. Madrid: Traficantes de Sueños. [2] Ivid. [3] Enríquez, Rafael (2009) Guía de Usuario de Arduino. Córdoba, España: Universidad de Córdoba. [4] Ividem. [5] Ruiz, José (2011) Una propuesta de Utilización de Open Hardware y Software Libre GNU para el Diseño y Simulación de Prototipos en el Laboratorio. Madrid: http://www. myopenlab.de/ http://www.arduino.cc http://www. myopenlab.de http://www. Iush.edu.co Correspondecia: jorgegomeza@misena.edu.co cnietobu@gmail.com
  • INGENIERÍA DE SISTEMAS
  • PROYECTO DISEÑO DE MODELO AGENTE INTELIGENTE PARAAPOYO A ESTUDIANTES EN AMBIENTES VIRTUALES DE APRENDIZAJE Pilar Alexandra Moreno, Erika María Sandoval, Carlos Alberto Rojas1 Escuela de ciencias básicas, tecnología e ingeniería ECBTI, Universidad Nacional Abierta y a Distancia UNAD, Duitama, Colombia Resumen Este artículo presenta la propuesta de investigación que se presentó para el desarrollo de un modelo de agente inteligente como apoyo a estudiantes en ambientes virtuales de aprendizaje, que servirá como sistema de soporte y orientación en el campus virtual de la Universidad Nacional Abierta y a Distancia (UNAD). Según resultados del estudio realizado al sistema de consejería virtual en 2010 “Temática de las Consultas de Consejería Virtual. Tipología y Jerarquización” (Moreno, Rotundo 2010) se evidenció que el sistema de soporte de la consejería del campus virtual presenta debilidades que le dificultan atender de manera eficiente las necesidades de los estudiantes. Ante esta situación se hizo necesario diseñar un sistema inteligente, basado en el análisis y la organización de la información recogida, que permitiera brindar ayuda al estudiante de una manera automática, más efectiva y complementaria a la atención directa por parte de los operarios de la Consejería Virtual. En el proyecto se formuló una investigación aplicada basada en la utilización de conceptos y avances en tres campos específicos: la inteligencia artificial, los ambientes virtuales de aprendizaje y los sistemas de soporte, para desarrollar una innovación tecnológica, tipo sistema inteligente, como alternativa de solución a las necesidades de soporte que presentan los estudiantes de la UNAD en el campus virtual. Como resultados se propusieron el estado del arte sobre agentes inteligentes y servicios de apoyo a estudiantes en ambientes virtuales de aprendizaje, modelo de agente inteligente a implementar, diseño del sistema de agente inteligente, prototipo funcional del sistema inteligente y la sistematización del proceso de ingeniería del software desarrollado en el diseño del modelo de agente inteligente. El escrito aborda algunos de los aspectos que se tuvieron en cuenta en el desarrollo del anteproyecto presentado y aprobado ante el sistema de investigación de la institución: introducción, metodología, resultados, conclusiones, bibliografía. Palabras claves: Agentes inteligentes, inteligencia artificial, ambientes virtuales de aprendizaje, sistemas de soporte y orientación, consejería virtual.
  • 1 INTRODUCCIÓN El proyecto de investigación propuesto se enmarca dentro de la cadena de formación de Ingeniería de Sistemas, en la línea de investigación Ingeniería del software, en el área de ciencia de la computación, de acuerdo al documento vigente sobre “La investigación en la escuela de ciencias básicas, tecnología e ingeniería” (Velásquez, 2011). Este proyecto es relevante a nivel disciplinar, por el aporte metodológico que hace al proceso de ingeniería del software en las áreas de inteligencia artificial y modelado de agentes inteligentes centrado en el desarrollo de productos para el aprendizaje en ambientes virtuales, los cuales de acuerdo al documento “La investigación en la escuela de ciencias básicas, tecnología e ingeniería”, (Velásquez, 2011) “son una necesidad sentida en el mundo actual, más aún cuando los impactos económicos y operativos a nivel de implementación de tecnología y su administración se pueden inclinar positivamente con la incorporación de soluciones en IA y Simuladores tanto a nivel organizacional como educativo.” Con respecto al aporte del proyecto a la educación, específicamente a los procesos de formación en línea, cada día cobran más importancia este tipo de sistemas de soporte inteligente, ya que como se mencionó anteriormente, de acuerdo a Davidson-Shivers y Rasmussen 2006, Borges 2005, Simonson, Smaldino, Albright y Zvacek 2006 “es necesario fortalecer los servicios de apoyo ofrecidos en campus virtual, para responder a las necesidades de soporte de los estudiantes en línea, disminuyendo los altos niveles de frustración y abandono de los cursos, así como mejorando el desempeño en los mismos”. En cuanto a la pertinencia institucional y, como beneficio adicional, la comunidad académica de la UNAD, específicamente en el campus virtual, contaría con un sistema de apoyo y orientación más eficiente y la consejería virtual, al verse aliviada de la necesidad de atender repetida y personalmente los problemas más frecuentes, podría hacer mejor uso del recurso humano enfocando su trabajo específicamente hacia su razón de ser el cual es el acompañamiento psicosocial de los estudiantes del campus virtual. El diseño del modelo de agente inteligente corresponderá tanto a las necesidades de consulta de los estudiantes como a los requerimientos técnicos que exige el campus virtual. La Ingeniería del Software, como tal, define que para obtener software se deben establecer y aplicar principios de ingeniería. Como software se entienden las aplicaciones, las cuales se deben desarrollar, si se les aplica ingeniería, teniendo en cuenta factores como costo, fiabilidad del sistema y funcionamiento eficiente que satisfaga las necesidades del usuario. Por eso es requisito que al desarrollar software se estudien y utilicen nuevas metodologías y tecnologías ya probadas. Y esto precisamente es lo que se establece en este proyecto. En este sentido, el prototipo de sistema inteligente que resulte de esta investigación beneficiará, a nivel de desarrollo o producto, en primer lugar, a los estudiantes de ingeniería de sistemas quienes dispondrán del estudio obtenido y encontrarán los detalles del proceso de construcción del modelo de agente inteligente, en segundo lugar, a la UNAD como institución, quien tendrá un punto de vista diferente acerca del desarrollo de sistemas de soporte para el campus virtual y contará con una alternativa totalmente fundamentada, y que sólo de la UNAD dependerá si la implementa o no en su campus virtual. Además, el diseño de un modelo de agente inteligente para el servicio de apoyo a estudiantes en ambientes virtuales de aprendizaje, permitirá obtener el conocimiento experto necesario para el desarrollo del agente inteligente, el cual se convierte en gran riqueza personal como investigadores, para el equipo de trabajo y para el programa, también en general, para los ingenieros de sistemas quienes pueden conocer varios aspectos del proceso que no son tratados en los currículos univer- sitarios, de esta manera pueden ampliar sus capacidades profesionales orientándolos así, en los procedimientos utilizados en el desarrollo de sistemas inteligentes para soporte. 2 ANTECEDENTES Como antecedentes para el proyecto se establecen, en primer lugar, estudios referentes a técnicas que apoyen procesos de aprendizaje en ambientes virtuales. La investigación titulada “Sincronía y conocimientos previos: efectos sobre el aprendizaje y la consolidación de grupos” realizada por los grupos de investigación TECNICE y EVED, financiada por UNAD y Colciencias 2005, mostró la influencia positiva de un modelo de reducción de diferencias en el aprendizaje, específicamente cómo los ejercitadores sirven como mecanismo que habilita el monitoreo y el control autónomo de las actividades conducentes al aprendizaje. Este estudio provee las bases para evaluar los ejercitadores como mecanismos de ayuda que permitan orientar al estudiante en sus inquietudes y problemas.
  • Igualmente los grupos EVED, GUANE y WIKI WIKI desarrollaron el proyecto “Sistema para la autorregulación del aprendizaje: Aula Inteligente” Unad 2007, como primer resultado presentaron el libro “Diseño de ambientes digitales para el aprendizaje autónomo: incorporación de agentes inteligentes y escenarios de trabajo colaborativo” en donde desarrollan tres estados del arte: 1) Incorporación de agentes inteligentes en el diseño de ambientes digitales de aprendizaje, 2) Tendencias en la investigación de representación de conocimiento y razonamiento basado en casos y 3) repositorios de objetos de aprendizaje en escenarios digitales colaborativos, de los cuales el primero (Incorporación de agentes inteligentes en el diseño de ambientes digitales de aprendizaje) y el segundo (Tendencias en la investigación de representación de conocimiento y razonamiento basado en casos) se tomarán para este estudio ya que presentan un avance significativo en el abordaje de las temáticas y en el proceso de razonamiento basado en casos, el cual puede convertirse en otra estrategia de ayuda del campus virtual de la UNAD para sus estudiantes. En segundo lugar, se contemplan estudios referentes a técnicas para implementación de sistemas de soporte y consejería para ambientes virtuales de aprendizaje. En este aspecto entre los modelos de clasificación de ayudas especialmente creadas para el estudiante en línea destaca la ‘Matriz de Servicios de Apoyo al Estudiante’ desarrollada por Student Support Services in e-learning de la NKI de Noruega con el auspicio del Programa Sócrates Minerva de la Comisión de la UE para Educación. Esta Matriz establece una correlación entre el tipo de ayuda y la temática de las consultas hechas por el estudiante, la cual a su vez depende de la etapa en la que se encuentre el estudiante en línea dentro de su proceso de formación. (Morten, Fagerberg y Rekkedal 2005, Rekkedal y Qvist- Eriksen, 2003, Keegan 2004). La ‘Matriz de Servicios de Apoyo al Estudiante’ agrupa las ayudas en categorías que responden temas que los estudiantes consultan específicamente en las siguientes fases: información, consejería académica, matrícula y registro, integración, fase de resultados finales, fase de acreditación y fase de consejería post-graduación. Según Desmond Keegan (2004, p. 2) esta matriz “enuncia la asistencia proporcionada por la institución en el proceso de aprendizaje como tal, para asegurar que las tareas de aprendizaje sean ejecutadas con éxito.” Por último, un estudio citado por Moore y Kreasley (2005, p. 203) y realizado por el Institutefor Higher Education and Policy en 2002 sobre los factores de evaluación de la calidad de la educación en línea, se establece que la calidad del servicio de apoyo técnico es tan importante que aparece como uno de los factores claves de éxito (Benchmarks for Success). En este estudio se identifica como factor conducente al éxito de los programas en línea el que “a lo largo de la duración del curso o programa, los estudiantes tengan acceso a asistencia técnica, incluyendo instrucciones detalladas sobre los medios electrónicos utilizados, las sesiones prácticas previas al inicio del curso y el acceso conveniente al personal de apoyo.” Como se ha expuesto, el tema de la importancia de los servicios de apoyo al estudiante en entornos virtuales de aprendizaje ha sido tratado con profusión en investigaciones de varias disciplinas que convergen en el marco conceptual de la inteligencia artificial, la educación impartida en línea, el aprendizaje basado en Web y las teorías sobre la integración de los medios y la tecnología para propósitos pedagógicos. 3 OBJETIVOS Y METODOLOGÍA Una vez analizados los antecedentes del proyecto y caracterizado el problema a resolver, se plantearon los objetivos y la metodología para el desarrollo del proyecto, así: 3.1 Objetivo general Desarrollar un modelo de agente inteligente para el apoyo a estudiantes en ambientes virtuales de aprendizaje, que sirva como sistema de soporte y orientación en el campus virtual UNAD. 3.2 Objetivos específicos • Determinar el tipo de agente inteligente apropiado para desarrollar un sistema de apoyo a estudiantes en ambientes virtuales de aprendizaje. • Diseñar el modelo de agente inteligente para el sistema de apoyo y orientación a estudiantes de ambientes virtuales de aprendizaje. • Identificar los componentes del sistema de soporte requeridos de acuerdo al modelo de agente inteligente seleccionado y a las necesidades de consulta de los estudiantes en campus virtual. • Construir un prototipo de sistema de agente inteligente como propuesta a la UNAD para su implementación en el campus virtual. • Sistematizar el proceso de ingeniería del software desarrollado en el diseño del modelo de agente inteligente para el sistema de apoyo y orientación a estudiantes en ambientes virtuales de aprendizaje.
  • Primera etapa Estado del Arte Selección tipo de agente inteligente Segunda etapa Dieño modelo agente inteligente Tercera etapa Análisis necesidades de consulta Identificar hardware y software Cuart etapa Proto funcio Prue Afina 3.3 Metodología El estudio corresponde a una investigac tanto se basa en la utilización de l desarrollos teóricos dados en los campos d artificial, los ambientes virtuales de a sistemas de soporte, para desarrollar inteligente como alternativa de solución a de soporte que presentan los estudiantes d campus virtual, tomándose así com aplicada para el desarrollo de una innovac La realización del proyecto se fundament investigación independiente de los tipos agentes inteligentes y técnicas de intelig su relación con los sistemas de soporte virtuales de aprendizaje, a través comparativo donde se tengan en cuent como: aplicabilidad, efectividad, rendimiento, versatilidad, y facilidad de p De otro lado, el estudio también co desarrollo tecnológico porque a lo investigación se desarrollará un sistem inteligente, en donde se evidencie la a modelos estudiados en el modelo resultan Para obtener los objetivos trazados, el pro de acuerdo al siguiente esquema por etapa Gráfico 1. Esquema de trabajo por e ta a otipo onal bas amiento Quinta etapa Sistema- tización proceso Publica- ción resultados ción aplicada, en los conceptos y de la inteligencia aprendizaje y en un sistema tipo a las necesidades de la UNAD en el mo investigación ción tecnológica. ta en el análisis e más comunes de gencia artificial y e para ambientes de un cuadro ta aspectos tales compatibilidad, rogramación. orresponde a un o largo de la ma tipo agente aplicación de los te. oceso se organizó as: etapas Detallando cada una de las an Primera etapa. Realizar el e inteligentes y servicios de ambientes virtuales de apren cumplimiento del primer o determinación del tipo de a para desarrollar un sistema ambientes virtuales de aprend justifica el tipo de agente inte del sistema de apoyo. En es como resultado el estado de considera un producto concep Segunda etapa. De acuerdo cualitativa entre los agentes relación con los tipos de serv en ambientes virtuales de seleccionado el tipo de agent se realiza el diseño del mode el sistema de apoyo y or ambientes virtuales de apren producto de esta etapa es el corresponde a un producto de Tercera etapa. En esta componentes hardware, softw deben contemplarse en e inteligente, acuerdo al mo seleccionado y a las neces estudiantes en campus virtual de análisis de datos e in necesidades de consulta de virtual UNAD, de acuerdo a las temáticas de consulta “Temática de las Consultas d Colombia. Tipología y Jerarq cual antecede a este proyecto de información principal en principales temáticas de con campus virtual UNAD. En es como tal del sistema inte conceptual. Cuarta etapa. Se realiza la funcional del sistema intelige campus virtual de la UNAD establecido. El producto co sistema de agente inteligen producto tecnológico. De a construcción de prototipos de nteriores etapas: estado del arte sobre agentes e apoyo al estudiante en ndizaje, el cual permitirá el objetivo relacionado con la agente inteligente apropiado de apoyo a estudiantes de dizaje. Además se presenta y eligente a utilizar en el diseño ta primera etapa se obtendrá el arte como tal, el cual se ptual. o al análisis y comparación inteligentes estudiados y su vicio de apoyo a estudiantes e aprendizaje y una vez te inteligente a implementar, elo de agente inteligente para rientación a estudiantes en ndizaje. De tal forma que el l modelo es en sí mismo y e carácter conceptual. etapa se determinan los ware y demás requisitos que el desarrollo del sistema delo de agente inteligente sidades de consulta de los l. Aquí se realiza un proceso nformación referente a las los estudiantes del campus la jerarquía y tipificación de obtenidas en el estudio de Consejería Virtual, UNAD quización” (Moreno 2010), el o y se convierte en la fuente cuanto a las necesidades y nsulta de los estudiantes del sta etapa se genera el diseño eligente. Este producto es a construcción del prototipo ente que se propone para el D, de acuerdo con el diseño omo tal es el prototipo de nte, considerado como un acuerdo a las normas para e llevarán a cabo las pruebas
  • requeridas para el afinamiento del mismo, aclarando que se harán de forma independiente, sin llegar a implementarlo y probarlo en el campus virtual de la UNAD. Quinta etapa. Esta es la última fase del proceso, en donde de forma contundente se dará respuesta a la formulación del problema ¿Cómo diseñar un modelo de agente inteligente que permita el apoyo y orientación de estudiantes en ambientes virtuales de aprendizaje y que sirva como sistema de soporte y orientación del campus virtual UNAD?. En esta etapa se realizará la sistematización completa del proceso de ingeniería del software llevado a cabo en el diseño del modelo de agente inteligente para el sistema de apoyo y orientación a estudiantes en ambientes virtuales de aprendizaje. Esta sistematización será un producto de carácter conceptual y pedagógico. Aquí se confirmará la pertinencia del proyecto en cuanto a los aportes a la Ingeniería del software, a nivel de modelado y diseño del sistema inteligente. 3.4 Instrumentos En cuanto a los instrumentos a aplicar, en esta investigación no se hace necesario ningún instrumento de recolección de datos, ni guión de encuesta ni cuestionario con escala Likert, ya que los datos ya existen: la información fue recogida durante los dos últimos años en los Foros de la Consejería Virtual de la UNAD Colombia, donde los estudiantes habían publicado sus consultas durante todo este tiempo. Esta información ya existente se denomina datos secundarios y se constituye como base para el análisis en esta investigación: “Los datos secundarios son datos que ya han sido recopilados por otras personas con sus propios instrumentos o para propósitos diferentes (Thames Valley University, 2009) al de un investigador”. Los datos secundarios que se constituyen la muestra de la investigación, por otro lado, son válidos ya que, de acuerdo a la clasificación de Krysik (2005) son del nivel “micro”, es decir que provienen de una fuente oficial, en este caso de la Vicerrectoría de Medios y Mediaciones Pedagógicas de la UNAD como unidad en donde se realizó la investigación que recopiló. Por último, como fuentes secundarias, el tema se fundamenta en resultados de investigaciones preliminares, desarrollos de software anteriores, consultas en revistas científicas, académicas, ponencias, materiales escritos como libros, tutoriales y guías, así como en páginas Web relacionadas con el tema. 4 RESULTADOS Los resultados del proyecto, se presentan en dos niveles: el primer nivel corresponde a resultados obtenidos de trabajos anteriores en los cuales se hizo una identificación de las necesidades de consulta y orientación que presentan los estudiantes del campus virtual UNAD; y el segundo nivel corresponde a los resultados que se esperan obtener con el desarrollo del mismo. Dentro de los trabajos anteriores, que sirven como base para el proyecto, está la realización de una investigación completa al sistema de consejería virtual en 2010. Dicho estudio se denominó “Temática de las Consultas de Consejería Virtual, UNAD Colombia. Tipología y Jerarquización” (Moreno, Rotundo 2010). Los resultados obtenidos evidenciaron que el sistema de soporte de la consejería virtual de la UNAD presenta debilidades que le dificultan atender de manera eficiente las necesidades de la comunidad virtual de aprendizaje a la que sirve, especialmente las de los estudiantes, quienes son los usuarios principales del servicio. Algunos de los resultados más relevantes fueron: • La tipología de los temas consultados en los espacios asíncronos de la Consejería Virtual de la UNAD Colombia quedó establecida en 93 temas de consulta. Entre estos temas sobresalen los problemas relacionados con los cursos virtuales, que ocupan un 19.08% del total, seguidos por los requerimientos de información general con casi un 13% del total y las consultas sobre procesos evaluativos, cercanos a un 11% del total. Estas tres categorías abarcan aproximadamente el 43% de la totalidad de temas consultados. • Otro dato importante obtenido es la frecuencia promedio con que se consultan los temas en la consejería, la cual es de 14 veces. Si se considera que el foro de soporte estudiado contiene 1368 consultas diferentes, derivadas de 587 mensajes, el coeficiente de relación entre mensaje y tema de consulta es de 2.33, es decir, cada mensaje contiene más de dos temas de consulta. • Teniendo en cuenta que en los espacios de la Consejería Virtual se registraron 10.635 mensajes para agosto del 2009 por un lado, y que por el otro cada mensaje contiene más de dos temas de consulta, el total aproximado de los temas de consulta que deberían atender los operarios de la Consejería Virtual sería de 24.800. Esto evidencia el
  • planteamiento de que la Consejería Virtual se encuentra en la actualidad frente a un servicio cuyas necesidades han rebasado enormemente su capacidad de respuesta, bajo el modelo utilizado en la actualidad para dar ayuda. • Otro aspecto que refuerza este planteamiento lo constituirían las probabilidades identificadas en el análisis estadístico de que las consultas se repitan varias veces. Estos datos indican que existe una probabilidad del 79% de que una consulta se repita más de dos veces, una del 33% de que se haga entre 15 y 30 veces y una del 16% de que se realice más de 30 veces. Es decir que si se hace extrapolación de los resultados obtenidos en la muestra al resto de los mensajes registrados en los demás espacios de atención de la consejería virtual, el planteamiento de que la consejería virtual debe hacerle frente a un número de consultas que rebasa sus capacidades bajo el modelo de prestación de ayuda actual es consistente con el análisis matemático. • Por otro lado, aproximadamente el 88% de los temas consultados se concentra en las fases del proceso de formación identificadas como Fase de Información, Fase de Matrícula y Registro, Fase de Integración y la Fase de Formación y Aprendizaje. Además, si de esas fases, se consideran los temas que tienen más de 10 incidencias, es decir los temas consultados por lo menos 10 veces durante estas fases, se abarca aproximadamente un 79% del total de consultas. Es decir que si se le da respuesta a los temas consultados más de 10 veces durante estas cuatro fases se estaría cubriendo un porcentaje representativo del total de las consultas realizadas. Este cruce entre temas, fases y ocurrencia mayor a 10 es el criterio de jerarquización que permitirá identificar cuáles son las necesidades principales de ayuda que requieren los estudiantes.Sin embargo, en el transcurso de la investigación se evidenció que cierta cantidad de los temas consultados no pueden ser solucionados directamente por la Consejería Virtual, ya que corresponden a problemas de funcionamiento de otros procesos y entes, como Gerencia de Campus Virtual, Registro y Control Académico, Decanaturas y Escuelas entre otros. Por esta razón, el criterio de jerarquización antes mencionado se limitaría a aquellos temas que puede ser solucionados de manera directa con el sistema inteligente propuesto. Al aplicar este criterio, el sistema abarcaría los siguientes 20 temas, los cuales representan el 40% del total de las consultas (Ver tabla 1). Ahora, en cuanto a los resultados que se proponen obtener con el desarrollo del mismo se esperan el estado del arte sobre agentes inteligentes y servicios de apoyo a estudiantes en ambientes virtuales de aprendizaje, el modelo de agente inteligente para el sistema, el diseño del sistema de agente inteligente, el prototipo funcional del sistema inteligente y la sistematización del proceso de ingeniería del software desarrollado en el diseño del modelo de agente inteligente. Cada producto está claramente definido y tipificado, así: • Estado del arte, el cual se considera un producto conceptual. • Modelo de agente inteligente para soporte a estudiantes en ambientes virtuales de aprendizaje, el cual corresponde a un producto de carácter conceptual. • Diseño del agente inteligente, producto de tipo conceptual. • Prototipo de sistema de agente inteligente, considerado como un producto tecnológico. • Sistematización completa del proceso de ingeniería del software llevado a cabo en el diseño del modelo de agente inteligente para el sistema de apoyo y orientación a estudiantes en ambientes virtuales de aprendizaje, producto de carácter conceptual y pedagógico. Tema Total Total % Información sobre metodología de trabajo y herramientas disponibles 74 5.41 No puede ingresar a la biblioteca virtual 62 4.53 Información sobre manejo de exámenes finales en el campus Virtual 42 3.07 Información acerca de programas y currículos 60 4.39 Actualización de correo electrónico en la plataforma 31 2.27 No entiende curso de entrenamiento 30 2.19 Dificultades de ingreso al curso de entrenamiento 25 1.83 Asesoría para descargar Cmaptools 22 1.61 Selección de horarios para exámenes nacionales 20 1.46 Dificultad para presentar quices y exámenes en el curso virtual 18 1.32 No ha podido registrarse para exámenes nacionales 17 1.24
  • Solicitud específica acerca de la UNAD 24 1.75 Consultas sobre el manejo de créditos académicos 19 1.39 Ingreso a sistema de Registro y Control 16 1.17 Dificultad para ver calificaciones de cursos virtuales 21 1.54 Cambio de contraseña 13 0.95 Problemas con usuario y contraseña 13 0.95 Información administrativa sobre Cead y Zonas (dirección, teléfonos, funcionarios) 20 1.46 Actualización del perfil 11 0.80 Cómo acceder a la opción de prueba única (100%) 10 0.73 TOTAL 548 40.06 Tabla 1. Temas de consulta para sistema de ayuda 5 CONCLUSIONES De acuerdo a la investigación bibliográfica preliminar y al inicio de la primera etapa del proyecto correspondiente al estado del arte en las áreas de sistemas inteligentes, sistemas de soporte y ambientes virtuales de aprendizaje, se puede afirmar que los resultados iniciales que establecieron la tipología y jerarquización de consultas recibidas en los espacios de soporte y consejería del campus virtual de la UNAD se deben tomar como una forma de concientizar a las instancias correspondientes de su participación en la creación de obstáculos al proceso de formación y éxito de los estudiantes y la necesidad imperiosa de aplicar correctivos para evitar estos problemas; esto refuerza en gran medida la importancia de llevar la investigación a feliz término y de diseñar el modelo de agente inteligente que pueda desarrollarse e implementarse para el campus virtual de la UNAD, y en general para ambientes virtuales de aprendizaje. Implementar el proyecto propuesto ayudará a uniformar y normalizar las respuestas dadas al estudiante y atender de forma automática las consultas recurrentes, es decir aquellas que se repiten varias veces. Sólo con su implementación, el sistema de soporte daría respuesta de manera estandarizada y automatizada a aproximadamente 10.000 consultas. El agente inteligente estará basado en el desarrollo de una herramienta de declaración de errores que se corresponda con las soluciones identificadas en la tipología y jerarquización de temáticas de las consultas recibidas y estudiadas en el estudio previo de la Consejería Virtual. Por último, el diseño de un modelo de agente inteligente para el servicio de apoyo a estudiantes en ambientes virtuales de aprendizaje, permitirá obtener el cono- cimiento experto necesario para el desarrollo del agente inteligente, el cual se convierte en gran riqueza personal como investigadores, para el equipo de trabajo y para el programa, también en general, para los ingenieros de sistemas quienes pueden conocer varios aspectos del proceso que no son tratados en los currículos univer- sitarios, de esta manera pueden ampliar sus capacidades profesionales orientándolos así, en los procedimientos utilizados en el desarrollo de sistemas inteligentes para soporte. 6 REFERENCIAS [1] Bananthy, B.B. (1987). Instructional Systems Design. In Davidson-Shivers, G., y Rasmessen, K. (2006). Web Based Learning: Design, Implementation and Evaluation (pp. 19). New Jersey: Pearson Education. [2] Kearsley, G. (1988). Online Help Systems: Design and Implementation. Ablex Publishing Corporation, Norwood, New Jersey, USA. [3] Tashakkory, A. y Teddlie, C. (1998). Mixed methodology; Combining qualitative and quantitative approaches. (pp 19). London, SagePublications. [4] Institute for el Institute for Higher Education and Policy. (2002). Benchmarks for Success in Internet- Based Distance Education. In Moore, M., y Kearsley, G. (2005). [5] Keegan, D. (2003). The role of student support services in elearning systems. Retrievedfrom: http://www.fernuni-hagen.de/ZIFF/ZP_121.pdf [6] Rekkedal y Qvist-Eriksen.(2003). Student Support, a critical factor for success. Retrieved from: http://learning.ericsson.net/socrates/doc/conf/sss_ro me_rekkedal.doc [7] Kearsley, G. (2004). Online help systems: design and implementation. In Gil, A., y García, F.J. (2002). Sistemas de apoyo en línea al usuario (pp. 19). [8] Morten, Fagerbergy Rekkedal (2005). Student support systems for online education available in NKI’s integrated systems for Internet based learning. [9] Davidson-Shivers, G., y Rasmussen, K. (2006). Web BasedLearning: Design, Implememntation and Evaluation. UpperSaddleRiver, New Jersey: Pearson Education. [10] Thames Valley University (2009). Secondary data collection. Retrieved from: http://brent.tvu.ac.uk/dissguide/hm1u3/hm1u3text2.h tm
  • [11] UNAD Colombia (2009). Informe Sistema de Soporte y Consejería Virtual. [12] Moreno, P y Rotundo, M. (2010). Temática de las Consultas de Consejería Virtual, UNAD Colombia. Tipología y Jerarquización. UNAD Florida. [13] Velásquez, G. (2011). La investigación en la escuela de ciencias básicas, tecnología e ingeniería. UNAD Colombia. 1 Correspondencia: pilar.moreno@unad.edu.co
  • MECANISMO DE DETECCION COHERENTE PARA REDES ÓPTICAS DE ALTA VELOCIDAD. Edgar Rodrigo Enríquez Rosero1 Escuela de Ciencias Básicas, Tecnología e Ingeniería, Universidad Nacional Abierta y a Distancia, Pasto, Colombia Resumen El artículo es una revisión bibliográfica orientada hacia la detección coherente en los sistemas de fibra óptica. Se considera un artículo desarrollado para guiar el proceso de investigación acerca de la detección coherente para sistemas con velocidad de transmisión de 100 Gbits/seg, a través de la revisión de antecedentes y estados actuales de este tipo de transmisión a través de medios guiados. Palabras claves: Detección coherente, Fibra óptica, Multiplexación, tecnología, ancho de banda 1 INTRODUCCIÓN El artículo de revisión bibliográfica, presenta información acerca de la detección coherente a nivel de comuni- caciones ópticas, específicamente en el medio guiado de la fibra, cuyo fin es el obtener información relevante acerca de la detección coherente y los avances en esta área en diversas velocidades de transmisión. El paper que se presenta consta de tres partes en las cuales se documenta los antecedentes de la detección coherente, entre ellos las diversas técnicas de detección coherente que se han empleado debido a la actual demanda que se ha incrementado de manera vertiginosa en la última década. 2 DETECCION COHERENTE 2.1 Antecedentes El origen de las comunicaciones ópticas surgen a partir de la transformación de señales binarias eléctricas en señales ópticas de una manera simple, un binario eléctrico “0”, es convertido en una señal óptica de baja intensidad mientras que un binario eléctrico “1” es convertido en una señal óptica de intensidad alta. [1]. Con el fin de hacer frente al incremento continuo de ancho de banda se utilizaron dos métodos principales. El primer método a incrementado el canal de rata de transmisión de 155 Mbits/s a 622 Mbits/s, 2,5 Gbits/s, 10 Gbits/s y ahora a 40 Gbits/s mediante el progreso de las tecnologías de Multiplexión por División de Tiempo (TDM), mientras que el segundo, aumenta el número de longitudes de onda sobre una fibra sencilla de una a varias decenas o cientos transmitidos usando la Multiplexación por División de Longitud de Onda (WDM) [2]. La detección coherente, surge en la quinta generación de comunicaciones ópticas, la cual consistía en fibras monomodo trabajando entre 1,3 y 1,5 µm con sistemas coherentes a través de láser monocromático y sistemas homodino y heterodino, implementando modulación PSK y a la fecha de 1986, los desarrollos y usos tenían fines experimentales. En la sexta generación las fibras monomodo se caracterizan por el cubrimiento a mayores distancias y por longitudes de onda más largas (2,5 y 5- 10) µm, además de obtener pérdidas relativamente bajas (10-3 y10-4 db/Km) en teoría y haciendo uso de laser monocromático y técnicas de detección coherente heterodino.[3]. En esta generación se destaca la implementación y uso de esta tecnología en medicina e industria. Lo anterior se podría concebir como el inicio de la fotónica, cuya tendencia en la actualidad ha permitido el crecimiento de una industria a través de la comercialización de componentes, entre los que se tienen: LEDs, moduladores externos, llaves ópticas, roteadores y conversores de longitud de onda, multiplexadores y demultiplexadores de longitud de onda, conectores, acopladores, derivadores, fibras ópticas al igual que láser de tipo multimodo y monomodo, fotodiodos, pre- amplificadores de bajo ruido, amplificadores ópticos, entre otros.[4]. No obstante el vertiginoso avance de las teleco- municaciones, debido a la necesidad y alta demanda debido a fenómenos como la globalización y el acercamiento de las naciones a través de negocios, investigación, entretenimiento, entre otros aspectos, ha obligado al incremento de la velocidad entre 40 y 100
  • Gbits/seg, por lo tanto se requiere codific a través de formatos avanzados de modu de la señal óptica[5], técnicas de detecció lación por desplazamiento de fase diferencial (DQPSK) basado en formato multinivel, polarización por división modulación por desplazamiento de fase con retorno a cero (RZ-QPSK) con técni coherente simple-final y (PDM-RZ-QPS de detección coherente balanceada[6], ad cuenta con diversas técnicas ópticas para por división de frecuencia (OFDM) a ni coherente[7]. Entre las aplicaciones que se encuentran que sugieren requerimiento de mayor anch la transmisión de datos es la televisión d (HDTV) [8]. Esta demanda de ancho de aumente el interés y desarrollo de sistem ancho de banda para prevenir el cuello d puede generar entre la red troncal de alt alta velocidad de las redes de área local. Recientemente se han desarrollado varias instalación de fibra del lado del cliente. los estándares mas comunes de redes de fibra, ITU-T, GPON; IEEE EPON, Multiplexación por División de Tiempo menos de 100 MBps por cada usuario. En y 2010, los estándares de Multiplexación Longitud de Onda (WDM), se comenza para permitir una mayor capacidad de anc usuario. [10]. Actualmente, los diversos operadores de los Proveedores de Servicios de Internet ( de telefonía móvil, entre otros, se en mentando una serie de servicios que le ofr a nivel de conectividad y la competencia de servicios en descarga e interacción o ejemplo las redes sociales o reuniones colaboraciones especiales, ha hecho que l conectividad a nivel de fibra esté maneja entre 40 Gbits/seg y 100Gbits/ seg. 2.2 Detección coherente basada en recep Los receptores coherentes resultan at aplicación práctica ya que permite presupuesto de alimentación y demultip simultánea, además de las detecciones ópticas. [11]. Sin embargo, hasta hace po ópticos coherentes se consideraban dema ar la señal óptica lación, detección ón directa, modu- por cuadratura os e modulación n multiplexada, e por cuadratura icas de detección SK) con técnicas dicional a ellas se ortogonalización ivel de detección en el momento y ho de banda para de alta definición e banda hace que mas de acceso de de botella que se ta velocidad y la s soluciones en la [9], sin embargo acceso mediante se basan en (TDM) y provee ntre los años 2008 por División por aron a introducir cho de banda por e servicios como (ISP), operadores ncuentran imple- frezcan movilidad a por la demanda on-line como por s de negocios y los desarrollos en ando velocidades ptores tractivos para la en mejorar el plexación óptica s de las señales oco, los sistemas asiado complejos para implementarse debido adaptación de polarización en el oscilador local y los estricto fase con laser [12]. Avances recientes en tecnolog de señales (DSP), combinada láser de semiconductor estrec de la integración de circuitos resurgimiento del interés en s coherente. [13]. En partic compensar las imperfecciones la degradación de la señal deb del uso de varios algoritmos e el potencial para ser implem Los últimos avances en dise integrados y procesamiento d permitido que se retome la id coherentes [15] El principio básico de ope detección coherente se indic óptica entrante se combina co local en un combinador híbrid las señales de fotodetección, obtienen las señales de compo Fig. 1. Diagrama esquemático d por técnic Puede observarse en la figur oscilador local (OL), ADC so digitales y el Demux es un dem De la figura anterior se pue oscilador local, expresada en l ( ) 2s LO s LOP t P P PP= + + a la alta sensibilidad de ntre la señal óptica entrante, os requisitos de bajo ruido de gías de procesamiento digital a con tecnología madura para cho de línea y la perspectiva s fotónicos han producido el sistemas ópticos de detección cular DSP es usado para s de la detección coherente y bido a la transmisión a través estadísticos y heurísticos con mentado en chips (DSP).[14]. eño de circuitos electrónicos digital de señales (DSP) han dea de los receptores ópticos eración de un receptor de ca en la figura 1: La señal on la luz de un laser oscilador do óptico de 90°, después de , en fase y en cuadratura se onentes [14]. de un receptor coherente soportado cas DSP. a 1 que la fuente es el laser on los convertidores análogo- multiplexor en paralelo. ede obtener la potencia del la siguiente ecuación [16]: (1)cos( )FI s LOtw f f+ -
  • 2.3 Clasificación de la detección coherente La recepción puede utilizar dos técnicas convencionales de detección coherente: detección homodina y detección heterodina. La primera, hace referencia a la compensación y procesamiento electrónico de las perturbaciones de la fase óptica en sistemas con modulación multifásica y diferencial [16]. Y en ella la frecuencia del oscilador coincide con frecuencia portadora, de tal manera que puede representarse mediante la siguiente ecuación: 0 2 Como la corriente del fotodetector es I=RP, donde R es la responsividad y P, la Potencia Optica Incidente, entonces se puede utilizar la ecuación (1) y (2) para ser utilzadas en la siguiente ecuación: (3) (4) Esta técnica de detección permite mejorar la potencia promedio, la cual puede exceder a los 20db. Así mismo se puede afirmar que es posible transmitir información a través de modulación de fase o frecuencia de la portadora óptica, sin embargo la fase de señal, al igual que la fase de oscilador varían de manera aleatoria, cuando deberían ser constantes y se podría solucionar con PLL pero se dificulta su implementación. A diferencia de la anterior, en la detección heterodina la frecuencia del oscilador local no coincide con frecuencia portadora, por lo tanto se representaía a través de la ecuación: 0 5 Así mismo se genera una frecuencia intermedia en la región de microondas, la cual se describe en la siguiente ecuación: (6) La fotocorriente se encuentra dada por: (7) Como la corriente, la señal viene dada por: (8) En esta técnica, PLO es mayor que Ps y la corriente dc es removida con un filtro pasabanda y como se pudee apreciar, su implementación es mas sencilla ya que no requiere de PLL, sin embargo su detección es menor en 3db que en la detección homodina y se denomina penalidad de 3 db de detección heterodina. Los sistemas de detección coherente ofrecen posibilidades de mejoría del alcance y de la capacidad de transmisión con relación a los sistemas con detección directa. Este tipo de sistema exige fuentes luminosas bastante coherentes y estables, además de fibras ópticas monomodo especiales, capaces de mantener un único estado de polarización del modo propagado 2.4 Aplicación Entre las aplicaciones que se pueden dar a través de los mecanismos de detección coherente se encuentra el control en la transmisión de datos a través de sistemas ópticos de alta velocidad, en el momento existen mecanismos de desarrollo en detección coherente para velocidades inferiores a los 10 Mbps, por lo tanto el desarrollo que se pretende desarrollar a través de esta documentación y posterior investigación es desarrollar o caracterizar un buen mecanismo de detección coherente que sea útil y aplicable a las diversas empresas prestadoras de servicios de voz y datos que en un futuro no muy lejano implementarán la tecnología óptica de alta velocidad. 3 CONCLUSIÓN La detección coherente es un proceso que permite mejorar la transmisión a través de optimizar el proceso de demultiplexación de una señal óptica, para lo cual puede utilizar diversas técnicas como son la detección homodina y la detección heterodina 4 REFERENCIAS [1] Charlet, Gabriel, “Coherent detection associated with digital signal processing for fiber optics comunications,” C.R. Physique 9, 2008, pp. 1012–1030. [2] A. Mondragon; F. Mendieta, J. Sanchez.. Estimadores de fase óptica en sistemas modernos de comunicaciones Homodinas. Ing. invest. y tecnol. [online]. 2009, vol.10, n.3, pp. 187-195. ISSN 1405-7743. ( ) ( ) 2 cos( )s LO s LO s LOI t R P P R P P f f= + + - ( ) 2p s LOI t R P P= [ ]GHzv IF IF 1 2 == p w ( ) ( ) 2 cos( )s LO s LO FI s LOI t R P P R PP tw f f= + + + - )cos(2)( OLsFIOLsAC PPRtI ffw -+=
  • [3] Jimenez, Juan. Perspectivas actuales de la optoelectrónica y de las comunicaciones ópticas 1986. pp. 6-7. Disponible en: [4] http://www.bduimp.es/archivo/conferencias/pdf/ 1806_86_10040_01_Jimenez_Perspectivas_idc4 6261.pdf [5] Martín Pereda, José. 2011. Conceptos y definiciones básicas de tecnología fotónica. Disponible en: http://www.dsif.fee.unicamp.br/~moschim/curso s/simulation/introduccion.htm [6] B. Smith, “An approach to graphs of linear forms (Unpublished work style),” unpublished. [7] Jianjun Yu, et al, “Multilevel modulations and digital coherent detection,” NEC Laboratories America – AT&T..2009. Optical fiber technology 15. Pp. 197-208 [8] T. Okoshi, K. Kikuchi , “Coherent Optical Fiber Communications, Springer, 1988. [9] A. Osadchiy, K. Prince, N. Guerrero, A. Caballero, F. Amaya, J. Jensen, D. Zibar, I. Tafur. “Coherent detection passive optical Access network enabled converged delivery of broadcast and dedicated broadband services” en optical fiber technology, Mill Valley, CA: Technicals University of Denmark, 2011. [10] E- lp, A.P Tao Lau, D.J.F. Barros, J.M. Kahn, “Coherent detection in optical fiber systems”Opt. Express 2008. pp.753-791. [11] Y. Hsueh, W. Shaw, L.G. Kazovsky, Success PON demonstrator: experimental exploration of next-generation optical access networks, IEEE Com. Mag. 43 (8) (2005) S26. [12] T. Okoshi, K. Kikuchi, Coherent Optical Fiber Communications, Springer, 1988. [13] Tsukamoto S., Ly–Gagnon D., Katoh K., Kikuchi K. Coherent Demodulation of 40–Gbit/s Polarization–Multiplexed QPSK Signals with 16–GHz Spacing after 200–km Transmission. OFC/NFOEC 2005, Anaheim, California, March. 2005 [14] E. Ip, A.P. Tao Lau, D.J.F. Barros, J.M. Kahn, Coherent detection in optical fiber systems, Opt. Express 16 (2) (2008) 753–791. [15] I. Tafur, et al, “Converged wireless and optical communication systems”. Technical University of Denmark,2009.pp 83-90 [16] E. Ip, A.P. Tao Lau, D.J.F. Barros, J.M. Kahn, Coherent detection in optical fiber systems, Opt. Express 16 (2) (2008) 753–791. [17] Urra B. Santiago.”Sistemas ópticos coherentes”.2005. Disponible en www.elo.utfsm.cl/~elo357/presentaciones2005/T ema_9.ppt 1 Correspondencia: edgar.enriquez@unad.edu.co
  • INNOVACIÓN TECNOPEDAGOGICA APLICADA A LOS CURSOS DE FUNCIONARIOS Y DOCENTES COMPETENTES EN TIC. Víctor Fernando Cañón Rodríguez1 , Leonardo Bernal Zamora2 Escuela de Ciencias Básicas Tecnología e ingeniería, Vicerrectoría de Medios y Mediaciones Pedagógicas, Universidad Nacional Abierta y A Distancia UNAD, Tunja, Colombia Resumen Los actuales entornos virtuales de aprendizaje deben incorporar elementos tecnopedagógicos que faciliten los procesos de enseñanza para alcanzar las competencias en las áreas de conocimiento específicas. Los cursos de certificación en ciudadanía digital desarrollados por la Unad, permiten tanto a funcionarios como docentes públicos estar actualizados para hacer frente a los retos que las Tecnologías de la Información y las Comunicaciones - TIC exigen, es por esto que se hace necesario la construcción de objetos virtuales que incorporen elementos tecnológicos innovadores, permitiendo llamar la atención de los estudiantes garantizando una mejor transferencia de conocimientos; en este artículo se presenta el desarrollo de objetos virtuales apoyados con aplicaciones de códigos QR y técnicas de Realidad Aumentada. Los códigos QR incorporan una tecnología especial de códigos de barras utilizados para contener información en dos dimensiones que puede ser decodificada y visualizada por medio de un dispositivo móvil, a su vez la Realidad Aumentada permite al usuario incorporar elementos virtuales en un entorno real. Desde el punto de vista pedagógico la utilización de este nuevo tipo de tecnologías como apoyo a la educación y específicamente a la construcción colaborativa de conocimiento, es una realidad que permite optimizar los procesos de enseñanza aprendizaje. Palabras claves: Código QR, Realidad Aumentada, Innovación, Objeto Virtual, Tic. INTRODUCCIÓN En la actualidad la inclusión de las (Tecnologías de la información y la comunicación) TIC en los centros educativos ha sido una constante, haciendo a las instituciones más competitivas dentro del mercadeo de la educación dando más cobertura a poblaciones vulnerables. Los factores que secuencialmente entorpecen los procesos de aprendizaje mediados por TIC como el tiempo, los desplazamientos, costos, entre otros, no han permitido que personas tengan la oportunidad de profesionalizarse. Es por esto que el gobierno nacional desde su Ministerio de las Tecnologías se ha preocupado por facilitar a los ciudadanos a través de la web el cumplimiento de las diferentes responsabilidades públicas; el ministerio de las TIC con sus diferentes programas como urna virtual, trámites y servicios, directorio de entidades, ha venido masificando la inclusión de las TIC a todas las poblaciones de la geografía nacional. Uno de sus programas es ciudadano digital, el cual dio inicio a la inclusión de las diferentes poblaciones al conocimiento básico de algunos componentes esenciales de la tecnología dando apertura así a procesos de enseñanza aprendizaje. Posteriormente el programa de funcionarios y docentes competentes en tic , programa bandera, que en cabeza de la (Universidad Nacional Abierta y a Distancia) UNAD iniciaron un piloto en el departamento de Boyacá siendo un éxito por la dinámica desarrollada por medio del campus virtual de la UNAD y donde no solo se realiza un examen de certificación sino también el desarrollo de un curso pedagógicamente diseñado que hace énfasis en el trabajo grupal y de colaboración por medio de herramientas asíncronas (foros). La UNAD dentro de toda su evolución mediada por TIC ha venido incluyendo diferentesherramientas que contribuyen al mejoramiento y fortalecimiento de los procesos enseñanza aprendizaje, donde se incluyen
  • objetos virtuales (OV) que ayudan a los aprendientes a dinamizar su conceptualización en cada uno de sus cursos. Como un apoyo a una mejor dinamización de los OV se están desarrollando procesos de inmersión por medio de innovaciones tecnopedagógicas como la Realidad Aumentada y los códigos QR, para ser incluidos dentro de cursos mediados por la web, permitiendo así una navegación y aprovechamiento de recursos dados por tecnologías móviles. 2 INNOVACIONES TECNOPEDAGOGICAS El uso de la Web en la educación ha contribuido notable- mente a llevar la instrucción más allá de las aulas, espacios físicos que imponen las instituciones educativas a los alumnos y profesores para el proceso de transmisión del conocimiento [1]. Actualmente se presentan nuevas alternativas de apoyo didáctico que contribuyen a un mejor desarrollo de habilidades y destrezas en los usuarios dando oportunidad a la adquisición de nuevo conocimiento y por ende un fortalecimiento del trabajo tanto autónomo como colaborativo, generando así diferentes estrategias que puedan fortalecer la actividad docente. La vicerrectoría de medios y mediaciones pedagógicas de la UNAD ha contribuido desde su programa formación de formadores a la capacitación y formación de docentes en diferentes diplomaturas acordes con la proyección de la universidad donde se realizan procesos de certificación en competencias en tutoría virtual, director de curso virtual, consejero, diseñador de material didáctico y una muy importante como la certificación en diseño de OVAs (objetos virtuales de aprendizaje) donde en la instrucción se orienta al conocimiento básico sobre que son los OVA hasta el diseño de las mismas. Estas diplomaturas han contribuido a que los docentes pongan en práctica lo aprendido y en ese sentido estructuren de una mejor forma los diferentes cursos que ofrece la Universidad. La formación de profesores en el campo de las TIC, en un ambiente controlado y con adecuadas estrategias didácticas utilizadas, puede fomentar la transformación de los cursos tradicionales a cursos en línea y permite que estos cursos sean utilizados de manera práctica y eficiente por los alumnos de educación superior [2]. 3 REALIDAD AUMENTADA “La realidad aumentada consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real” [3]. En palabras más simples, la realidad aumentada (RA) mezcla objetos reales con objetos virtuales. Por esta razón, es posible afirmar que va un paso más allá de la conocida virtualidad. La masificación del uso del computador personal, los dispositivos móviles y la interacción con la red Internet ha revolucionado y colocado en evidencia la necesidad de mejorar el proceso de comunicación entre estos elementos tecnológicos. Las aplicaciones de la Realidad Aumentada (AR, por sus siglas en inglés) poseen ciertas carac- terísticas que demandan nuevas técnicas y nuevos dispositivos de interacción, diferentes a los utilizados en las aplicaciones tradicionales (ratón, teclado, etc.). La interacción con los ordenadores se debe considerar como un proceso de doble vía. Figura 1: Realidad Aumentada. Fuente de los autores Estas nuevas características de la interacción permiten que el observador perciba en la realidad que lo rodea por nuevos elementos en 3D, que puede manipular gracias a la proyección de una cámara web o apoyado en algunos dispositivos especiales como cascos, lentes o dispositivos de visión de realidad Aumentada, la Realidad Aumentada complementa el entorno. 3.1 Cómo funciona la Realidad Aumentada Para poder experimentar esta nueva forma de ver la realidad basta con: un PC con su correspondiente monitor, una cámara web, el software que toma los datos reales y un marcador o frame que es básicamente, un fragmento de hojas de papel con símbolos que el software interpreta. De acuerdo con un marcador específico el software responderá de manera definida mostrando una imagen 3D en nuestro entorno real.
  • Figura 2: Como funciona la R.A. Fuente de los autores En la actualidad, Futuroscope, parque temático de atracciones orientadas hacia la multimedia, situado en la periferia de Poitiers en los municipios de Chasseneuil-du- Poitou y de Jaunay-Clan en Francia, es uno de los principales referentes contemporáneos de AR pues ofrece a sus visitantes reales y virtuales, un kit de Realidad Aumentada que les permite experimentar sensaciones y observar animales que sólo existirán en el futuro, a través de un formato tridimensional que utiliza una cámara web y unas plantillas en blanco y negro [4]. . Figura 3: Aplicación Futuroscope (Ave Pez en 200 años). Fuente de los autores Figura 4: Aplicación Google Earth y Ar Sights (Modelo del Taj Mahal). Fuente de los autores 4 LOS CODIGOS QR Un código QR según sus siglas en ingles Quick Response (Respuesta Rápida) es un código de barras utilizado para contener información en una matriz de puntos bidimensional tanto horizontal como vertical que contiene información codificada en ella, a diferencia de los tradicionales códigos de barras, los cuales solo pueden almacenar información en una sola dimensión horizontal (ver Figura 5), creado por la compañía japonesa Denso- Wave en 1994, las especificaciones de esta tecnología forman parte de un estándar internacional (ISO 18004: 2000, Information technology - Automatic identification and data capture techniques - Bar code symbology - QR Code) de libre acceso [5]. Figura 5: Comparación Códigos QR y Códigos de Barras. Fuente http://www.qrchannel.com Dentro de las características técnicas de estos códigos es que pueden contener mucha más información que los antiguos códigos de barra [6]. Concretamente, pueden contener hasta: • 4.296 caracteres alfanuméricos • 7.089 caracteres numéricos • 2.953 caracteres codificados como byte • 1.817 caracteres japoneses (Kanji). En la actualidad estos códigos se han convertido en una excelente herramienta del Marketing móvil. 4.1 ¿Cómo funcionan los códigos QR? Los QR deben tener un tamaño simétrico e iniciar con por lo menos un número ya determinado de casillas como las filas y columnas de una matriz, además deben estar separados por 4 casillas horizontales y 4 verticales en cada uno de sus bordes para aislar el código del ambiente. Un código QR se distingue por ser un cuadrado con tres (3) pequeños cuadros en tres (3) esquinas y gráficamente se puede identificar 5 regiones adicionales como se muestra en la Figura 3. Figura 6. Componentes de un Código QR. Fuente http://cdn.merca20.com
  • Para poder decodificarlo es necesario el uso de un teléfono móvil con cámara y de un programa que sea capaz de traducir este tipo de lenguaje. Estos códigos pueden ser visualizados desde cualquier ángulo sin perder la información original contenida en ellos (Ver Figura 7 y Figura 8). Figura 7. Como funciona un Código QR. Fuente de los autores Figura 8. Visualización de un Código QR. Fuente http://www.qrchannel.com Teniendo en cuenta la diversidad de marcas y modelos de equipos celulares existentes en el mercado, el usuario deberá identificar el lector de código QR más apropiado de acuerdo a su Sistema Operativo. A continuación se encuentra una relación de los sistemas operativos móviles y los lectores QR más populares. (ver Tabla 1). • ANDROID : QR Droid, Quickmark Barcode Scanner, QR Barcode Scanner, Barcode Scanner • IPHONE: i-nigma, iRobin QR Code Reader, Scan Lector QR. • BLACKBERRY: QR Code Scanner Pro Free, QR CodeFX, QR Code Now, QR Scan. • SYMBIAN : BeeTagg QR Reader, qrReader V1.0, UpCode, Scanlife 2D, Barcode Reader Tabla 1. Lectores de QR. Fuente de los autores 4.2 Aplicación y uso de los códigos QR Los códigos QR conectan el mundo real con el mundo digital, estos pueden contener información básica desde texto, un número telefónico, un mensaje de texto - SMS, una tarjeta de presentación – Vcard, hasta contenidos más complejos como direcciones URL. Algunas de las aplicaciones prácticas que se le pueden dar a estos códigos son: • Educación. • Artículos en revistas. • Vallas. • Publicidad. • Ventas de productos. • Libros o enciclopedias. • Manuales de instrucciones. • Cupones virtuales. • Geoposicionamiento. • Escarapelas en eventos. Figura 9. Uso de los Códigos QR. Fuente editado por los autores http://jonia-consulting.blogspot.com Existen diversos programas para generar estos códigos de manera automática. Una de las Web en donde se pueden realizar la codificación de cualquier información es Kaywa: http://qrcode.kaywa.com, donde también se puede descargar http://reader.kaywa.com, un software en Java para tener un lector en nuestro teléfono móvil [7]. 5 OBJETOS VIRTUALES DE APOYO A LOS CURSOS DE CERTIFICACIÓN EN CIUDADANÍA DIGITAL Los cursos de certificación en ciudadanía digital son cursos soportados en espacios de aprendizaje en el cual podemos encontrar entornos de colaboración, de seguimiento y evaluación, donde se encuentran activi- dades que el estudiante podrá desarrollar; dentro de estas actividades encontramos objetos virtuales y actividades
  • tales como ahorcado, sopa de letras que ayudan a fortalecer el conocimiento de los aprendientes. El resultado de este artículo es mostrar los objetos virtuales desarrollados para los cursos de funcionarios y docentes competentes en TIC, con la inclusión de innovaciones tecnopedagógicas basadas en técnicas de Realidad Aumentada y aplicación de códigos QR. Para la generación de los códigos QR se identifico un generador de códigos online localizado en la dirección electrónica http://qrcode.kaywa.com , luego se procedió a identificar un tema especifico de los contenidos denominado Gobierno en Línea, posteriormente se generaron los códigos QR de las direcciones mas referenciadas de gobierno en línea, la idea central de este OV es que el estudiante pueda utilizar su dispositivo móvil para acceder en forma directa a estos enlaces. Para el OV de RA, se seleccionaron y diseñaron actividades específicas donde el usuario pueda experimentar la visualización de elementos virtuales directamente en su entorno, se utilizó un generador online localizado en la dirección electrónica . http://www.ezflar.com, esta dirección le permite al usuario codificar imágenes, imágenes 3D, texto e incluso videos y generar automáticamente el frame para ser utilizado mediante la cámara web de su computador. Con el fin de poder publicar el resultado de los OV, se utilizó Ardora (http://webardora.net) que es una aplicación informática para docentes que permite crear sus propios contenidos web, de un modo sencillo sin tener conocimientos técnicos de programación. 5.1 Objeto Virtual aplicando código QR Dentro de los cursos de funcionarios y educadores públicos competentes en TIC en el entorno de Aprendizaje Practico se encuentra un enlace llamado Experiencias QR el cual mostrará una página web en donde el usuario encontrará: Qué son códigos QR, Instrucción para la visualización de códigos QR utilizando dispositivos móviles, Qué es gobierno en línea, además de otras direcciones electrónicas que le permitirán hacer un recorrido por los servicios ofrecidos por Gobierno en Línea. . Figura 10. Qué son los Códigos QR. Fuente de los autores Figura 11. Instrucciones manejo de los Códigos QR. Fuente de los autores . Figura 12 Ingreso a Gobierno en línea a través de Códigos QR. Fuente de los autores. 5.2 Objeto Virtual aplicando Realidad aumentada Los entornos de aprendizaje además cuentan con un enlace para poder llevar a cabo experiencias de Realidad Aumentada donde los usuarios recibirán orientación sobre la visualización de imágenes virtuales en un ambiente real disponibles en el aula.
  • Figura 13. Instrucciones de Realidad Aumentada. Fuente de los autores. . Figura 14 Ejemplo de aplicación RA. Curso Docentes. Fuente de los autores Figura 15 Ejemplo de aplicación RA. Curso Funcionarios. Fuente de los autores 6 REFERENCIAS [1] Sánchez, Víctor (2008) La investigación en Educación mediada por TIC, Boletín SUAyED, México: Universidad Autónoma. [2] Díaz, Oscar (2010) Formación tecnopedagógica, México, Revista de Innovación Educativa. [3] Realidad Aumentada. Concepto.(Juliode 2009).Recuperado el 02 de Abril de 2012http://www.clubempresasceei.com/boletin/ficheros/of ertas/Realidad%20Aumentada%20ceei.pdf. [4] Los animales del Futuro -Futuroscope.(Mayo de 2009). Recuperado el 27 de Marzo de 2012http://es.futuroscope.com/attraccion-animales- futuro.php. [5] Gil González, F. (03 de Febrero de 2011). AndroidPress. Recuperado el 15 de Marzo de 2012, de http://www.androidpress.net/p/que-es-codigo-qr.html. [6] Studio, D. (01 de Febrero de 2012). QR Channel. Recuperado el 23 de Febrero de 2012, de http://www.qrchannel.com/es/redirect/go/whatqrextended. html/static. [7] Huidobro, J. M. (01 de Enero de 2009). Fundación Dialnet. (F. Dialnet, Ed.) Recuperado el 02 de Abril de 2012, de http://www.coit.es/publicaciones/bit/bit172/47- 49.pdf. 1 Víctor Fernando Cañón: Ingeniero de sistemas Universidad Cooperativa de Colombia. Especialista en Pedagogía Para el Aprendizaje Autónomo de la UNAD. Máster Of Arts In Education – Online Education UNAD Florida. Diplomado en Redes y telecomunicaciones, Tutor virtual OEA, Director virtual de la UNAD y Diseñador de OVAS UNAD. Tutor TC ECBTI Universidad Nacional Abierta y a Distancia UNAD CEAD Tunja Boyacá. Director del grupo de Investigación Ingeverde Correo: victor.canon@unad.edu.co – Colombia. 2 Candidato a maestría en Ciencias de la Computación con énfasis en Redes y Comunicaciones de la Universidad Metropolitana de Educación, Ciencia y Tecnología de Panamá - “UMECIT”, Ingeniero de Sistemas, Especialista en Telemática, Universidad de Boyacá. Profesor Asistente Universidad de Boyacá. Profesional adscrito a Vicerrectoría de Educación Virtual y a Distancia como Webmaster Plataforma Virtual de la Universidad de Boyacá. Tutor Virtual y Director Nacional de curso Virtual de Redes Locales Básico de la Universidad Nacional Abierta y a Distancia. Tunja, Colombia. E_mail: leonardo.bernal@unad.edu.co.
  • USO DE PLATAFORMAS ROBÓTICAS COMO HERRAMIENTA EDUCATIVA Evelyn Garnica Estrada1 Facultad de Ingeniería, Corporación Universitaria Republicana, Bogotá, Colombia Resumen El siguiente artículo esta enfocado a la investigación sobre el uso de robots animatronicos en las aulas de clase para dinamizar los procesos de formación en diversas asignaturas. Además se indagará sobre los efectos dados al aprovechar las funcionalidades de un robot como herramienta de enseñanza; donde se hace necesario que el aprendizaje de conceptos teóricos se vea aplicado sobre entornos reales, para que sea más comprensible para los estudiantes. Palabras claves: Robótica, ubicuidad, dinamizar, herramienta educativa. 1 INTRODUCCIÓN La importancia de estudiar el uso de robots para la enseñanza radica en la tendencia actual y evolución tecnológica en la que nos encontramos, pues desde sus inicios, la robótica era simplemente ciencia ficción, se veía en escritos y libros; al pasar los años se evidenciaba en películas, series, entre otros, se llegó a un punto donde dejo de ser irreal y empezó a materializarse en avances tecnológicos de gran utilidad para diferentes sectores de la industria como la automotriz, la industria manufacturera, el sector de alimentos, textil, de explotación y minera, de transporte, entre otras; y no solo se podría hablar del sector productivo industrial, también se puede resaltar campos de desarrollo como la domótica e inmótica, al hablar de automatización de las casas, edificios e industrias en general, y la urbótica, donde ya es común en países como Canadá donde se tiene ciudades totalmente automatizadas. Hoy en día la automatización y robótica son escenarios de mejora en la calidad de vida del hombre y sus tareas; de optimización de procesos y de acelerar cada vez más la forma de hacer las cosas. Al observar que la robótica se esta presentando en muchos campos y ver la gran cantidad de beneficios y versatilidad de los robots, se pensó en usarlos como herramientas de enseñanza en aulas de clase, pues la educación en Colombia, hoy en día necesita un cambio orientado a dinamizar las clases, los procesos de enseñanza y la relación docente - alumno; es en este punto donde se considera introducir plataformas robóticas como instrumento de aprendizaje. 2 ROMPIENDO PARADIGMAS Se quiere romper el paradigma de que la robótica es un tema exclusivo para ingenieros, técnicos y tecnólogos en áreas de electrónica, mecánica y afines, pues los temas concernientes a la robótica son para todos y debe ser un área de conocimiento global para administrativos, biólogos, químicos, contadores, abogados y por su puesto todas las ramas de la ingeniería, entre otras. ¿Por qué razón debe ser un área de conocimiento global?, Por la pertinencia que tiene la robótica en esta época y las que han de venir, por que es totalmente necesario apropiar tecnologías emergentes, es importante que nuestra sociedad tenga una visión global de lo que otros países están viviendo y que con un acercamiento tecnológico desde la educación, nosotros también lo podemos vivir. La robótica como conocimiento global debe surgir desde la educación, desde la cuna de la formación; para romper el paradigma que solo los más adinerados tienen la posibilidad de tener robots ó que solo las grandes empresas automatizadas lo necesitan, el presente articulo lo invita a usted señor(a) lector, a que vea la robótica como una nueva posibilidad de ver las cosas, como funcionan y para que serviría, se dará cuenta de su importancia a lo largo de este pasaje textual. 3 OBJETIVO DE INVESTIGACIÓN El objetivo de este trabajo esta relacionado con la investigación del efecto que produce el uso de robots animatronicos en los ambientes de formación como herramienta de enseñanza para dinamizar las clases y la interacción docente – alumno.
  • Se pretende realizar un análisis y características propias de los robo relacionadas con el área de las c inicialmente, dando a conocer las ventaj del uso de robots en las aulas de actividades de aprendizaje con las herram como instrumento educativo para p metodologías de formación en el área educativa. 4 ASPECTOS TEÓRICOS el Toyotismo orientado al cambio y a la 30 anos pero en realidad el concept mejora y adaptabilidad al cambio ha sid hace cientos os; por tal razón la rob solución a este requerimiento, facilita quehaceres que de esta forma el homb hacer y esto ha permitido que el mismo se tareas dentro de sus campos de acción. Dentro de la categorización de sistemas r diferentes tipos, en donde se d manipuladores, robots de aprendizaje, ro sensorizado y robots inteligentes; pero categoría definida como robots para la en a que todos los robots mencionado implícitamente podrían servir para este fin función principal es otra totalmente difere De lo anterior surge la idea y necesidad procesos de formación con elemento mecánicos y electrónicos para darle necesidad en el campo de la enseñanza, mismo tiempo la apropiación tecn transferencia de conocimiento en sistemas 5 ROBÓTICA UBICUA Es importante realizar un análisis de lo necesarios para que la robótica ubicua p tareas en un campo de acción determinad una realidad los robots dotados de i abordar localización y navegación cooper cooperativa del entorno, construcción mapas, interacción robot humano, multitareas, entre otros aspectos que hac vez mas independiente del hombre, y po presentación de ts directamente ciencias básicas jas y desventajas clase y asociar mientas robóticas proponer nuevas de la tecnología , calid o y necesidad de o un ideal desde bótica acentúa la ando labores y re ha dejado de e dedique a otras robóticos existen estacan: robots obots con control no se tiene una nseñanza; debido os anteriormente n, aun cuando su ente. de optimizar los os informáticos, solución a esta aprovechando al nológica y la s robóticos. s requerimientos pueda desarrollar do, hoy en día es inteligencia para rativa, percepción cooperativa de distribución de cen al robot cada or el contrario el hombre se esta volviendo tecnologías. Uno de los principales objeti igual que de la computación dispositivos computacionales para las personas. Este objeti se mezclen en la vida cotid revolución que puede hacer diario; las personas se centra hacer, no en las herramient pretende que esas herramie proceso. I. Tabla Propiedades de la Robótica usuar más dependiente de estas vos de la robótica ubicua, al n pervasiva es hacer que los sean una necesidad primaria ivo de crear dispositivos que diana, supone una potencial r cambiar el modo de vida arían en las tareas que deben tas que utilizan, porque se entas estén inmersas en el Ubicua entre dispositivos y con los rios.
  • En el acelerado mundo en el que estamo factores que hacen que la robótica y com sea posible, y que hacen que las expect viables cada día que pase y no es cue ficción. Figura 1. Factores que intervienen en la evoluci Ubicua. De acuerdo al esquema anterior, se tiene c Ley de Moore, pues muchas hipóte esta sucediendo todo lo contrario. Un segundo factor que ha causado g diferentes áreas del conocimiento es e nuevos materiales, como por ejemplo la desarrollo que están llevando a cabo co material que p las tintas electrónicas y papeles inte bastante útiles bajo escenarios educativos. Un tercer factor que ha influido a nive avance en el sector de las comunicacione con la fibra óptica ha aumentado la capaci de comunicaciones hasta poder establec de Gigabits por segundo. Las tecnol inalámbricas, también son un punto de generación de dispositivos de ultima tecno Un cuarto factor esta asociado al desarro pues la tendencia es minimizar el tam capacidades, lo que permite tener disposit como: Cámaras y micrófonos de muy r sistemas de reconocimiento de patrones reconocimiento de voz, detectores de hue objetos móviles, sensores de localización, ¿Cómo serian las situaciones en las que se implantara la Robótica y Computació futuro? N te la ro continuación expongo algunas situacione os se dan algunos mputación ubicua tativas sean más estión de ciencia ión de la Robótica como factores, la gran impacto en el desarrollo de a investigación y on el grafeno, un eligentes, serian . el mundial es el es, los desarrollos idad de las líneas cer transmisiones logías de redes e partida para la ología. ollo de sensores, maño y aumentar tivos electrónicos reducido tamaño, y de técnicas de ellas digitales en entre otros. e hipotéticamente ón ubicua en un obótica ubicua, a es que se pueden dar ahora o en un futuro, e aportes de la computación pe posibles situaciones futuras. Algunas de estas situaciones h las limitaciones que impone disponibilidad de hardware resto solamente son desc situaciones futuras. Figura 2. Escenari 6 ROBOTS PARA LA ENSE La robótica integra, a través del conocimiento como mate mecánica, informática entre gran alternativa para la enseña El área de la robótica es tan v cabo experimentos con los co ridos y a la vez profundizar deriva la importancia que deb la enseñanza y en la pr profesionales de áreas de la i el estudiante pueda utilizarla reforzar los conocimientos distintas disciplinas. Dentro de la educación se cuales se deben ejecutar bajo orientaciones son las siguiente a. Las orientaciones didáctica pretende que los alumnos l mundo artificial y una cap efectivamente dentro del mis denominarse alfabetización te La alfabetización tecnológica la capacidad para apreciar el relación con la sociedad y el reflexionar sobre los actos te en las que se muestran los rvasiva a la vida real, o a las han sido simuladas dentro de la tecnología actual, y de la con la que contamos. Y el critas planteando posibles ios reales ubicuos. EÑANZA de un robot, distintas áreas emáticas, física, electrónica, otras, convirtiéndola en una anza [1]. versátil, que permite llevar a onocimientos teóricos adqui- en los mismos. De ello, se be darse a esta herramienta en reparación de los futuros ingeniería entre otras, donde a como una herramienta para que va adquiriendo en las habla de orientaciones las o medios tecnológicos, estas es: as: La Educación tecnológica ogren una comprensión del pacidad para desenvolverse smo, en un nivel que podría ecnológica [2]. a de los estudiantes incentiva l desarrollo tecnológico y su ambiente, la capacidad para ecnológicos propios y ajenos
  • en el marco de su impacto social y capacidad de ejecutar actos tecnológic respeto ambiental, creatividad, efectivid alumnos, a través del aprendizaje con tecn oportunidad de usar una variedad d distinguir y enunciar situaciones pro resolver problemas prácticos en un adquirir y usar durante su trabajo tres tipo interrelacionadas: • El como hacer. • La comprensión de procesos y la conocimientos. • Arriesgarse a tomar decisiones, desa soluciones a problemas, probar y mejo grupo en forma colaborativa, responsab resultados y administrar los recursos en eficiente. b. La orientación tecnológica: Desde técnica, la tecnología se relaciona con creación e intervención en las aplicacione Las personas se pueden relacionar con la diferentes perspectivas: • Como usuarios, cuya relación se ca utilización responsable de los objetos y se producción de objetos y servicios • Como innovadores, como diseñado aplicaciones; esto es, nuevas formas nuevos productos o servicios. Estas perspectivas no son excluyentes, docente puede ser a la vez un usuario, innovador. Estos roles solo ilustran posibilidades de relación con la tecnolog participar de estos requiere conocimient diferentes. Desde la perspectiva del uso, se define u una adecuada utilización del objeto, en n robots; desde la técnica, se orienta a capacidades necesarias para intervenir en de robots; desde la perspectiva innovador creación de nuevas funcionalidades y dise 7 ANÁLISIS Y PRÁCTICAS Realizando un análisis en los contenid asignaturas de las ciencias básicas, se contenidos teórico – prácticos no se deb ambiental y la cos con calidad, dad y ética. Los nología, tienen la de medios para oblemáticas y, contexto social, os de habilidades adquisición de arrollar múltiples orar, trabajar en bilizarse por los forma efectiva y una perspectiva la capacidad de s tecnológicas. tecnología desde aracteriza por la ervicios. ores de nuevas de interacción, un estudiante o un técnico y un las diferentes gía. Sin embargo, tos y habilidades una orientación a nuestro caso, los al desarrollo de n la funcionalidad ra, se orienta a la eños. dos temáticos de observa que los ben limitar a los ambientes y herramientas típ son un salón de clases y un computo para abordar las prac En la mayoría de los casos l estas asignaturas es igual, paradigma de que esta es la asignaturas, pues es posib dinamicen algunos módulos de las asignaturas. Herramientas dinamizadora herramientas multimedia y (Tecnologías de la informació general, pero en algunos ca apoyo, por esta razón se temáticas con robots, pues aspectos de las TICS y multim Los robots proporcionan un g formación y es la motivación ciencias a través del uso de como una herramienta didác estudiante de cualquier edad. en temas técnicos de robótic en la asignatura a través de la Las actividades que se llevan basadas en guías con ejercici teoría vista en clase, esta rea actividades más dinámicas, a los robots, esto se puede logr como por ejemplo el que pro como el que se muestra en la s Figura 3. Ambiente grafico de En otras Universidades en Co Jorge Tadeo lozano y en el e Autónoma de México (U construido diferentes platafo didáctico de la enseñanza acercamiento a los temas re como la inclusión de la in robots[3], la diferencia de la p estos proyectos, con respecto picas de aprendizaje como lo n laboratorio con equipos de cticas. la forma de como se orienta la propuesta es romper el única forma de orientar las ble usar herramientas que de los contenidos temáticos as, se puede hablar de hacer uso de las TICS ón y las comunicaciones) en asos resulta insuficiente este propone realizar practicas son sistemas que integran media en general. gran aporte en los procesos de n, enseñanza y estudio de las e dicho sistema mecatrónico ctica para cualquier tipo de No es necesario profundizar a, el objetivo es profundizar los robots. n acabo en la actualidad están ios prácticos de acuerdo a la alidad se puede transformar a partir de la programación de rar bajo un ambiente grafico oporciona el kit de Lego [3], siguiente figura. Lego para programar robots. olombia como la Universidad exterior como la Universidad AM) en México se han ormas robóticas con el fin a de la electrónica y el elacionados con la robótica nteligencia artificial en los propuesta de investigación de o a la de nosotros, es que se
  • plantea llevar a cabo la enseñanza no solo no de otras áreas para sacarle mayor p herramientas. En el Grupo de investigación y Desarro de Sistemas (GIDIS) de la Corporaci Republicana se esta abordando un proyec de plataformas robóticas multifunción, q son robots animatronicos que permitirá practicas de enseñanza en las au sensibilizando a los estudiantes y cumpli de esta investigación. Figura 4. Etapas de aprendizaje con r Una de las tantas posibles metodologías plantear en este proyecto de investigación de identificación de la plataforma, prog plataforma y validar robótico y el papel que juega en la solució El proceso de diseño de actividades seg temático empieza por el diagnostico, p necesidades, características intrínsecas y e necesidades presentadas por el contenido proceso de evaluación, estructuración procesos, componentes relevantes del sis técnicos importantes para la definición conceptual y de detalle luego poner en ma dada con un sistema robótico. El proceso descrit o de electrónica si provecho a estas llo de Ingeniería ón Universitaria cto de desarrollo que básicamente án llevar a cabo ulas de clase, iendo el objetivo robots. s que se pueden n, abarca las fases gramación de la ón del problema. gún el contenido planteamiento de extrínsecas en las o, delimitaciones, n jerárquica de stema y criterios de la actividad archa la actividad semiautónomos, plataformas rescate, de uso personal y de s Al trabajar actividades inter tener en cuenta todos los p inmersión de sistemas robó organizado de actividades y eficiente el proceso de enseña Por ejemplo en áreas de mate estudio en detalle de des geometría, cálculos, entre o puede trabajar desde magni vectores, movimientos en un estática, dinámica, trabajo y e de biología como por ejem anatomía humana y anim audiovisuales mediante siste áreas afines a la ingeniería de algoritmos y programación compiladores en el PC; sino programación de las plataf respuesta sobre un ambiente f 8 REFERENCIAS [1] Robótica Educativa. (20 grupo de investigación SIRP Disponible en: http://solorobotica.blogspot.co aula- de-clases.html [2] Odorico A. H., Lage F . http://es.scribd.com/doc/3254 Clases [3] Cruz J. Joel. (2008). . Departam Disponible en: http://www.uam.mx/difusion/ 008/ casa_del_tiempo_eIV_nu 9 CONTACTO automat . E planeación, desarrollo y investigación. (GIDIS) de la Corpora 1 Correspondencia: egarnicae@u de robots multifunción (de servicio), entre otros. rdisciplinares es importante procesos involucrados en la óticos para tener un flujo y llevar a cabo de manera anza. emáticas, se puede abordar el sde la aritmética, algebra, otros; en áreas de física, se itudes físicas, pasando por na, dos y tres dimensiones, energía, entre otros. En áreas mplo forma de estudiar la mal a través de medios emas robóticos, e sistemas como el diseño de para no programar sobre o resolver problemas bajo la formas y ver realmente la físico. 011). Blog de Robótica del de la Universidad Javeriana. om/2011/06/robotica-en-el- F., Ca Disponible en: 46152/Robots-Historia-y- 54. /casadeltiempo/13_iv_nov_2 um13_52_56.pdf Estudios de especialización en administración en la . urepublicana.edu.co
  • INNOVACIÓN EN EL DESARROLLO DE UNA APLICACIÓN MOVIL EN EL SECTOR AGRICOLA DE NORTE SANTANDER Alveiro Rosado, Badwin Arévalo, Sir Alexci Suarez1 Facultad de Ingenierías, Universidad Francisco de Paula Santander Ocaña, Ocaña, Colombia Resumen En este artículo se presenta una aplicación móvil orientada al control de la información agrícola de Norte de Santander. La investigación se centra en utilizar la tecnología WAP, como un medio accesible que permita obtener el precio de los productos agrícolas en tiempo real, de tal forma que un agricultor pueda tomar decisiones oportunas sobre la venta, siembra y cosecha del producto. La metodología empleada se ha basado en una combinación entre las técnicas RUP y XP. Además se pretende analizar el impacto socio- económico en las zonas rurales, que permita la competitiva de los agricultores, y el departamento en la industria de la tecnología de la información y la comunicación. Palabras claves: Aplicación móvil, TIC, agricultura, vive digital. 1 INTRODUCCIÓN Históricamente, Colombia se conoce como un país agrícola, gracias a la diversidad de climas y tierras fértiles. Según el Ministerio de Agricultura se cuenta con 21,5 millones de hectáreas que pueden ser empleadas para ser cultivadas [1]. Entre las regiones con estas características se encuentra Norte de Santander, sin embargo el departamento presenta serios problemas en producción y comercialización de productos agrícolas. Por una parte porque se presenta saturación de productos, debido a que no existe un control de las fechas de inicio y fin de la siembra, y por otra al poco seguimiento, que permita estimar la época del año en la cual debe sembrarse un determinado producto. Así que desde el Plan de Desarrollo Departamental [2] se ve la necesidad de implementar estrategias que ayuden a mejorar la calidad de vida del agricultor incrementando su nivel de ingresos y disminuyendo el precio de la canasta básica a las familias de la región. Para llevar a cabo este objetivo se necesita apropiarse de las tecnologías de la información y las comunicaciones (TIC), bajo la supervisión del proyecto Norte de Santander Vive Digital, el cual se enmarca como una iniciativa del gobierno que permita cerrar la brecha entre el sector agrícola y el uso de la telefonía móvil. Es claro que el uso de esta tecnología es ampliamente conocida gracias a los operadores con que cuenta el país, logrando una cobertura mínima del 70%, sin embargo el porcentaje de usuarios que lo utilizan para mejorar su competitividad es escaso, si lo comparamos con otros países como México, Panamá y Honduras, donde el 50% [3] [4] [5] de la población rural tiene acceso a estos equipos, convirtiéndose en una herramienta financiera, climatológica y de precios. Además la población rural que lo posee solo lo utiliza para comunicarse con sus familiares. En Colombia los trabajos que se vienen realizando por diferentes instituciones e investigadores, han permitido iniciar procesos exitosos como: el Sistema de Información del Sector Agropecuario del Valle del Cauca (SISAV), cuyo objetivo es la integración de recursos, personas e instituciones agropecuarias, las cuales se unieron para compartir los recursos de información. Donde los usuarios pueden acceder a información relacionada con datos estadísticos, producción y áreas sembradas de los cultivos en la región [6].Otras investigaciones como las del Centro Internacional de Agricultura [7], y la sede de Palmira de la Universidad Nacional han intentado dar la pauta, de tal forma que Colombia empiece a producir aplicaciones para gestionar la información agrícola, así como proyectos de desarrollo web y móvil para la gestión de información del campo de cultivos agrícolas [8]. Si hablamos a nivel internacional se pueden nombrar trabajos interesantes como la red electrónica de la papa [4], la cual utiliza teléfonos celulares y mensajes SMS,
  • para mejorar la comercialización de sus productos. Los hindús utilizan sistemas de riego utilizando su teléfono celular, mediante un sistema remoto llamado Nano Gesh, liberando al agricultor de recorrer grandes distancias para activar el servicio, encontrándose muchas veces con un sistema de electricidad irregular, que no permitía terminar labor [9]. Recientemente un estudio realizado sobre el impacto en el desarrollo económico y social de la telefonía celular en la provincia de Canas (Perú), demostró los beneficios en agricultura, ganadería, comercio, etc., contribuyendo al desarrollo social y económico de la región [10]. Igualmente Bolivia logró un exitoso sistema que permite a productores y agricultores tener acceso a la información sobre precios de productos en el mercado beneficiando aproximadamente a 300 personas, utilizando mensajería SMS y un sistema radial como complemento [11]. Mientras que Costa Rica implementó un sistema semejante [12], trabajando en conjunto con el Instituto Interamericano de Cooperación para la Agricultura (IICA). Aunque los proyectos en su mayoría intentan generar aplicaciones que funcione en cualquier teléfono celular, algunos optan por seleccionar una marca específica, es el caso del proyecto para pequeños agricultores en la costa peruana, donde seleccionan un pequeño grupo de agricultores, proporcionándoles Smartphones, con la finalidad de conocer los factores que inciden en el proceso de apropiación de esta tecnología, demostrando que puede variar de acuerdo a los pobladores de una zona, y el tipo de cosecha que realizan, además se pudo conocer que se prefieren aplicaciones sencillas, pero que brinden información confiable y oportuna[13]. Tomando en cuenta lo anterior, y con la finalidad de mejorar el ingreso económico de los agricultores y tratar de disminuir el precio de los productos para la población de norte de Santander, se desarrolló una aplicación móvil basada en WAP, que permite al agricultor conocer los precios de los productos agrícolas, a la vez que da la posibilidad de ofertar sus productos, logrando que Norte de Santander se convierta en una de las regiones con mayor impacto en la comercialización de productos agrícolas a nivel nacional e internacional. 2 METODOLOGÍA El proyecto en su primera fase debió limitarse a la zona rural de Ocaña y Abrego con la finalidad de conocer las principales limitaciones y ventajas, debido a que es una zona que presenta características comunes con los agricultores de otros municipios, gracias a la variedad de sus cultivos. Además se enmarca dentro de las áreas donde el gobierno nacional ha centrado sus esfuerzos mediante la organización territorial de la Provincia de Ocaña. La metodología empleada se centra en tres contextos básicos: cualitativa, cuantitativa y aplicativa. Desde el punto de vista cualitativo se pretende conocer las dificultades en la adquisición de los equipos móviles, así como la difusión de la información. En la parte cuantitativa se mide el beneficio de producción y precios. Mientras que en la parte aplicativa se centro en el lenguaje, tipo de celular y cobertura de internet. 2.1 Dimensión cualitativa y cuantitativa del impacto de la telefonía celular El estudio se ha realizado tomando como base dos tipos de usuarios: los usuarios empresariales y los usuarios domésticos. Empleando entrevistas de tal forma que permitiera recoger información en este campo, además de preguntas abiertas donde los agricultores pudieran expresarse con sus propias palabras. En forma general se pretendía conocer algunas inquietudes como: • ¿Qué dificultades presenta la adquisición de un teléfono celular? • ¿Si han utilizado celulares, cuál es el uso desde el punto de vista de servicios y mercados? • ¿Qué dificultades han encontrado en el uso de los dispositivos móviles? • ¿Han conocido experiencias de colegas que aprovechan la tecnología en sus labores productivas? Al principio no se tuvo en cuenta la metodología actual empleada por los agricultores para conocer el precio de los productos, y su fuente de información (radio, televisión, prensa), por eso debió reformulase las preguntas, que permitiera mostrar la diferencia-beneficio de utilizar el celular. La investigación cuantitativa se enfocara en un grupo reducido de agricultores, intentando mantener los mismos participantes para el periodo de siembra y de cosecha, donde se evaluará las condiciones finales del sistema, y su repercusión socio-económica del agricultor. 2.2 Modelo de aplicación basado en WAP La variedad de equipos de telefonía móvil, aplicaciones, lenguajes de desarrollo y precios de ellos, han brindado
  • inmensas posibilidades para el desarrollo de las aplicaciones, sin embargo conlleva un problema a la hora de implementar el servicio, es por eso que se pretendía una aplicación que funcionará en la mayoría de teléfonos celulares. La selección se realizó tomando como base las ventajas y desventajas tanto en precios del equipo como las aplicaciones de libre uso. Dentro de los problemas encontrados abarca los altos costos para un agricultor rural, conocimiento bajo en el manejo de las aplicaciones, limitaciones de la tecnología y la poca red de cobertura sobre todo en la zona de Abrego. Para el prototipo de interfaz en el teléfono celular el análisis fue realizado con la tecnología WAP, el cual es un protocolo que puede ser usado por los dispositivos móviles, permitiendo la comunicación entre el servidor y el cliente. Estos servicios permiten mantener al cliente informado en tiempo real, con alertas donde se destacan: noticias, restaurantes, rebaja de productos y campañas de marketing en general. El funcionamiento se basa en entregar y recibir información del cliente por medio de una red móvil, la cual pasa a través de una Puerta WAP, que lo conecta a los servicios alojados en internet compuestos por un servidor WAP y HTML. Figura 1. Acceso a internet utilizando WAP En el desarrollo de la aplicación se ha utilizado una metodología basada en la Rational Unified Process (RUP) y Extreme Programming (XP), empleado diagramas de caso de uso e historias de usuario, de tal forma que pueda asegurar la fiabilidad del sistema. Combinando los lenguajes de Extensible HyperText Markup Language (XHTML), WMLScript semejante a Javascript, incluyendo formatos para el acceso a la información. La plataforma web cuenta con herramientas que permiten al agricultor solicitar el precio de un producto mediante un código específico, así como sugerir u oferta parte de ellos. Además posee un gestor de contenidos con información actual de diferentes rubros, con la posibilidad de crear un perfil de usuario, comparar estadísticas y realizar operaciones matemáticas para correlacionar valores. 3 RESULTADOS La muestra fue realizada con un grupo aleatorio de 88 encuestas sobre agricultores líderes en el campo, los cuales daban una impresión aceptable para la primera fase. En la Tabla 1, se encuentra una síntesis de los resultados obtenidos, dentro de los cuales se solapan 53 encuestas tipo empresarial y 28 doméstico. Tabla I: Impacto del celular en usuarios domésticos y empresariales. Impacto Porcentaje (%) Uso del celular general. 85 Uso del celular zona rural. 73.86 Género masculino zona rural. 62.5 Género femenino zona rural. 37.5 Facilidad envío de mensajes. 86.36 Ejemplos de uso. 22 Celulares con video. 19.31 Cobertura red móvil - wifi (pago). 93.18 Cobertura red móvil - wifi (gratuito). 9.09 En la Tabla 1, se puede observar la penetración del uso del celular en forma general llegando a un 85% de la población, sin embargo en la zona rural disminuye en forma leve, aunque mantiene una presencia alta sobre todo para lograr la comunicación con familiares o amigos. En la zona rural el género masculino mantiene una tasa alta de uso, esto es debido a que parte de la producción y comercialización es realizado por este género, sin embargo en forma general no se observa diferencia en el uso del celular en ambos géneros. Uno de los puntos más preocupantes para aplicar la tecnología es el uso del dispositivo para enviar y recibir mensajes, sin embargo se dio una grata sorpresa al observar que el 86.36% han utilizado en algún los mensajes SMS para el envío y recesión de ellos. A pesar de esto solo el 22% lo utiliza como alternativa para hacer negocios e informarse sobre precios, oferta y demanda, debido al desconocimiento y falta de servicios en materia agrícola. Muchos de los agricultores cuentan con celulares que presentan servicios de video y aplicaciones que permitan manejar los productos.
  • La cobertura y el precio de los servicios móviles ha sido el gran inconveniente, debido a que muchos aceptan que existe una cobertura para el acceso a internet, no pueden pagar el servicio de forma oportuna. En cuanto al impacto productivo se pudo comprobar que todos tenían una aceptación de la tecnología, los resultados de la Tabla 2 demuestran el aporte que se puede obtener, sin embargo es demasiado temprano para lograr una muestra aceptable, debido al corto tiempo de implantación del proyecto, que permita obtener resultados verificables Tabla II: Impacto del celular enlos procesos productivos. Impacto Porcentaje (%) La implantación de una aplicación móvil favorece la venta de productos. 96.59 Puede disminuir los precios. 100 Ganancia monetaria. 100 Disminución de pérdida de cosecha. 80.68 Aumento de producción especifica. 95.45 Posibilidad de venta directa de productos. 62.5 Disminución de viajes para conocer la variación de precios. 87.5 Bajo costo del servicio de información. 77.27 En su mayoría todos los agricultores coinciden en la importancia de la creación de la aplicación móvil, la cual puede favorecer el intercambio de productos y venta de ellos, logrando una disminución e incremento monetario. Sin embargo un 19.32% cree que la pérdida de la cosecha depende de factores como el clima, oferta y demanda interna. El 95.45% de los encuestas piensa que conociendo las estadísticas en tiempo real puede ayudar en la toma de decisiones para la siembre de un producto. Uno de los inconvenientes de los agricultores es la venta del producto, la cual se hace por medio de intermediarios, los cuales elevan el productos al consumidor final, es por eso que el 62.5% espera vender directamente sus productos logrando un beneficio social y económico. Otro de los inconvenientes era el medio para conocer los precios en forma oportuna, generalmente utilizando radio o televisión, y muchas veces viajando a los centros de distribución, por eso el 87.5%, comprende la importancia de la aplicación y el beneficio que les entrega en forma real y precisa. En cuanto a los precios que pueden surgir para afiliarse al sistema, los agricultores presentaron inconformidad, si se aplican tasas por el envío de los costos de productos, ya sea por obtener información o compartir estadísticas. Prácticamente tres cuartas partes esperan que sea totalmente gratuito, mientras el 22,73% está dispuesto a pagar por un servicio más concreto, siempre y cuando pueda repercutir de forma beneficio en su negocio y en la comunidad. Para el sistema de consulta se implementó una aplicación web que permita a los agricultores contar con una interfaz rápida, que pueda ejecutarse en la mayoría de teléfonos con posibilidad de conexión a internet. Esta aplicación se encuentra en la URL http://www.agroticsms.com. Figura 2. Acceso a usuarios al sistema de afiliación También existe un blog, adaptado a versión móvil donde el agricultor puede ofrecer sus productos y el precio de ellos. El sistema funciona al conectarse a la página, seleccionar servicios y presionar sobre el producto, los cuales se encuentran en orden alfabético, de esta manera se obtienen el precio del producto. También se puede enviar un código del producto de tal forma que la aplicación envía un SMS al usuario con el dato solicitado. Tabla III: Información de productos basados en precios. Fecha Producto Tipo Precio Cod. 12/04 Coliflor S/N xxxx x 12/04 Papa S/N xxxx x 12/04 Manzana S/N xxxx x 12/04 Lechuga S/N xxxx x 12/04 Pepino S/N xxxx X S/N: Sin especificar; xxxx: precios sólo para usuarios autorizados; x: Código sólo para usuarios autorizados.
  • En este momento se están llevando a cabo las pruebas cerradas con la finalidad de detectar incoherencias con dispositivos móviles, sin embargo en esta primera fase se analiza el compromiso, aceptación y necesidad del agricultor para la implantación de la aplicación, cuyos resultados demostraron una necesidad en l agricultura. Posteriormente en la fase II se obtendrán los datos estadísticos del uso de la plataforma, y la información obtenida en el celular. 4 CONCLUSIONES El proyecto contó con una buena aceptación, sin embargo en una primera etapa no se tuvo en cuenta las conexiones a internet y el capital social de los agricultores rurales, lo cual repercute notablemente en el impacto de la tecnología, sin embargo es preciso nombrar que no solo se benefician los agricultores, si no que otros comerciantes pueden ingresar al uso del celular, como un dispositivo de trabajo. En cuanto a la apropiación de las TIC es importante resaltar la metodología basada en desarrollo un producto sencillo, que permitiera al agricultor perder el miedo a estos dispositivos. Igualmente los agricultores solicitaban la implantación de medios más económicos, confiables e iterativos, que permitieran la reducción de los costos de producción, disminución de cosechas perdidas y el valor de la canasta familiar, así como un incremento en sus ingresos. Es por eso que al combinar la telefonía móvil con la parte productiva de la región, se pudo comprar que era un medio adecuado para su implantación y repercusión en las zonas rurales. 5 AGRADECIMIENTOS El presente proyecto de investigación ha sido financiado por la Universidad Francisco de Paula Santander Ocaña y el proyecto Norte de Santander – Vive Digital. 6 REFERENCIAS [1] Restrepo, J. C. (2011). Proyecto Ley General de Desarrollo Rural. Ministerio de Agricultura y Desarrollo Rural. Bogotá. [2] Espinel, D. (2011). Corponor hace presencia en la Provincia de Ocaña para iniciar el proceso de ajuste al POT. http://www.corponor.gov.co. [3] ELAC. (2010). El uso de las TIC en agricultura y ganadería. Sector Productivo. Newsletter Nº 08. Jennifer Ross. [4] Alonso, J. (2009). Telefonía móvil en áreas rurales: Oportunidades para la agricultura. Red Electrónica de la Papa, Redepapa. Asociación Internacional de Especialistas en Información Agrícola. [5] Brewer, E. (2005). The Case for Technology in Developing Regions. Proceedings of the 14th international conference on World Wide Web. ACM (96), New York. [6] Montaño, P. (2007). Sistema de Información del Sector Agropecuario del Valle del Cauca (SISAV). Casos exitosos en el uso de las TIC para la investigación e innovación agropecuaria en América Latina y el Caribe, (29-36), San José: IICA, FORAGRO [7] Centro Internacional de Agricultura Tropical. www.ciat.cgiar.org. (2006). [8] Delgado, J., Giraldo, C., Millán, A., Zuñiga, C. y Abadía, J. (2006). Desarrollo de un software Web y Móvil para la gestión de información de campo de cultivos agrícolas (AgrocomM). Sistemas & Telematica, (113-124). [9] Ali Patel, M. (2009). Indian farmers control water pumps by mobile pone. http://www.springwise.com. [10] Alterna Perú S.A.C. (2008). Impacto en el desarrollo económico y social de la telefonía celular en la provincia de Canas. [11] Jimenez, A. (2012). Acceso a información de mercados a través de las TIC: La exitosa experiencia en el Sur de Bolivia. http://www.akvo.org/rsr/project/313. [12] Flota, S. (2012).Agromensajes gratuitos: precios de mercado directo a teléfonos celulares de productores en Costa Rica. Agriculture. [13] Bustamente, R. Información para la agricultura y capital social. (2011). Uso de smartphones entre pequeños agricultores en la costa peruana. Actas de la V Conferencia ACORN-REDECOM (1-10), Lima. 1 Correspondencia: sasuarezc@ufps.edu.co
  • PROYECTO DE AULA COMO DINAMIZADOR DE NÚCLEOS PROBLÉMICOS EN PROCESO ENSEÑANZA-APRENDIZAJE PARA DESARROLLAR SISTEMAS DE INFORMACIÓN María Dora Alba Sánchez Gómez, Juan Evangelista Gómez Rendón1 Escuela de Ciencias Básicas, Tecnología e Ingeniería, Universidad Nacional Abierta y a Distancia, Medellín, Colombia Resumen El trabajo presenta una relación estrecha entre las diferentes estrategias pedagógicas, tales como, proyecto de aula, núcleo problémico y núcleos integradores de problemas. Todas estas valiosas e innovadoras estrategias están fundamentadas en las teorías constructivistas. En los sistemas académicos universitarios y sin coherencias definidas ni motivacionales los “núcleos de formación” se han estructurado o propuestos según la relevancia o la pertinencia y no su capacidad de articular saberes, experiencias, problemas, aplicaciones o prácticas. Muchos de los líderes de los procesos académicos confunden, sin querer hacer daño, muchas de las concepciones que se trabajan en esta propuesta: núcleos problémicos, núcleos integradores, núcleos temáticos y lo articulan o los regulan considerando para cada uno de ellos una estrategia de trabajo asociada y denominada “ejes”. Los líderes deben tener la capacidad de soportar el cambio, saber manejar la oportunidad de asimilar las innovaciones o atreverse a desaprender cuando es el caso; hay que aprender a construir y aprender a deconstruir con rapidez para poder soportar , adaptarse o adelantarse al advenimiento de los nuevos paradigmas. . Actualmente, en los ambientes académicos donde se habla de currículo problémico (con el fin de que sea pertinente para el estudiante y desarrolle competencias en ellos), toman fuerza y validez estas estrategias. Sin embargo, entre los conceptos estrategias pedagógicas y estrategias didácticas, existen dudas en la forma cómo deben estar inmersas en el currículo, que aveces confunden o le quitan potencialidades al docente sobre qué aplicar, cómo aplicarla, cómo desarrollarla; máxime si son de las áreas de las ciencias empírico analíticas (como es el caso de las ingenierías). Es por eso que este trabajo pretende mostrar una forma de articular, armonizar, generar una simbiosis productiva, de todos estos conceptos en el área del análisis, diseño y construcción de los sistemas de información en las organizaciones. En conclusión, el proyecto de aula como estrategia didáctica es una herramienta pedagógica que operacionaliza todo el proceso del desarrollo de la respuesta de cada uno de los núcleos problémicos que intervienen para la solución adecuada del núcleo integrador del problema en el análisis, diseño y construcción de software para los sistemas de información en las organizaciones. Palabras claves: Núcleos Problémicos, Núcleos Integradores de Problemas, Proyecto de Aula. 1 INTRODUCCIÓN El propósito de este artículo, es mostrar a la sociedad del conocimiento con alegría, claridad y bondad, cómo muchas de las estrategias pedagógicas basadas en el constructivismo pueden combinarse armónicamente para generar didácticas significativas que permitan promover o desarrollar las competencias en los estudiantes de tal forma que a medida que van abordando, comprendiendo, interiorizando, la parte teórica de sus cursos académicos, pueden ir aplicándolos en una problemática de su contexto local o regional; es decir que vayan proyectando con sus actitudes y aptitudes una transformación positiva del entorno social inmediato donde la persona está viviendo para generar, pulir, fundamentar, consolidar, su proyecto de vida y contribuir a tejer con armonía la sociedad.
  • Por lo tanto lo primero que se aborda son los conceptos fundamentales de algunas estrategias pedagógicas tales como núcleos integradores de problemas, núcleos problémicos y proyecto de aula. Así mismo se tratarán los conceptos de “ciclo de vida de un proyecto” en el análisis, diseño y programación de un sistema de información, para finalizar mostrando cómo el proyecto de aula dinamiza de manera objetiva los núcleos problémicos y los núcleos integradores de problemas en una problemática de información en las organizaciones y las cuales en los mercados cada vez más globalizados (como los presentes en el mundo de hoy), el cambio es el nuevo paradigma. Es importante resaltar que desde que estaba finalizando la década del noventa, en Colombia, se viene proponiendo el desarrollo del trabajo por competencias en los estudiantes de educación superior, donde las teorías pedagógicas constructivistas toman más dinamismo, de tal forma que comienzan a discutirse en los ambientes académicos, conceptos tales como el aprendizaje basado en problemas, aprendizaje por proyectos, los núcleos problémicos, el proyecto de aula, entre otros. 2 CONCEPTUALIZACIÓN DE ESTRATEGIAS PEDAGÓGICAS Según G. Caviedes (2002), en su artículo “La indagación interdisciplinaria y la transversalidad en el currículo desde una perspectiva del diseño basado en la investigación”, entiende los núcleos problémicos como “una asociación de conocimientos que se extraen de un estudio cuidadoso de la sociedad y que representan situaciones de incertidumbre y dificultad para los miembros de una comunidad en particular”; es así como los sistemas de información en cualquier organización moderna obedecen a diversas dinámicas tanto generales como particulares de éstas y hace que el diseño de estas estructuras sea complejo, pues son muchos los factores o parámetros que intervienen para afectar o condicionar, muchas veces de manera inexorable, el comportamiento, el movimiento o la actualización de procedimientos, hardware, software, usuarios, entre otros. Por otro lado J. Ramos (2006) en su artículo “Orientaciones curriculares para ciencias sociales en educación media” define los núcleos problémicos “… deben ser concebidos como eje conductor de todo el programa o período de estudio, elaborado en entramados coherentes y lógicos de relaciones, con el fin de que a medida que los estudiantes vayan avanzando en su formación, puedan ir definiendo aspectos particulares de interés que les permita asumir los nuevos contenidos con insumos para sus propias reflexiones”, aquí miramos cómo los estudiantes que quieran abordar problemas relacionados con el análisis, diseño y construcción del software de los sistemas de información, deben context- ualizarse o reubicarse en una organización que esté en su entorno o en sus potencialidades, con el fin de que a medida que va estudiando la organización en un ambiente y tiempo reales, vaya aplicando lo aprendido o fortalecido en el curso; en este caso específico, las metodologías, las técnicas y las herramientas para el análisis, diseño y construcción del software de un sistema de información. Este mismo autor dice: “ los núcleos problémicos deben partir en considerar en forma integral los saberes…, es decir, evidenciándolos en diferentes posiciones e intereses en juego, permitiendo examinar las relaciones complejas que se establecen y haciendo que los estudiantes interpreten, argumenten, comparen, propongan y elaboren su propio discurso”. Para el caso de los estudiantes que analizan problemas significativos de sistematización de información, cada uno puede entrar a diseñar la solución y debatirla con los demás compañeros con argumentación válida, soportada por las diferentes metodologías y técnicas propias, definidas y avaladas en la ingeniería de software y reconocidas por las agremiaciones que acogen o proponen los criterios que dinamizan esta disciplina. Dice este autor, que para trabajar los núcleos problémicos “se requiere convertir los procesos en problemas con alto grado de significación para el estudiante”. En el caso del análisis, diseño y construcción desoftware para los sistemas de información, se han realizado y se pueden realizar estudios serios, responsables y sostenibles, de los procesos de información en las organizaciones que presenten problemas de estructuración y procesamiento de información, posibilitando al estudiante para interactuar con su contexto y dar soluciones pertinentes, aplicando las últimas metodologías de análisis y diseño de software. Desde lo curricular, el estudiante tiene la oportunidad de ir aprendiendo a conceptualizar más las metodologías de desarrollo, pues a medida que va transitando por la organización con una buena sinergia empresarial, va aprendiendo de la lectura de textos, de la resolución de “estudio de casos” y discusiones con los compañeros, convirtiéndose en un ejercicio de interacción y construcción de sus soluciones y sus propios saberes. Muchos de los resultados de éstos se convierten en insumos semilla para elaborar o repensar más casos de estudio en otros períodos académicos. Cabe resaltar, que con respecto a los textos que se encuentran en el mercado para abordar la temática del desarrollo de software para los sistemas de información, algunos profundizan más en alguna etapa del ciclo de vida del desarrollo de un sistema de este tipo, muchos de ellos
  • dan ejemplos inconexos entre los diferentes ciclos de vida y no abordan de una manera problematizadora los temas, de tal forma que solo se circunscriben en ejercicios puntuales. Por eso, dice este mismo autor, ‘se hace conveniente que nosotros los docentes asumamos la responsabilidad de escribir nuestros propios documentos frente a los temas de los diferentes cursos en que somos directores, pues de esta forma se tendrá material nuevo para el trabajo con nuestros estudiantes fruto de nuestras propias reflexiones’ ante las soluciones que presentan los diferentes grupos de estudiantes en las problemáticas de su contexto. Así también los documentos elaborados por los estudiantes pueden servir de insumo para cursos posteriores, ya sea a ellos mismos en otro curso o a otros estudiantes en el mismo curso, de tal forma, que nos veríamos inmersos en una metodología propia de construcción de conocimiento donde cada persona siente que es arquetipo de su propia formación académica, profesional y hasta social. En cuanto al entorno apropiado en que se debe “comenzar el proceso de enseñanza aprendizaje para el análisis, diseño y construcción del software para los sistemas de información” (que se ha hecho encerrado en un aula, bien sea presencial o para el caso de la UNAD, por mediación virtual) tomando como base solamente los contenidos de libros y textos del ciberespacio o módulos elaborados internamente; muchos en forma incoherente, no han sido los más apropiados para desarrollar competencias significativas en los estudiantes. Es así, como para dar a los estudiantes una experiencia enriquecedora para su aprendizaje se debe aprovechar el contexto en el que se desenvuelven, conocer más de las organizaciones que lo rodean y las problemáticas de información que las afecta, de tal forma que el estudiante al proponer, dar o participar, en soluciones se sienta como transformador de esa realidad y se pueda pensar que estamos formando la identificación y apropiación de ellos como actores sociales. Por eso es importante, que desde el aula virtual, los acerquemos a la realidad con herramientas teóricas y con experiencias aplicadas y reflexionadas, de tal forma que permitan apreciar el entorno desde una óptica distinta, no ya la del individuo que pasa por los textos sin saber cómo aplicar en la realidad inmediata todo el cúmulo de información, sino, de aquel que en su paso se transforma. La academia formativa debe sobrepasar con calidad y amigabilidad las barreras del aula y generar motivaciones y experiencias significativas desde el aula de tal manera que todo cuanto acontece en su interior sea un reflejo de la manera en que se está comportando en la realidad una organización o un área específica de ella para la cual se están desarrollando o fortaleciendo las competencias de los estudiantes para forjar un excelente y exitoso trabajador y un potencial investigador de procesos. 3 CONCEPTUALIZACIÓN EN EL PROCESO DE ANÁLISIS, DISEÑO Y CONSTUCCIÓN DE SOFTWARE PARA LOS SISTEMAS DE INFOR- MACIÓN Los sistemas de información son un conjunto de hardware, software, personas y procedimientos, que tienen como fin fundamental el procesamiento de datos, su distribución y entregar información en forma segura a un área o conjunto de áreas en una organización. Por eso, se debe tener claridad organizacional porque para la realización de un sistema de información se hace necesario considerar un proyecto interdisciplinario, donde participan activa, solidaria, colaborativa y comprometidamente, el experto en una temática, los procedimientos, los procesos de negocios, las metodologías de desarrollo y los manejos de las TIC’s. En estos dos últimos factores, es donde el tecnólogo o el ingeniero de sistemas entran a apoyar desde el conocimiento metodológico, el dominio de técnicas y herramientas para el análisis, diseño y construcción del software. Así, realizar software para este tipo de sistema no es trivial por lo que se tienen que hacer unos pasos en forma metodológica y sistemática y aplicando técnicas y herramientas adecuadas para llevarlo a su feliz término. Por esta razón debe quedar claro el ciclo de vida en el desarrollo de software como sigue: 3.1 Levantamiento de información Es el proceso mediante el cual el analista de sistemas debe recopilar sistemáticamente la información del área mediante técnicas de entrevistas, aplicación de cuestio- narios y observaciones. Este paso implica la participación activa, comprometida y seria del personal del área bajo estudio, el analista de la organización y métodos y el analista de sistemas. 3.2 Análisis del sistema Es el proceso mediante el cual el analista de sistemas analiza la información recolectada, de tal forma, que pueda generar dos documentos complementarios. El primero es el de requisitos, el cual debe ser aprobado por los usuarios, dirección del área bajo estudio y el analista de organización y métodos. Una vez aprobado, el segundo paso es generar un documento que contenga el modelo conceptual del sistema, es decir, modelar en término de datos y procesos el área bajo estudio mediante las últimas técnicas de modelados plasmando allí el diagrama de entidad relación (Modelo lógico de datos); Diagramas de casos de usos, de clases, de secuencias, entre otros (Modelo de proceso). En este segundo proceso, además de
  • los participantes iniciales, es conveniente y razonable la participación de un auditor operativo del área y el auditor de sistemas con el fin de colocar los controles al sistema. 3.3 Diseño del sistema Es el proceso mediante el cual el analista de sistemas estructura y refina el modelo lógico de datos y el modelo de procesos de acuerdo a las herramientas que va a utilizar para su futura construcción. Aquí se genera un documento que debe contener, además de los diagramas de análisis en forma más detallados, las interfaces hombre-máquina, los objetos a programar y a reutilizar, entre otros. Aquí la participación del auditor de sistemas es de vital importancia, pues es donde éste debe diseñar detalla- damente todos los controles de acuerdo a lo que las herramientas y las organizaciones de control ofrezcan y los que no, deberán ser diseñados por él pero siempre bajo la óptica responsable y sostenible del control y auditoría de parte de la empresa. 3.4 Construcción del sistema Es el proceso mediante el cual el analista de sistemas codifica el sistema según las necesidades o posibilidades de la organización, es lo que se llama la programación del sistema. En esta fase, se entran a utilizar fuerte y razonablemente las herramientas adecuadas de progra- mación reconocidas y aceptadas por las diversas agremia- ciones empresariales para el fin específico, tales como JAVA, PHP, VISUAL ESTUDIO, entre otras y las herramientas de bases de datos, tales como, MySQL, ORACLE, SQL SERVER, entre otras. En esta fase, se realizan las primeras pruebas al sistema, que son realizadas por lo general por el mismo programador. 4 CONCEPTUALIZACIÓN DEL ELEMENTO INTEGRADOR Fundamentados en la conceptualización de núcleos problémicos y en el de ciclo de vida del desarrollo de software en un sistema de información, se tiene otro concepto básico como es el de núcleo integrador de problemas. Apoyados, en un artículo publicado en la revista nro. 19 de “Tecne, episteme y didaxis”: revista de la Facultad de Ciencia y Tecnología, Universidad Pedagógica Nacional “un núcleo integrador de problemas es el que organiza racionalmente a su alrededor un conjunto de problemas simultáneos cuyo abordaje permite comprender la pregunta científica que en él se representa, el fenómeno que él problematiza”. En el caso de los problemas de estructuración y programación de los “sistemas de información” (SI) en las organizaciones, se tiene que un núcleo integrador de problemas es la cohesión de varios núcleos problémicos (Levantamiento de información, análisis, diseño y construcción del SI). Es así, que para el tema que nos interesa se establecerá, que nuestro núcleo integrador de problemas es el análisis, diseño y construcción del software para un sistema de información, de tal forma que la pregunta problémica es ¿Cómo analizar, diseñar y construir un software para un sistema de información? Con base en el núcleo integrador del problema anterior, se pueden definir los núcleos problémicos así: Así como el núcleo integrador de problema tiene una pregunta, los núcleos problémicos también las tienen. La pregunta problémica establecida o sugerida para cada uno de éstos sería: ¿Qué y cómo realizar o evaluar los requisitos de información del usuario en un área o áreas de negocio? ¿Qué y cómo realizar el modelo conceptual de datos y procesos en un área o áreas de negocio de una organización, basados en los requisitos del usuario? ¿Qué y cómo realizar el diseño del software del sistema de información en un área o áreas de negocio, basados en los modelos conceptuales de datos y procesos? ¿Qué y cómo construir el software del sistema de información basados en el diseño de datos y procesos del área o áreas bajo estudio? Las anteriores preguntas presuponen que el estudiante al responderla, debe no solo tener conceptos claros, sino, que debe saber aplicarlos, de tal forma, que desarrolle las competencias requeridas para abordar las problemáticas de desarrollo de software para los sistemas de información en las organizaciones. Hasta aquí, la pregunta que nos podemos formular es ¿qué estrategia didáctica se puede utilizar o construir para dinamizar el núcleo integrador de problemas que desarrolle las competencias para la construcción del Análisis de requisitos Análisis de datos Análisis de procesos Construcción del sistema de Información Diseño de datos y procesos
  • conocimiento en forma colectiva? Para contestarla, es necesario definir el concepto de “currículo”. Según Caviedez (2002), “… se puede considerar como una hipótesis de trabajo que brinda el espacio para crear un campo de investigación donde convergen la sociedad, la cultura y la vida de la escuela de manera conjunta. Esto configura un proceso global que tiene como propósito la formación integral de la persona, ojalá no como individuo dividido de los demás, sino como persona responsable y comprometida tanto en su proceso de desarrollo individual, como en el comunitario, local y nacional. En este orden de ideas, se puede concebir como un proceso constante de investigación, participación y construcción colectiva de significados, de sentido y de identidad de las instituciones educativas de nuestro país”. Con base en el concepto propuesto de currículo, vemos cómo los núcleos problémicos, provocan en el estudiante la necesidad de dar respuestas sentidas a las preguntas planteadas, no solo desde el marco teórico, sino desde lo práctico, en un contexto empírico analítico y real, donde a través de las soluciones planteadas y promovidas, él se sienta inmerso en la sociedad, y más específicamente, en la organización, como un elemento transformador o dinamizador de ella y a su vez experimentar el ser transformado por ella. Con base en las concepciones anteriores, se puede pensar que una estrategia de trabajo es el proyecto de aula, que según Cerda (2002) “…es una propuesta didáctica fundamentada en la solución de problemas, desde los procesos formativos, en el seno de la academia… son los medios y procedimientos para crear las condiciones físicas o virtuales, y pedagógicas para alcanzar los niveles de comunicación y de interacción… tiene como propósito principal movilizar las estructuras cognoscitivas del estudiante en un proceso autónomo e interactivo …”. Tenemos entonces que esta estrategia didáctica, se ajusta para desarrollar una forma de trabajo en el aula (virtual o presencial), pues el estudiante debe dar respuesta a la pregunta problematizadora del núcleo integrador de problemas a través de un proceso investigativo, colectivo y contextualizado a una problématica real de algún o algunos de los participantes. Dar soluciones a problemas de desarrollar software en un sistema de información implica que el estudiante debe movilizar su estructura cognoscitiva en los más altos niveles de abstracción, pues el proceso mental de analizar y diseñar son bastantes complejos. Además, exige al estudiante una actitud propositiva y de trabajo en equipo, que visto desde las relaciones sociales, tampoco es un proceso simple, pues implica concertar constantemente con sus compañeros; en otras palabras se puede decir que es un proceso traumático en muchas oportunidades. Además, sí la estrategia didáctica de proyecto de aula se combina con la herramienta de “investigación acción participativa”, que considera el proceso de apropiación de saberes por parte de los estudiantes como una práctica colectiva, en el cual el equipo investigador, no es un grupo de participación externo, sino que está inmerso dentro la misma comunidad, configura un desarrollo de elementos tendientes a que la comunidad desempeñe un papel activo como sujeto constructor de su propio conocimiento y no como espectadores o simples objetos de estudio. En esta medida tanto la estrategia como la herramienta, combinan la acción social con la investigación, la teoría con la práctica, en un proceso de autoformación permanente y como medio para socializar el conocimiento, permitiendo que los sujetos participantes descubran con objetividad su propia realidad. Se pretende pues, que los orientadores y los estudiantes, se inicien, se formen o se fortalezcan de manera práctica y significativa en las técnicas y en los modelos adecuados del análisis, diseño y construcción del software para los sistemas de información, que propenden por establecer y generar una organización sostenible, justa, equitativa, y responsable con la sociedad, la patria y el medio ambiente. 5 CONCLUSIONES El trabajo “PROYECTO DE AULA COMO DINAMIZADOR DE NÚCLEOS PROBLÉMICOS EN PROCESO ENSEÑANZA-APRENDIZAJE PARA DE- SARROLLAR SISTEMAS DE INFORMACIÓN” es un valioso y significativo instrumento de mediación en la relación pedagógica organizacional porque: • Se propone como una herramienta sistemática que contribuye a hacer posible la transformación de la naturaleza de la educación meramente conductista y transmisionista a una construc- tivista. • Se convierte en un modelo de trabajo y de integración, equilibrado y justo, de los elementos y actores implicados en los ambientes educativo y organizacional. • Se convierte en un proceso y en una estrategia de transformación como un producto elaborado de la reflexión sobre la acción, tanto para quien participa en el diseño del ambiente, como para quienes hacen uso consciente, sistemático y permanente de él, en este caso, el orientador, los estudiantes y las organizaciones en dónde se realiza su proyecto.
  • • Se construye con una intención académica, técnica, y administrativa para aprovechar los recursos comunicacionales de las nuevas tecnologías y estrechar vínculos organizacio- nales en los diferentes contextos donde se encuentren los estudiantes. • La organización se beneficia en cuanto los procesos se tornan sistemáticos y el estudiante moldeado y forjado con esta estrategia se entrega a la sociedad como un conocedor y un elemento activo y dinamizador de los procesos organiza- tivos de los sistemas de información. 6 REFERENCIAS Bibliografía [1] Cerda, H. (2001). El proyecto de Aula. El aula como un sistema de investigación y construcción de conocimientos. Bogotá. Mesa Redonda. [2] Oz, O. (2001). Administración de sistemas de información. Madrid. Prentice Hall. [3] Kendal, K. (2006). Análisis y diseño de sistemas. México. Prentice Hall. [4] Caviedez, G. (2002). “La indagación interdisciplinaria y la transversalidad en el currículo desde una perspectiva del diseño basado en la investigación. Cali. Universidad del Valle. [5] Ramos, J. y otros. (2001). Hacia un fundamento de la enseñanza y el aprendizaje de las ciencias sociales en la educación media. Bogotá. Biblioteca virtual Banco de la República. [6] René, P. y otros. (2008). Flexibilidad académica y curricular en las instituciones de educación superior. México. Universidad Autónoma. [7] Alexander, O. (2009). Pedagogía Problémica ‘Modelo metodológico para el aprendizaje significa- tivo por problemas. Bogotá. Magisterios. 1 Correspondencia: mariadora.sanchez@unad.edu.co juan.gomez@unad.edu.co
  • ESCUELA, NTICS Y PEDAGOGÍAS ACTIVAS Santiago Botero-Sierra1 Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia Resumen A medida que se profundiza y expande la Sociedad del Conocimiento y la Información, se observa la extensión de una brecha digital que separa a las naciones y que profundiza las desventajas de unas con respecto a otras. Por ello, se hace hincapié en las estrategias que se pueden implementar para contribuir al cierre de esta brecha a partir de la alfabetización digital y el autoaprendizaje. Se afirma quela escuela puede contribuir al cierre de la brecha digital a partir del aprovechamiento de las potencialidades que ofrece la Web 2.0 y del uso de las Pedagogías Activas, especialmente el Aprendizaje Basado en Problemas, el Aprendizaje Basado en Proyectos y el Aprendizaje Colaborativo. Palabras claves: Brecha Digital, Sociedad de la Información y el Conocimiento, Nuevas Tecnologías de la Información, Escuela, Alfabetización Mediática, Pedagogías Activas. 1 INTRODUCCIÓN La indagación explora sobre el papel, las herramientas, los métodos y los recursos de los entornos educativos para contribuir al cierre de la brecha digital existente entre los países en el marco de la Sociedad de la Información y el Conocimiento y del involucramiento cada vez mayor de las Nuevas Tecnologías de la Información y el Conoci- miento en la vida cotidiana de la nueva ciudadanía digital. La revisión de la literatura sobre la materia indica que la escuela puede contribuir al cierre de la brecha digital que existe entre los países y que es posible usar el Internet para el logro de las tareas académicas que se requieren en la Sociedad de la Información y el Conocimiento haciendo uso de las herramientas y recursos que ofrece. En primer lugar se analiza el concepto, las causas y las consecuencias de la brecha digital y se exploran estrategias de alfabetización mediática que contribuyen a disminuirla. Posteriormente se analiza cómo, a partir de la escuela, es posible contribuir al cierre de la brecha digital haciendo uso de Pedagogías Activas y aprovechando las potencialidades que ofrece la Web 2.0.Con ello, se encuentra que la escuela tiene un papel fundamental para el cierre de la brecha digital en Colombia a partir del uso de las Pedagogías Activas. 2 ALFABETIZACION MEDIATICA Y CIERRE DE LA BRECHA DIGITAL La existencia de una brecha digital entre los países es una amenaza al desarrollo de nuestras naciones puesto que la evidencia indica que las Nuevas Tecnologías de la Información y las Comunicaciones – NTIC’s son portadoras de un potencial de progreso considerable en educación, salud, cultura y otros temas [1] porque reducen el aislamiento geográfico, económico y social [2]. En ese sentido, es necesario abocar este desafío entendiendo qué es la brecha digital; cómo está inmersa en ella América Latina y el Caribe en general y Colombia en particular; y qué estrategias pueden implementarse para disminuirla. Con el avance de las NTIC se ha comenzado a evidenciar la existencia de una brecha digital, entendida como la “distancia entre individuos, hogares, empresas y áreas geográficas con diferentes niveles socioeconómicos, con respecto tanto a sus oportunidades para acceder a las tecnologías de la información y la comunicación (TIC) como al uso de Internet, para una amplia variedad de actividades” [2]. Esta brecha o fractura digital (conocida como eCompetency Gap) es una línea divisoria y móvil que crea desigualdades entre las personas, grupos, territorios e instituciones; es la expresión de la exclusión social en el ámbito de las TIC’s y se manifiesta en dos órdenes: (i) la falta de acceso material a los equipamientos tecnológicos y (ii) su apropiación por parte de las personas concernidas [1] [3]. Aunque el acceso a los equipos no constituye per se una situación de inclusión digital [4], resulta ilustrativo comprender las diferencias en acceso que existen entre los países. Los países del “Norte”, que representan el 15% de la población mundial, tienen un acceso cinco veces mejor a la telefonía, nueve veces mejor al Internet y poseen trece veces más computadores que los “países en desarrollo”;
  • un 80% de la población mundial no dispon 6% de la conectividad total a Interne revisión de las estadísticas sobre uso de I observar que: la penetración mundial de 32.7%, pero hay regiones como Norteam que tienen más del doble del promedio m como Asia y África se encuentran consid debajo de él. América Latina y el Ca penetración de internet cercana al promed a su interior también hay grandes difer Argentina, Uruguay, Chile y Colomb superiores al 50%; países como Nicar Bolivia y Cuba tienen tasas inferiores al 1 Para combatir la brecha digital se deb estrategias de inclusión digital1 entre las la alfabetización mediática. Ésta se en proceso de “educación para la adquisició competencias y destrezas en los entorn […que debe desarrollar] ‘la capacida comprender, apreciar con sentido c contenidos en los medios de comunicac indispensable para el desarrollo de una ci activa” [3]. La importancia de la alfab radica en que “el uso activo de las T 1 “La inclusión digital pretende elimin brecha digital que afecta a determinados c que estarían comprendidas las personas exclusión debido a la educación (los alfabetización electrónica), edad (esp ancianos), género, discapacidad (para especial aplicación el principio de dis diseño para todos aplicado a las TIC), etn zonas alejadas de los grandes núcleos de difícil accesibilidad” [1]. 2 GROS Y CONTRERAS (2006) en alfabetización digital comprende competencias: capacidad para realizar informados acerca de la información qu línea; destrezas de lectura y comprensión hipertexto dinámico y no secuencia construcción del conocimiento; habilidad gestión del “flujo multimedia”; concienc la existencia de otras personas y un facilitadas para contactar con ellas y deba ayuda; capacidad para comprender un pr un conjunto de pasos para resolver e información; valoración de las herramie como apoyo a los formatos tradicionales precaución al juzgar la validez y ex material accesible. GROS Y CONTRERA ne más que de un et [1]. Con una Internet se puede e internet es del mérica y Oceanía mientras que otras derablemente por aribe tienen una dio (39.5%), pero rencias: mientras bia tienen tasas ragua, Honduras, 5% [5]. ben implementar cuales se cuenta ntiende como el n de habilidades, nos digitales [ 2 ] ad de consultar, crítico y crear ción’ que resulta iudadanía plena y betización digital TIC equivale con nar la fractura o colectivos, en los en situación de necesitados de pecialmente los los que tiene seño universal o nia o por vivir en población y con ntienden que la las siguientes juicios de valor ue se obtenga en en un entorno de l; destrezas de des de búsqueda; ciación acerca de na disponibilidad atir temas o pedir roblema y seguir sa necesidad de entas del sistema del contenido; y xhaustividad del AS (2006) [1]. frecuencia a unas perspectiva o unas relaciones sociales de m observa en el Gráfico 1, Alfabetización Mediática de la existencia de dos aspe mediática: las competenc dimensiones son personales ambientales, cuyas áreas mediática, la política de educ mediática, la sociedad civil y de información [7]. Gráfico 1. Estructura de los c alfabetización mediátic Una de las estrategias de may de la brecha digital es el inv escenarios educativos en la a atender a la población en d observa en el siguiente aparta arsenal de aliados en los cuale este objetivo, entre los cuale Pedagogías Activas. 3 LAS PEDAGOGIAS AC ALIADAS DE LA ESCUEL BRECHA DIGITAL En el Gráfico 1 se muestra q son una de las áreas críticas d el contexto de la alfabetizac Expertos en Alfabetización prominencia de la alfabetizac y los recursos para el entrena didáctico tienen un profundo alfabetización mediática. En c el Grupo separa los indicador mediática en cuatro partes as laborales, una información mayor calidad” [6]. Como se el Grupo de Expertos en la Unión Europea estableció ectos de la alfabetización cias individuales, cuyas y sociales; y los factores críticas son la educación cación mediática, la industria y la disponibilidad de medios criterios de evaluación de la a. Traducción libre[7]. yor efectividad para el cierre nvolucramiento activo de los alfabetización mediática para diferentes niveles. Como se ado, la escuela cuenta con un es apoyarse para cumplir con es resaltan la Web 2.0 y las CTIVAS Y LA WEB 2.0: LA EN EL CIERRE DE LA quelos escenarios educativos de los factores ambientales en ión mediática. El Grupo de Mediática afirma que la ión mediática en el currículo amiento docente y el material efecto en el desarrollo de la cuanto al contexto educativo, res del criterio de educación s: currículo, entrenamiento
  • docente, actividades de educación mediática y recursos [7]. El constructivismo educativo es una construcción psicopedagógica que se centra en la construcción de significados y la atribución de sentidos a lo que se aprende cuyo ingrediente fundamental es el aprendizaje significativo, que pretende crear un vínculo entre los conocimientos previos y los que se pretende adquirir [8]. Las Pedagogías Activas permiten generar aprendizaje significativo y podrían ayudar a cerrar la brecha digital desde la escuela a través de diversos enfoques: Aprendizaje Basado en Proyectos, Aprendizaje por Problemas, Aprendizaje Colaborativo, entre otros: • El Aprendizaje Basado en Proyectos es un método de enseñanza donde se adquiere nuevo conocimiento y habilidades en el transcurso del diseño, la planificación y la producción de un producto enfatizando en actividades de aprendizaje a largo plazo, interdisciplinares, centradas en el estudiante e integradas con el mundo real [9]. • “Jhonson y Jhonson (1999), acotan que [el Aprendizaje Colaborativo] es un sistema de interacciones cuidadosamente diseñado que organiza e induce la influencia recíproca entre los integrantes de un equipo, se desarrolla a través de un proceso gradual en el que cada miembro y todos se sienten mutuamente comprometidos con el aprendizaje de los demás, generando una interdependencia positiva que no implique competencia” [10]. • El Aprendizaje Basado en Problemas consiste en la generación del conocimiento a partir de un ambiente de tarea en donde el estudiante debe formar la representación mental del problema, con lo que se activan los conocimientos en la memoria de largo plazo y se elige una estrategia de solución que se pone en práctica y, en caso de no alcanzar la solución, se itera en este procedimiento [11]. Además de las Pedagogías Activas, la escuela puede aprovechar las ventajas que ofrece la Web 2.0, que le abre un abanico de posibilidades para el cierre de la brecha digital. En ésta, los usuarios no se limitan a consumir información sino que usan la Internet para crear contenidos y cooperar, convirtiéndose en un poderoso instrumento de participación social [1]. Allí prevalece la apropiación de la tecnología como parte importante de la vida cotidiana a partir de la publicación de contenidos propios, la valoración y remezclado de contenidos de terceros y la cooperación. En la Web 2.0 el usuario otorga valor a las herramientas y su intervención personal enriquece la actividad colectiva generada en las aplicaciones de Internet [10]. 4 CONCLUSIONES La escuela es un escenario crítico para la alfabetización mediática en cuanto a currículo, entrenamiento docente, actividades de educación mediática y recursos. Cuenta con herramientas poderosas para contribuir con ésta como son la Web 2.0 y las Pedagogías Activas, especialmente el Aprendizaje Basado en Proyectos, el Aprendizaje Colaborativo y el Aprendizaje Basado en Problemas. La alfabetización mediática es importante para contribuir al cierre de la brecha digital, que se manifiesta como una amenaza para el ingreso a la Sociedad del Conocimiento y la Información. A partir del uso de las Pedagogías Activas, la escuela puede contribuir a la construcción de una nueva ciudadanía que use adecuada y creativamente la Internet con un sentido crítico sobre la información disponible, disponga de técnicas para la búsqueda de información académica pertinente, aproveche los recursos disponibles y se beneficie de las herramientas web a su alcance. 5 REFERENCIAS [1] DUPUY, G. (2007). La fractura digital hoy. Revista Iberoamericana de Ciencia, Tecnología y Sociedad – CTS, Agosto de 2007, Volúmen 3, Nº9, Centro de Estudios sobre Ciencia, Desarrollo y Educación Superior. Disponible en World Wide Web: http://redalyc.uaemex.mx/redalyc/src/inicio/ArtPdfRed.jsp ?iCve=92430908(Consultado a 12 de febrero de 2012). [2] CARIDAD, M. MARZAL, M.A. AYUSO, M. SEBASTIÁ, M. REY, C. JORGE, C. MORALES, A.M. (2006). Sociedad de la información e inclusión digital en España. Antecedentes. Primera parte. Revista Ciencias de la Información, Vol. 37, Número 1, Enero-Abril de 2006, Instituto de Información Científica y Tecnológica. Disponible en World Wide Web: http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve= 181418033005(Consultado a 12 de febrero de 2012). [3] DURÁN, F.J. (2009). Retos y oportunidades de la administración y el gobierno electrónicos: derecho a las TIC y alfabetización digital. Revista Zona Próxima, N°10, Julio de 2009, Universidad del Norte. Disponible en World Wide Web:
  • http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve= 85312281007 (Consultado a 12 de febrero de 2012). [4] VEGA, O.A. ARANGO, O.C. LÓPEZ, M. (2010). Inclusión digital en pequeñas comunidades. Caso de estudio: municipios de Puerto Carreño y Primavera, Vichada. Revista Scientia et Technica, Año XVI, N°44, Abril de 2010, Universidad Tecnológica de Pereira. Disponible en World Wide Web: http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve= 84917316033(Consultado a 12 de febrero de 2012). [5] MINIWATTS MARKETING GROUP (2012). Internet world stats.Disponible en World Wide Web: http://www.internetworldstats.com/stats.htm (Consultado a 12 de febrero de 2012). [6] Comisión de las Comunidades Europeas – CCE (2007). Iniciativa europea i2010 para la inclusión digital “Participar en la sociedad de la información”. COM(2007) 694 final. Disponible en World Wide Web: http://ec.europa.eu/information_society/activities/einclusio n/docs/i2010_initiative/comm_native_com_2007_0694_f_ es_acte.pdf (Consultado a 12 de febrero de 2012). [7] EAVI.CLEMI.UAB.UCL.UTA (2009). Study on assesment criteria for media literacy levels. Disponible en World Wide Web: http://www.gabinetecomunicacionyeducacion.com/investi gacion/study-assessment-criteria-media-literacy-levels (Consultado a 12 de febrero de 2012). [8] ARANDA, D (2002). Educación mediática y aprendizaje significativo: una relación beneficiosa. Revista Comunicar, marzo de 2002, Número 18, Centro andaluz para la educación en medios de comunicación. Disponible en World Wide Web: http://redalyc.uaemex.mx/redalyc/src/inicio/ArtPdfRed.jsp ?iCve=15801817 (Consultado a 12 de febrero de 2012). [9] COTO, M. DIRCKINCK-HOLMFELD, L. (2007). Diseño para un aprendizaje significativo. Revista Electrónica Teoría de la Educación. Educación y Cultura en la Sociedad de la Información. Volumen 8, N°3, Diciembre de 2007, Universidad de Salamanca. Disponible en World Wide Web: http://www.redalyc.org/src/inicio/ArtPdfRed.jsp?iCve=20 1017307007(Consultado a 12 de febrero de 2012). [10] PEÑA, K. PÉREZ, M. RONDÓN, E. (2010). Redes sociales en Internet: reflexiones sobre sus posibilidades para el aprendizaje cooperativo y colaborativo. Revista de teoría y didáctica de las ciencias sociales, N°16, Enero- junio de 2010, Universidad de los Andes. Disponible en World Wide Web: http://www.redalyc.org/src/inicio/ArtPdfRed.jsp?iCve=65 219151010(Consultado a 12 de febrero de 2012). [11] GORBANEFF, Y. CANCINO, A. (2009). Mapa conceptual para el aprendizaje basado en problemas. Revista Estudios Gerenciales, Vol. 25, N°110, Enero- Marzo de 2009, Universidad ICESI. Disponible en World Wide Web: http://www.redalyc.org/src/inicio/ArtPdfRed.jsp?iCve=21 219323006(Consultado a 12 de Febrero de 2012 1 Ingeniero Administrador. Subdirector Administrativo de la Corporación Gestión Social y Desarrollo, GS+D. Consultor privado. Estudiante de Maestría en Economía en el Centro de Investigación y Docencia Económicas de México D.F. Correo-e: sboteros@unal.edu.co.
  • SOFTWARE DE ACCESO A INFORMACION INTITUCIONAL BASADO EN REALIDAD AUMENTADA EN LA UNIVERSIDAD FRANCISCO DE PAULA SANTANDER OCAÑA. Carlos Eduardo Lobo Jaime1 Dewar Willmer Rico Bautista2 Resumen Basados en el impulso que ha generado la Realidad Aumentada (AR) en otros sectores, como el publicitario y el turístico, a través de este articulo se muestra el proceso de una investigación la cual de como resultado un nuevo sistema de presentación de la información que sea mucho más llamativo e interactivo con los usuarios y optimice la disposición de la información en las organizaciones. Este proyecto comprende el diseño y creación de un software para la presentación de la información general, sobre la función y el manejo de las distintas dependencias de la organización y se implementara en el área de la casona de la Universidad Francisco de Paula Santander Ocaña. Palabras claves: Interfaces de información y presentación, sistemas multimedia de información, artificiales, aumentada y realidad virtual, procesamiento de imágenes y visión por ordenador, análisis de escena, seguimiento. 1 INTRODUCCION Realidad Aumentada (Augmented Reality) (RA), es un campo de investigación computacional que trata de combinar en tiempo real el mundo real con datos generados por computadora diferencia de la Realidad Virtual que trata de meter al usuario en un mundo simulado. El campo de estudio principal trata sobre integrar imágenes virtuales sobre video digitalmente procesado, para “aumentar” la percepción que tenemos del mundo real. La realidad Aumentada tiene que ver con la fusión de la información de manera sensible a un contexto físico. En general, las tecnologías de Realidad Aumentada requieren el emplea de dispositivos dotados de oportunos sensores, los cuales permiten interactuar con un ambiente. Uno de los sensores más comunes en las aplicaciones AR es la webcam. Esta es utilizada como un "ojo electrónico" en asociación a algoritmos de visión artificial que extraen "features" de la secuencia de video de la información. Otros tipos de sensores usados cada vez más frecuentemente para contextualizar el contenido digital sin el GPS, los acelerómetros, la brújula y los giroscopios. Estos sensores forman parte ya de la dotación estándar de los dispositivos móviles de última generación, como por ejemplo el iPhone y el Samsung Galaxy. 2 PLANTEAMIENTO DEL PROBLEMA En la actualidad se viene presentando una situación notable en la disponibilidad de la información en ciertos sectores de la universidad francisco de Paula Santander Ocaña, en cuanto a la facilidad para encontrar información sobre funcionamiento y principios generales de cada dependencia. Para plantear una solución en este caso se propone el diseño e implementación de un sistema de acceso a información institucional basado en la tecnología de Realidad Aumentada(AR), el cual permita al usuario que se encuentre dentro de la institución poder obtener la información que desee de cada dependencia por medio del reconocimiento de patrones, previamente establecidos. ¿La implementación de un software de acceso a información institucional basado en Realidad Aumentada (SAIIBRA) concederá una mayor disponibilidad de la información pertinente acerca del funcionamiento de las distintas dependencias de la Universidad Francisco de Paula Santander Ocaña? Debido a una limitante de tiempo impuesta por el mismo trafico de trabajo que se lleva en las distintas dependencias de la UFPSO, el cual en la imposibilita tener una disponibilidad de la información, del funcionamiento
  • interno de la dependencia, de una forma optima para las personas que deseen obtenerla. Ante esta situación y teniendo en cuenta el impulso que las TIC está generando en el país se genera la una solución basándonos en entornos de Realidad Aumentada, los cuales garantizan una mayor interacción de los usuarios y una experiencia mucho más llamativa, a la hora de presentar la información a los usuarios. 3 REVISION BIBLIOGRAFICA El término Realidad Aumentada se usa para definir una visión directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta a tiempo real. Consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real." Debemos entender que Realidad Virtual y Realidad Aumentada han ido prácticamente de la mano. En 1950 Morton Heilig escribió sobre un “Cine de Experiencia”, que pudiera acompañar a todos los sentidos de una manera efectiva integrando al espectador con la actividad en la pantalla. Construyo un prototipo llamado el Sensorama en 1962, junto con 5 filmes cortos que permitían aumentar la experiencia del espectador a través de sus sentidos (vista, olfato, tacto, y oído). En 1968, Ivan Sutherland, con la ayuda de su estudiante Bob Sproull, construyeron lo que sería ampliamente considerado el primer visor de montado en la cabeza o Head Mounted Display (HMD) para Realidad Virtual y Realidad Aumentada. Era muy primitivo en términos de Interfaz de usuario y realismo, y el HMD usado por el usuario era tan grande y pesado que debía colgarse del techo, y los gráficos que hacían al ambiente virtual eran simples “modelos de alambres”. A finales de los 80 se popularizo el término Realidad Virtual por Jaron Lanier, cuya compañía fundada por él creó los primeros guantes y anteojos de Realidad Virtual. El termino Realidad Aumentada fue introducido por el investigador Tom Caudell en Boeing, en 1992. Caudell fue contratado para encontrar una alternativa a los tediosos tableros de configuración de cables que utilizan los trabajadores. Salió con la idea de anteojos especiales y tableros virtuales sobre tableros reales genéricos. Realidad Aumentada esta en sus primeras etapas de desarrollo por universidades y compañías de alta tecnología, y se está implementando con éxito en algunos ámbitos, pero se espera que muy pronto tengamos ya productos de mercado masivo a gran escala. La idea básica de la Realidad Aumentada es la superponer gráficos, audio y otros, a un ambiente real en tiempo real. Podría sonar bastante simple, pero no lo es. Aunque hace décadas que las cadenas de televisión vienen haciendo esto, lo hacen con una imagen estática que no se ajusta al movimiento de las cámaras. La Realidad Aumentada es muy superior a lo que se viene utilizando en televisión, si bien, ediciones iníciales de Realidad Aumentada se muestran actualmente en eventos deportivos televisados, para mostrar información importante en pantalla, como los nombres de los pilotos de carreras, repeticiones de jugadas polémicas o principalmente, para desplegar publicidad. Estos sistemas despliegan gráficos solo desde un punto de vista. La próxima generación de sistemas de realidad aumentada desplegara gráficos para la perspectiva de cada espectador. El punto principal dentro del desarrollo de la RA es un sistema de seguimiento de movimiento o Tracking System. Desde el principio hasta ahora la RA se apoya en “Marcadores” o un arreglo de Marcadores dentro del campo de visión de las cámaras para que la computadora tenga un punto de referencia sobre el cual superponer las imágenes. Estos marcadores son predefinidos por el usuario y pueden ser pictogramas exclusivos para cada imagen a ser superpuestas, o formas simples, como marcos de cuadros, o simplemente texturas dentro del campo de visión. Recién en los últimos años el desarrollo de RA “markerless” está madurando, añadiendo un grado más a la inmersión al no tener que trabajar con tarjetas o cosas extrañas al ambiente. Los sistemas de computación son mucho más inteligentes, capaces de reconocer formas simples, como el suelo, sillas, mesas, formas geométricas sencillas, como por ejemplo un teléfono celular 4 MATERIALES El aplicativo será desarrollado para su funcionamiento en dispositivos los cuales posean sistema operativo Android 2.0 o superior. Dichos dispositivos deben contar con una cámara de 2.0 Mp y captura de video VGA como mínimo. Para el desarrollo del software se utilizaran las siguientes herramientas:
  • 4.1 Unity 3D version 3.5. Unity 3D, (También Unity) es un Motor 3D para el Desarrollo de Videojuegos. Está disponible para la Plataforma Windows y Mac OS X, y permite crear juegos para Windows, Mac, Xbox 360, PlayStation 3, Wii, iPad y iPhone, y también para la plataforma Android. Gracias al Plug-In Web de Unity, también se Pueden desarrollar Juegos de Navegador, para Windows y Mac, pero no Linux. Además de su uso para crear juegos, Unity permite una vista guiada que permite usarse también para diseños arquitectónicos y animaciones 3D. 4.2 Blender Blender es un programa informático multiplataforma, dedicado especialmente al modelado, animación y creación de gráficos tridimensionales. El programa fue inicialmente distribuido de forma gratuita pero sin el código fuente, con un manual disponible para la venta, aunque posteriormente pasó a ser software libre. Actualmente es compatible con todas las versiones de Windows, Mac OS X, Linux, Solaris, FreeBSD e IRIX. Tiene una muy peculiar interfaz gráfica de usuario, que es criticada como poco intuitiva, pues no se basa en el sistema clásico de ventanas; pero tiene a su vez ventajas importantes sobre éstas, como la configuración personalizada de la distribución de los menús y vistas de cámara. Originalmente, el programa fue desarrollado como una aplicación propia por el estudio de animación holandés NeoGeo; el principal autor, Ton Roosendaal, fundó la empresa "Not a Number Technologies" (NaN) en junio de 1998 para desarrollar y distribuir el programa. La compañía cayó en bancarrota en 2002, entonces los acreedores acordaron ofrecer Blender como un producto de código abierto y gratuito bajo los términos de la GNU GPL a cambio de €100.000. El 18 de julio de 2003, Roosendaal creó sin ánimo de lucro la Fundación Blender para recoger donaciones; el 7 de septiembre se anuncia la recaudación como exitosa (participaron también ex empleados de NaN) y el código fuente se hizo público el 13 de octubre. 4.3 Vuforia Vuforia aporta una nueva dimensión a la experiencia móvil a través del uso de realidad aumentada. Vuforia proporciona tecnología líder del sector y el rendimiento en una amplia gama de dispositivos móviles. Vuforia funcionalidad de visión de computadora reconocerá una gran variedad de objetivos visuales en 2D y 3D. Con soporte para iOS, Android y 3D Unidad, Vuforia le permitirá escribir una sola aplicación nativa que puede alcanzar más de 400 modelos de teléfonos inteligentes y tabletas. Vuforia aporta una nueva dimensión a la experiencia móvil a través del uso de realidad aumentada. Simplemente apunte su dispositivo en los objetos del mundo real, e información entretenida y útil que aparecen de repente. Para los vendedores, Vuforia puede conducir a la participación de la marca en formas completamente nuevas. Publicidad, literalmente, puede saltar de la página impresa. El embalaje del producto puede cobrar vida en las estanterías de venta al por menor. Y una vez comprados, los productos se pueden proporcionar una mayor interactividad para dar instrucciones y las ventas futuras. Vea cómo las marcas líderes mundiales están utilizando Vuforia hoy. 4.4 Illustrator CS5. Adobe® Illustrator® CS5 le ayuda a crear gráficos vectoriales distintivos para cualquier proyecto. Aprové- chese de la precisión y potencia de herramientas de dibujo sofisticadas, pinceles naturales expresivos y una gran variedad de funciones que ahorran tiempo. Adobe Illustrator, es el nombre o marca comercial oficial que recibe uno de los programas más populares de la casa Adobe, junto con sus programas hermanos Adobe Photoshop y Adobe Flash, y que se trata esencialmente de una aplicación de creación y manipulación vectorial en forma de taller de arte que trabaja sobre un tablero de dibujo, conocido como “mesa de trabajo” y está destinado a la creación artística de dibujo y pintura para Ilustración (Ilustración como rama del Arte digital aplicado a la Ilustración técnica o el diseño gráfico, entre otros). Es desarrollado y comercializado por Adobe Systems Incorporated y constituye su primer programa oficial de su tipo en ser lanzado por ésta compañía definiendo en cierta manera el lenguaje gráfico contemporáneo mediante el dibujo vectorial. Adobe Illustrator contiene opciones creativas, un acceso más sencillo a las herramientas y una gran versatilidad para producir rápidamente gráficos flexibles cuyos usos se dan en (Maquetación-Publicación) impresión, vídeo, publicación en la Web y dispositivos móviles. Las impresionantes ilustraciones que se crean con éste programa le han dado una fama de talla mundial a
  • esta aplicación de manejo vectorial entre digitales de todo el planeta, sin embargo, hubiese sido lanzado en un principio par con el sistema operativo Macintosh y qu resultara muy intuitivo para las persona trasfondo en manejo de herramientas tan la aceptación de éste programa entre el pú algunos países. 5 METODOLOGÍA Se ha definido hasta el momento la utiliza programing. Este modelo de desarr perfectamente al proyecto de realidad au que lo que interesa son la interacción de el mismo entorno generado. Esta metodo Historias de usuario y Tarjetas crc. 6 PRUEBAS Y RESULTADOS 6.1 1ª prueba En esta primera ocasión al seguir la form reconocimiento de patrones, se intento qu patrón simple el aplicativo inicializar partículas sobre el objeto. En esta primera prueba se produjo un erro fue la inicialización del efecto de p presencia del patrón. Con esto se perde concepto de realidad aumenta. Fig. 1. Forma más simple de reconocimie 6.2 2ª prueba: Tras la prueba anterior y detectando el e captura de patrón o Tracking, se gen esperado del cual se pudo obtener como c la distancia del patrón para no perder su del sistema está en un estimado entre 50 a calidad media en la impresión del patrón. e artistas gráficos , el hecho de que ra ejecutarse sólo ue su manejo no as con muy poco avanzadas afectó úblico general de ación de Striming rollo se adapta umentada debió a los usuarios con ología se basa en ma más simple de ue al reconocer un a un efecto de or notable el cual partículas sin la ería totalmente el ento de patrones error en el script nero el resultado conclusiones que, u estabilidad total a 100 cm con una Fig. 2. Distanc 6.3 3ª prueba Teniendo el correcto funcion incluye la importación de obje en software de producción 3d Las pruebas se realizaron sat una correcta superposición d patrón real. Fig. 3. Superposición El patrón utilizado fue el logo Fortress el cual se basa en tr tridimensional fue el modelad Fig. 4. Objeto t 6.4 4ª prueba Para cambiar el concepto múltiples para detección de m un cubo con 6 patrones difer cia del patrón namiento de los patrones se etos tridimensionales creados como en este caso Blender. isfactoriamente y se produjo del modelo virtual sobre el n del modelo virtual otipo de la banda musical My res letras (MFS). Y el objeto do de este mismo logo. tridimensional y poder incluir imágenes múltiples patrones, se fabrico entes los cuales en principio
  • se pudieron detectar de forma individual cuales consistían en invocar una diapositiv La desventaja de esto es que al interfer otro se perdía la diapositiva que se estu para ser remplazada por la que correspon más puntos de coincidencia. Fig. 5.Objeto tridimension 6.5 5ª prueba En este caso y teniendo en cuenta la des en la prueba anterior se decidió util proporcionado por la empresa Qualcomm un sistema de detección multipatron es mu Fig. 6. Objeto tridimension En este caso y al implementar dicho siste resultado esperado como lo fue la detecc patrones, y su correcta ejecución. EDUCACIÓN Y TECNO l las acciones las va por patrón. rir un patrón con uviese mostrando nde al patrón con nal sventaja revelada lizar el método m la cual maneja uy estable. nal ema se obtuvo el ción de múltiples 7 BIBLIOGRAFÍA [1] Wagner, Daniel and Reit Time Detection and Trac on Mobile Phones. [2] La Realidad Aumentad Editorial Perspectivas y Inglobe Tecnologies Srl [3] Realidad aumentada: su http://www.ciape.org/blo [4] Universidad Católica Asunción” “LA RE Alain Loup [5] Viladomat, Ramon (20 Aumentada, presente y fu [6] http://wwwhatsnew.com ramon-viladomat-de-nov aumentada-presente-y-fu [7] REALIDAD AUMEN INTERACCION E EMPRESAS Y USUAR [8] http://www.societic.com aumentada-tecnologia-in para-empresas-y-usuario [9] http://www.qualcomm.co reality 1 Estudiante plan de estu Sistemas.Semillero de Inve Security (SIGLAS). Univer Santander Ocaña UFPSO Acolsure.Ocaña, Norte de Santander, Colombia, Tel.: (+ E-mail:celoboj@gmail.com 2 Ingeniero de Sistemas. Es caciones. Magister (c) en Cien Docente Tiempo Completo. Paula Santander Ocaña UFPS Sede Algodonal Vía Acolsure Colombia, Tel.: (+577)-5690088/569811 dwricob@ufpso.edu.co OLOGÍA EN LOS PROCESOS COM tmayr, Gerhard (2009). Real- cking for Augmented Reality da en el Futuro del Mundo y oportunidades White paper u impacto en la formación og/?p=2670 “Nuestra Señora de la EALIDAD AUMENTADA” 10). Entrevista: la Realidad futuro m/2012/03/26/entrevista-con- varama-la-realidad- uturo NTADA. TECNOLOGIA, INNOVACIÓN PARA IOS m/2012/03/realidad- nteraccion-e-innovacion- os/ om/solutions/augmented- udios de Ingeniería de stigación GNU/Linux And rsidad Francisco de Paula O. Sede Algodonal Vía +577)-5690088, specialista en Telecomuni- ncias Computacionales. Universidad Francisco de O. e. Ocaña, Norte de Santander, 8, E-mail: MUNICATIVOS
  • José Alejandro Franco Calderón1 Evelyn Garnica Estrada2 Facultad de Ingeniería, Corporación Universitaria Republicana, Bogotá, Colombia Resumen La tecnología cada vez toma un papel principal en los procesos comunicativos, a su vez la educación se va transformando de acuerdo a los medios físicos y virtuales disponibles, teniendo en cuenta el crecimiento cultural y educativo, generando una evolución de las sociedades con el uso de las diferentes tecnologías emergentes que hacen parte de la construcción dinámica del conocimiento. Palabras claves: Educación, comunicación,tecnología, Televisión Digital Terrestre. 1 INTRODUCCIÓN Desde el principio de los tiempos ha sido de vital importancia para los seres humanos la necesidad de comunicarse con su entorno y sus semejantes con el fin de prevalecer ante la selección natural, desde los antiguos pictogramas de nuestros antepasados mas primitivos hasta las comunicaciones de ultima generación a las que tenemos acceso hoy en día evidencian dicha necesidad, todo ello ha propiciado un avance significativo en la evolución misma del ser, el poder expresar y compartir nuestras ideas libremente ha ayudado en todas las ramas del desarrollo humano, logrando por si solo que hoy seamos la especie dominante de este planeta, es una responsabilidad y un desafío actual a los que hacemos parte de esta sociedad de la información. El poder lograr un punto de equilibrio justo entre los avances tecnológicos, la ética social, los derechos civiles y el acceso libre a la información en busca del crecimiento cultural y educativo son temas a la orden del día en la sociedades del mundo entero, ya que en la actualidad según Philip Dick todos en la red podríamos considerarnos como “prosumer[1]” productores y consumidores de un sin numero de contenidos digitales que están moviendo al mundo hacia una nueva dirección dentro de la evolución de la especie, una evolución dinámica que se construye todos los días por todas las personas alrededor del mundo, es así como deberíamos ver a internet como esa infinita comunidad de conocimiento, saber, entretenimiento, cultura, apropiación, inclusión y cohesión social donde tenemos un mar de opciones muchas veces limitada por nuestra falta de imaginación producto de una pobre educación en los aspectos mas importantes en esta era virtual. 2. EDUCACIÓN EN LA VIRTUALIDAD Es de especial interés la educación en la virtualidad como herramienta de inclusión social en una era en donde el acceso libre a la información deberá ser visto como uno de los pilares que soportarán el crecimiento de nuestra propia cultura e idiosincrasia Colombiana hacia un mañana mas prospero, mas virtuoso en sus valores y mas consientes de lo que podemos ser si nuestro conocimiento se rige bajo una premisa colectiva y crítica en esa incansable búsqueda del bien común sobre el bien propio. ¿Que pensarían Gutemberg, Marconi o Alexander Graham Bell si aun estuvieran vivos sobre el mundo actual en el que vivimos?, todo lo que somos como especie se lo debemos a personas brillantes que a través de la historia han contribuido con sus increíbles avances tecnológicos, ¿Que seríamos hoy en día si estas personas no hubieran podido imaginar que era posible comunicar nuestras ideas o pensamientos a larga distancia?, o aun mejor ¿Que podrían imaginar ellos ahora al saber que existe un flujo casi infinito de conocimiento y experiencias[2] con tan solo hacer un clic en el mouse de un computador?, los resultados serían mas que asombrosos. Dejando a un lado estas preguntas podemos decir que hoy en día la internet puede considerarse como una de las herramientas supremas de comunicación en nuestra civilización, es la mayor autopista hacia una construcción dinámica del conocimiento que en la actualidad se ha visto opacada en nuestra sociedad por la falta de imaginación y educación para su adecuado uso, una de nuestras posturas mas fuertes sobre dicha hipótesis la hemos vivenciado en la práctica profesional, nuestra juventud hoy en día concibe la internet como un lugar para el entretenimiento y el ocio, limitando el uso de la misma solo al acceso a redes sociales, esto, la mayoría de veces no se hace en busca de criterios comunes para generar cultura o debate
  • critico en torno a temas de interés general sino por el contrario solo buscando una posición superflua en temas populares, temas muchas veces olvidados a los días siguientes, si tan solo un poco de ese tiempo y energía que le dedican la mayoría de nuestros jóvenes lo invirtieran en torno del fortalecimiento educativo y cultural de ellos como individuos estaríamos cada vez mas cerca de una nueva generación mas analítica y propositiva sobre temas de importancia mas global que particular. Cabe resaltar que no todos los jóvenes de nuestro país son los que incurren en estas inadecuadas practicas, todo lo contrario existen también jóvenes muy proactivos, maduros y consientes de su verdadera huella en el mundo que buscan cada vez mas estos espacios virtuales como grandes superficies donde pueden expresar libremente las ideas que tienen sobre su entorno. 3. PROCESOS COMUNICATIVOS Existe una fuerte preocupación que pone a reflexionar sobre lo trivial que en un determinado momento se pueden volver los procesos de comunicación entre los seres humanos, si el uso de la tecnología no ayuda a buscar en su forma una profundidad en la información que a diario consumimos y no propicia la evolución misma de nuestra especie, dicha tecnología podría estar siendo muy mal usada, por que de que nos sirve tener una infraestructura de telecomunicaciones tan superior a la de las demás especies si nuestros mensajes entre emisor y receptor son tan “populares” o “comunes” que la mayoría de veces no trascienden mas allá de un mensaje instantáneo o de una publicación en un muro, de que sirve difamar en la red a los semejantes, hacer de lo no natural un modelo de vida y adoptar estereotipos de lo que no somos solo en la búsqueda de un reconocimiento efímero de un sin numero de personas a las que ni siquiera conocemos físicamente. El éxito futuro del uso de plataformas de comunicación no dependerá de cuanto tiempo estemos conectados compartiendo la vida al mundo entero sino en que momento podremos hacer un alto, nos desconectamos y volvemos un poco a lo esencial al contacto con las personas, a la familia, a buscar interrelaciones duraderas y naturales con nuestros semejantes que expresen otra forma de comunicación cada vez mas distante y disminuida en gran mediada por el uso inadecuado de la tecnología, dicha tecnología a través de la historia nos ha ayudado mucho en nuestro proceso evolutivo pero esta deberá ser considerada como una herramienta de la cual el hombre hace uso para lograr su máxima expresión como ser, no como una herramienta que esclaviza a nuestra civilización por generar dependencia de su uso para fortalecer nuestras actuales y poco duraderas relaciones humanas. Hasta este punto es bajo nuestra libre decisión y educación la que permitirá hacer uso de la tecnología de las comunicaciones para lo que verdaderamente vale la pena, por que de lo que si estamos convencidos es que la forma de comunicación actual perdura hasta que cambiemos totalmente la forma en como actualmente interactuamos, podrían imaginarse en un mundo en donde nuestras comunicaciones fueran telepáticas con las personas que deseemos, dicho mundo seria totalmente distinto al que hoy conocemos, adiós a la telefonía celular y su instantaneidad, la gran red podría estar migrando hacia nuestros propios cerebros unidos en una verdadera conciencia colectiva en armonía con nuestro mundo mas allá de nuestra propia imaginación. Pero para llegar hasta ese futuro prometedor lo mas importante es que los procesos comunicativos sean adecuados y el uso de la tecnología sea el mejor, aprender a comunicar nuestras ideas sin temores o restricciones sin olvidar la premisa mas noble sobre la neutralidad de la red ayudara a garantizar que esta gran autopista llamada internet siga creciendo y evolucionando ayudando en la búsqueda de un mejor entendimiento para nuestra humanidad, internet el gran “Tiranosaurio Rex[3]” es mas grande que los intereses particulares de algún grupo de personas, en lugar de buscar cada vez mas restricciones para el acceso libre a la información se debería fomentar una cultura de respeto hacia la propiedad intelectual de los demás, el miedo y la censura no son procesos sanos que ayudan a fomentar una adecuada comunicación todo lo contrario son técnicas medievales que retrasan e involucionan los aspectos mas relevantes de las sociedades. 4. MEDIOS DISPONIBLES Existen diversas herramientas tecnológicascomo medio para ejecutar procesos educativos, como lo son las aulas inteligentes, videoconferencias, aulas virtuales bajo internet, entre ellos se desatacan aquellos que desde hace algunos años dejaron de ser solo equipos de consumo masivo domestico y de entretenimiento como lo son los dispositivos móviles (Teléfonos móviles, PDA, tablets, PC portátiles, entre otros) y la televisión. En este escrito se quiere presentar algunos avances logrados con el trabajo en el desarrollo de aplicaciones para Televisión Digital Terrestre y el efecto que genera como medio disponible en la sociedad actual dentro de las tecnologías educativas emergentes. La Televisión Digital Terrestre surge como un medio para potenciar la interactividad entre todos los usuarios y como
  • escenario educativo dinamiza la form formación desde la virtualidad y la pre esta razón se quiere hacer énfasis en es tiene diversas ventajas desde los so económico y educacional. Plataformas con énfasis en Televisión D En la Corporación Universitaria Repu trabajando en la i mentaria totalmente virtual, flexible y para los actores del conocimiento dentro d Este trabajo es una estrategia de aprovec medios disponibles emergentes en nuestr fuente (Los Docentes) Con lo anterior se ev potencializar la competitividad de cada un en la manera tanto como nos comuni donde nos informamos y que ap obtener con ayuda de la internet. , dich ma de impartir esencialidad; por ste medio ya que ocial, ambiental, Digital Terrestre ublicana se esta - multiplataforma de la misma. chamiento de los ro país, en donde una sola . no de ellos, e camos como en otras tecnolo . Es en tal punto que el proyect Universitaria Republicana a emergentes. El alcance de este proyecto es Learning, el d o gital Terrestre p web bajo el concepto de clo en la nube) para e-Learning. Como se puede ver en la despliegue, todo comienza de Republicana actualmente y d este modelo en otras institucio Los estudiante aplicaciones, estructurarlas en el impacto social al proy aula. Figura 1.Esquema general d Posteriormente se observa en la alianza entre el gran co ondiente convergencia entre to en desarrollo nivel mundial en temas de sobre medios tecnológicos sta dado por el d - para t-Learning y el d oud computing figura 1 en el esquema de esde las estaciones y deser posible poder replicar ones. yecto que trabaja dentro del de despliegue del aplicativo onsorcio de canales privados,
  • ellos prestaran la infraestructura de telecomunicación necesaria para el despliegue de la aplicación de tal forma que pueda ser distribuida óptimamente bajo el estándar Europeo de televisión digital aprobado por Colombia denominado DVB-T (Digital Video Broadcasting Terrestrial). Posteriormente toda esa nueva información estará ya lista para ser recibida por nuestros usuarios finales ya sea en televisores convencionales, en dispositivos móviles o propiamente en la web; en esta etapa el usuario interactuara con algún tipo de terminal llámese Celular, Portátil, PC, Televisor con STB (Set Top Box) o televisor con receptor integrado de tal forma que el contenido pueda ser visualizado en cualquier dispositivo bajo cualquier pantalla. Posteriormente el usuario podrá hacer uso de un canal de retorno que dicho dispositivos ponga a su consideración según sea el caso, el usuario podrá usar la red 3G o wi-fi para el caso de los dispositivos móviles, la red de internet para el caso de las aplicaciones web o por medio de protocolos TCP/IP con ayuda de un modem alojado en el interior del STB (Set Top Box). Como se puede ver se está buscando es una convergencia entre el software de los aplicativos en los múltiples dispositivos, dicho proceso lo he llamado convergencia total multiplataforma ya que este aplicativo podrá convivir en múltiples dispositivos hardware garantizando una mayor penetración y comunicación entre aplicativos, dispositivos y usuarios. Es evidente que las forma como nos comunicamos ha cambiado y los medias lo han hecho también, esta aplicación comenzara a fortalecer el canal de comunicación e información con nuestra comunidad educativa fortaleciendo el uso de los teléfonos celulares inteligentes, las tabletas y una nueva tecnología emergente y en posicionamiento en el mundo que es la televisión digital. Por otro lado existirán los proveedores de infraestructura en telecomunicaciones que permitirá la distribución de dicha aplicación hacia los usuarios finales, dichos proveedores de la nueva red digital podrán ser públicos o privados, manejaran posibilidades de acceso gratuito o por pago según sea el caso y permitirán llegar a la mayor cantidad de usuarios y dispositivos que les sea posible. Todo el contenido de las aplicaciones estarán presentes en múltiples plataformas y para múltiples dispositivos como (iPod, iPad, iPhone, computadores personales, Smartphone, televisores, etc…) listos para que los usuarios finales puedan acceder a toda esta información y se pueda lograr un buen uso de las tecnologías emergentes desde el enfoque educacional. 5. CONCLUSIONES Para finalizar dos grandes conclusiones quedan por resaltar, primero, la importancia de una educación de calidad en todos los campos del saber humano debe ser la premisa mas importante para el pleno desarrollo de una sociedad, es un tema que redunda el día de hoy pero es un tema que nunca nadie realmente ha vigilado y defendido adecuadamente dentro de los intereses de una educación verdaderamente participativa, objetiva e investigativa en donde se privilegie la calidad antes que la cantidad, lo anterior es uno de los retos mas importantes en donde las TICs podrán hacer su gran aporte como herramienta de comunicación valida y verdadera hacia la inclusión, disminución de la brecha digital y evolución social; segundo, el acceso libre a la información deberá ser un derecho universal invulnerable para los seres humanos, esto no solo deberá quedar plasmado en un papel sino deberá ser demostrado con hechos concretos que vayan en común acuerdo con el desarrollo de lo social, privilegiando la pluralidad y la participación en los distintos medios de comunicación que construyen la información a diario. 6. REFERENCIAS [1]Prometeus – La Revolución de los medios, CasaleggioAssociati, 6 Junio 2007, Dirección web: http://www.youtube.com/watch?v=aD4XtZqJu-U, Palabras Claves: prometeus, future of media e-ink, electronicpaper, lessig, Casaleggio, memoryselling. [2] Prometeus – The Media Revolutiónpart 2, Jorge Fax Boy, 19 Junio 2007, Dirección web: http://www.youtube.com/watch?v=PY5hBd8_Q- E&feature=related Palabras Claves: Prometeuspart 2, media revolution, future 2015, future 2050. [3] La red gran Tiranosaurio Rex – Prometeus, la revolución de los medios. Disponible en: http://www.youtube.com/watch?v=aD4XtZqJu-U [4] La importancia de las comunicaciones a través de las redes sociales para los jóvenes en Egipto, Todomktpolitico, 12 Febrero 2011, Dirección web http://www.youtube.com/watch?v=czWjAyk-URQ, Palabras Claves: importancia, comunicación, redes sociales, twitter, Facebook, democracia, censura, Mubarak, noticias, política, poder, gobierno.
  • [5] Las redes sociales y los jóvenes, Telexterior, 29 Noviembre 2009, Dirección webhttp://www.youtube.com/watch?v=yHs14YSSAm0&f eature=related, Palabras Claves: redes sociales, tuenti, Facebook, hi5, jóvenes españoles, nuevas tecnologías, cext. [6] La cara oculta de Facebook, Juliethte, 8 Febrero 2009, Dirección webhttp://www.youtube.com/watch?v=xzTgIdNW6lg&fe ature=related, Palabras Claves: Facebook, falso documental. [7] ¿Por que Facebook no triunfa en China?, efe, 25 Febrero 2009, Dirección webhttp://www.youtube.com/watch?v=raYo0eFAE88&fe ature=related, Palabras Claves: efe, nacional, redes, internet, Facebook, china, internautas. [8] Evolución Histórica de las Comunicaciones, R.Estepa, Diciembre de 2004, Dirección webhttp://trajano.us.es/~rafa/ARSS/apuntes/tema1.pdf, Palabras Claves: Historia, Comunicaciones, Evolución, R.Estepa. [9] Historia de la Comunicaciones, Gigiomez, 15 Noviembre 2007, Dirección webhttp://www.youtube.com/watch?v=aFBNPBzC4Wk, Palabras Claves: Gigio Producciones, UNJBG, ESCC, Comunicaciones. [10] Historia de las Comunicaciones parte 1 y 2, maib12, 20 Septiembre 2009, Dirección webhttp://www.youtube.com/watch?v=pz_NOJi-KWk y http://www.youtube.com/watch?v=EeSFWNsWKWM, Palabras Claves: Historia de las comunicaciones parte 1, historia de las comunicaciones parte 2, maib12. [11] La historia de internet en 8 minutos, voolive, 20 Abril 2009, Dirección webhttp://www.youtube.com/watch?v=YPc3ghd8Kas&fe ature=fvwrel, Palabras Claves: Historia de internet, internet, red, ordenadores, arpanet. [12] La polémica ‘Ley Lleras’, Santiago La Rotta – Columnista diario el espectador, sección vivir del 8 Abril 2001, Dirección web http://www.elespectador.com/impreso/vivir/articulo- 261793-polemica-ley-lleras, Palabras Claves: Ley lleras, diario el espectador, Santiago La Rotta, derechos de autor en internet. [13] La libertad en internet hoy, WIFIClub, 6 Junio 2011, Dirección Webhttp://www.wificlub.org/tag/neutralidad- en-la-red/, Palabras Claves: Neutralidad de la red, WIFIClub. [14] Mecanismos internacionales para la promoción de la libertad de expresión, OSCE – Organización para la seguridad y cooperación en Europa, 1 Junio 2011, Dirección webhttp://www.osce.org/ y http://www.osce.org/es/fom/78325, Palabras Claves: Declaración conjunta sobre la libertad de expresión, OSCE, neutralidad de red, filtrado y bloqueo, Acceso a internet. [15]Retos de la relación TIC y cultura, Julián Wilches, 22 Septiembre 2010, Dirección webhttp://colombiadigital.net/b2e/blogs/index.php/2010/0 9/22/retos-de-la-relacion-tic-y-cultura?blog=6#feedbacks, Palabras Claves: TICs, cultura, educación para el uso de las TIC, globalización y perdidas de las características locales, los derechos de autor. 7. CONTACTO José Alejandro Franco Calderón, Ingeniero Electrónico, Especialista en diseño de aplicaciones para Televisión Digital terrestre. Estudios de especialización en administración de tecnologías de la información para la comunicación virtual. Docente Investigador. Grupo de investigación y desarrollo de Ingeniería de Sistemas (GIDIS) de la Corporación Universitaria Republicana. Evelyn Garnica Estrada, Ingeniera de diseño y automatización electrónica. Estudios de especialización en planeación, desarrollo y administración en la investigación. Docente Investigadora. Grupo de investigación y desarrollo de Ingeniería de Sistemas (GIDIS) de la Corporación Universitaria Republicana. 1 Correspondencia: alejing@urepublicana.edu.co 2 Correspondencia: egarnicae@urepublicana.edu.co
  • FORMACIÓN DEL DOCENTE EN CONTEXTOS B-LEARNING: IMPLICACIONES TECNOLÓGICAS, INVESTIGATIVAS Y HUMNISTICAS Karolina González Guerrero, José Eduardo Padilla Beltrán, Diego Armando Rincón Caballero Facultad de Educación y humanidades, Universidad Militar Nueva Granada, Bogotá, Colombia Resumen El impacto de las tecnologías informáticas y comunicativas ha hecho que el docente transforme su condición, ávido de aspectos formativos necesarios para entender las implicaciones de estas tecnologías en el contexto educativo, al establecer una postura crítica frente al uso de estas herramientas en contextos denominados b-learning. El trabajo se inscribe en una investigación de tipo descriptiva de corte mixto, teniendo como soporte la teoría fundamentada basada en una revisión documental y el empleo de métodos como la triangulación de datos, con el fin de correlacionar encuestas y pruebas likert. Como resultado, se esboza una propuesta de formación docente orientada al desarrollo de competencias y elementos conceptuales para abordar la modalidad b-learning en educación superior. Parte de las conclusiones hacen mención de una formación docente con un fundamento conceptual, contextual y gubernamental para que el docente adquiera participación con efecto de entender las necesidades particulares de su praxis. Palabras claves: Competencias del docente, Formación docente, formación en b-learning, investigación docente, uso de TIC. 1 INTRODUCCIÓN En el proceso formativo del docente intervienen significativamente aspectos que afectan el desempeño profesional prospectivo del educador. En primera instancia, se evidencia claramente el marco normativo y legal que reglamenta la jurisprudencia a través de la Constitución Política de 1991; las leyes (Ley 115 de 1994 y Ley 30 de 1992), los decretos (Decreto 272, Decreto 0709, entre otros) y las resoluciones que establecen las orientaciones oportunas sobre la formación docente. Las concepciones de sociedad de la información, la sociedad del conocimiento, el uso pedagógico de las tecnologías de la información y la comunicación, desencadenan el establecimiento de procesos formativos y el cambio paradigmático de la educación superior, centrándose en aspectos metacognitivos, autoformativos y transdisciplinarios (Organización de las Naciones Unidas para la Educación , la Ciencia y la Cultura [UNESCO], 2004). Algunas tendencias de la formación docente que se contrastan en el presente estudio, demarcan desarrollos evolutivos, cognitivos, humanistas y praxeológicos (Arias y Rojas, 2001), retos y desafíos para afrontar en la formación docente en la medida que su labor trascienda el transmisionismo y el escenario institucional (Aguarre- dondo y Bralavsky, 2003), a través de perfiles formativos propios de las necesidades nacionales como lo plantea en su estudiosLa Asociación Colombiana de Facultades de Educación[ASCOFADE] (2006), Torres y Torres (2002) y la Universidad Nacional de Colombia (2008) para comprender el fenómeno de la acción pedagógica y didáctica del maestro en épocas contemporáneas, sopesadas por el artilugio tecnológico y el rompimiento de paradigmas en pro de la cimentación de la calidad educativa. Es importante entonces reconocer la formación del docente encaminada al reconocimiento del contexto, los lineamientos políticos y aspectos relacionados con su desempeño y las habilidades que fundamenta en el uso de Tecnologías educativas para afrontar los retos de la praxis, en ese orden de ideas, el presente estudio trata de establecer unos componentes históricos, conceptuales y legales acerca de la formación docente, llegando luego a entablar una propuesta de formación vinculada a instancias, ejes temáticos y perfiles que puede asumir el docente a manera de competencias o ámbitos de desempeño en la educación superior que articula modelos b-learning.
  • 2 MARCO TEORICO 2.1 Antecedentes generales de la Formación docente apoyada en TIC Al reseñar la formación docente desde la perspectiva e inclusión de las Tecnologías de la Información y la Comunicación [TIC], se hace necesario indagar y reflexionar sobre los aspectos que han dado cabida al planteamiento de una prioritaria formación del docente en estos contextos, a través de la premisa de la innovación y la contribución de las tecnologías en el escenario educativo. Uno de estos acontecimientos es remontado al surgimiento de la máquina de enseñar, es así como Levis (2008) plantea que: La aspiración de crear una “máquina de enseñar” es secular. Las primeras patentes de máquinas de este tipo son de principios del siglo XIX. A comienzos de la década de 1920 el psicólogo norteamericano Sidney Pressey creó una máquina de enseñar y estableció los primeros principios para la enseñanza programada (p.2). Considerar laico el uso de las máquinas de enseñar en ese entonces, lleva a entender que hoy en día se ha transformado en toda una cosmovisión del docente virtual o a distancia, el cual hace uso de las tecnologías informáticas para llegara a muchos de sus estudiantes. No obstante, la fundamentación de éste uso puede atribuirse a los desarrollos instruccionales efectuados por el Psicólogo B.F. Skinner en los principios de la enseñanza programada hacia mediados del siglo XX (Levis, 2008) quien desde sus aportes abrió un conjunto de posibilidades hacia la programación de contenidos en términos de analizar las conductas del ser y los procesos para aprender, por lo tanto, ante está condición se fueron reformando los marcos teórico-conceptuales de la formación referente a las mediaciones virtuales o tecnológicas, en las que actualmente se puede denotar el impacto de los enfoques del proceso pedagógico orientado a la enseñanza- aprendizaje. El incremento de estos referentes virtuales, multimediales y tecnológicos vislumbraron nuevas formas de concebir la acción del docente en la escuela, la UNESCO (2004) en su libro de “Las Tecnologías de la Información y la comunicación en la Formación docente” amplía los fenómenos emergentes para el creciente flujo de inclusión del docente a estos modelos y medios tecnológicos, entre ellos, un factor clave sería la globalización y la acelerada marcha de información a la que se expone la sociedad a través de diversos medios auspiciados por los canales y medios inteligibles dispuestos por los avances tecnológicos. En ese orden de ideas, también se declara la importancia de la formación docente en términos de capacitación y formación a distancia (UNESCO, 2004) teniendo claros unos objetivos y metas de acuerdo a las necesidades de la comunidad académica, sin embargo la afirmación de Levis (2008) ante este hecho reluce por el negativismo u obstáculos culturales que puedan tener los docente al mostrar indiferencia por este tipo de formaciones, por lo tanto Levis (2008) citando a Oppenheimer (1997) establece que: El ciclo comienza con las grandes promesas realizadas por los desarrolladores de tecnología. Sin embargo, en el aula los docentes nunca adhieren realmente a las nuevas herramientas y no se produce ninguna mejora académica significativa. (..) Mientras tanto pocas personas cuestionan las demandas de los partidarios de las tecnologías. (p.3) Esta posición que data de finales del siglo pasado ha venido transformándose, al centrarse ahora en diálogos de alfabetización, estructurando discusiones que trascienden la realidad textual y las maneras de acercarse al aprendizaje virtual tanto del docente, el estudiante y la sociedad, para comprender las implicaciones de una tecnología ubicua que no está ajena al contexto educativo y el crecimiento de sus alcances para comunicar, informar y sobre todo indagar por la realidad y la significancia adquirida en épocas contemporáneas. 2.2 Marco legal de la formación docente en Colombia Lo formación docente ha sido fundada a partir de una serie de leyes y decretos expuestos por el Ministerio de Educación Nacional desde la Ley General de Educación (Ley 115 de 1994) y la Ley de Educación Superior (Ley 30 de 1992), en los que diversos artículos y parágrafos hacen mención de la formación docente como un requisito recurrente en el desempeño profesional que no solo concierne al docente sino que integra la participación de las instituciones y diversos organismos en el sector educativo que deben apoyar esta labor. Uno de estos Decretos el 272, establece la creación de programas para la formación académica en pregrado y posgrado de docentes, estableciendo una serie de condiciones para el crecimiento profesional, así pues, el Decreto 0709 es más especifico al describir una serie de lineamientos para la formación de educadores desde programas de desarrollo acorde a un reglamento para el ascenso profesional. Con respecto a la calidad educativa del país, puede mencionarse a través del Decreto 2566 del 2003 que indica en uno de sus parágrafos: “Por el cual se instituyen las condiciones básicas de calidad y demás requisitos
  • para el ofrecimiento y desarrollo de programas académicos de educación superior y se dictaminan otras disposiciones” la importancia del componente investigativo para la adquisición del registro calificado, en tanto es imprescindible la formación pedagógica y disciplinar del docente, aspectos que también reúnen a los centros de investigación, facultades y departamentos educativos en cada una de las institución de educación superior. La resolución 1036 del 2004 que enmarca la carac- terización de calidad en los programas de especialización en educación, con base a la investigación, pedagogía, didáctica declara en el artículo 2º, la obligación social de la formación del docente en nuevos enfoques pedagógicos y didácticos, susceptibles de abordar problemáticas de la cotidianidad e infundir prácticas formativas arraigadas a la condición social del contexto. 2.3 Concepto y caracterización de la formación docente La formación del docente puede entenderse como un sistema de perfeccionamiento con un margen de continuidad, que trata de establecer unos parámetros para el desempeño y la práctica docente en correspondencia a las exigencias de calidad, representadas por la comunidad e institución educativa que le acoge. Consecuentemente, estas actividades de superación y mejoramiento del ejercicio pedagógico, deberán ser reguladas por una serie de estándares exigidos en un marco legal y unos consensos de calidad de acuerdo a las necesidades particulares del contexto, pero esta definición pareciese simple sin entender que las universidades y todo el organismo regulador de la educación, poseen una participación en el hecho de establecer planes y proyectos formativos destinados a la formación del docente en varios ámbitos, en ese sentido, la complejidad de la formación docente rebasa los factores interdisciplinarios y centra su atención en una perspectiva integral. Caracterizando la formación inicial se puede ejemplificar a partir de lo descrito por la UNESCO (2006) en el estudio de casos reseñado en el libro “Modelos Innovadores en la Formación Inicial del Docente” sobre las implicaciones de una formación inicial sustentada en las experiencias del mismo docente universitario y el panorama que vislumbra el país de acuerdo a las innovaciones, es así como se puede referenciar las experiencias de la Universidad Nacional de General Sarmiento en Argentina, la Formación inicial de profesores en Minas Gerais de Brasil, el caso de la Formación inicial de educadores de la Universidad ARCIS en Chile y la Licenciatura en Pedagogía Infantil de la Universidad Pedagógica Nacional en Colombia, cada uno de estos modelos están apoyados en fundamentos de modelos innovadores aplicados en países como Alemania, España y Holanda en los que se ha tenido en cuenta la formación Inicial del docente sobre retos y prospectivas, enlazando aspectos como las competencias curriculares, el manejo de TIC y valorando el componente teórico práctico del desempeño profesional del educador. 2.4 Concepción y formación del docente en torno al b- learning. Se puede entender el b-learning como un tipo de formación de orden mixta que converge en la conjunción de la modalidad presencial, vista además como una enseñanza tradicional y, las acciones o mediaciones apoyadas por TIC en tanto recursos como: plataformas virtuales, herramientas o software que contribuyen en el proceso educativo. De igual forma, se puede presentar el b-learning a partir de la inclusión de aspectos de la enseñanza presencial como rubro al componente virtual o a distancia donde ambas se complementan, trabajando lo mejor de cada uno de los dos espacios. Guarneros, Silva y Pérez (2009) describe el b-learning como: Los sistemas educativos mixtos y en línea es una modalidad de enseñanza y aprendizaje en donde convergen la educación presencial y la educación a distancia que en la literatura anglosajona se identifican con los términos de blended-learning (blearning) y electroniclearning (elearning), respectivamente. Los términos provienen de la psicología educativa, el vocablo “aprendizaje” se usa para contraponerlo con el de “enseñanza” con la finalidad de enfatizar el acento en el estudiante y que la enseñanza se centre en el alumno (Bartolomé, 2004). El término blearning se usa también para denotar una combinación de modalidades instruccionales o la distribución de los aprendizajes a través de distintos medios […] (p.18) La formación del docente en estos espacio o modalidades b-learning convergen con la concepción de tutor, la cual sigue siendo ambigua en determinados aspectos o contextos de la educación superior, quizá este factor impreciso también es debido de cierta manera al caso contrario, en el que el tutor es una figura dependiente de las decisiones o medidas que toma el docente, es decir se convierte en un auxiliar del proceso pedagógico. Éste supuesto implica en principio, una fundamentación del docente en aspectos conceptuales característicos del tutor y el desempeño que adquiere en la modalidad b-learning, que surge desde las nuevas orientaciones educativas con énfasis en el uso de las TIC como apoyos en el medio de formación superior.
  • 3 MÉTODOLOGIA DE LA INVESTIGACIÓN El estudio está sustentado en un enfoque mixto el cual combina ciertos procesos de la orientación cualitativo y cuantitativo, teniendo así un diseño más preciso y abordando dinamismo a las etapas de la investigación (Sampieri, Fernández y Baptista, 2003). Para tal efecto, se adopta un modelo cualitativo. Particularmente, el ejercicio investigativo está centrado en la clasificación, valoración conceptual y la búsqueda de nuevas categorías de análisis para la comprensión del fenómeno de una manera general, por lo tanto se recurre a la Teoría fundamentada (Strauss y Corbin, 2002). 4 RESULTADOS A partir de los aspectos metodológicos y teóricos relacionados en este estudio, se ilustra una propuesta de formación docente en contextos b-learning, acogiendo tanto aspectos temáticos y tipos de formación que pueden ser optados como una propuesta de formación para el desarrollo de competencias en el uso de tecnologías, medios y estrategias necesarias para interactuar en los modelos mixtos de formación (Virtual y Presencial), par lo tanto, a continuación se exhibe de manera gráfica la representación de esta proposición: Gráfico 1. Propuesta de formación de docentes para el desarrollo de competencias en el manejo de ambientes b-learning. Cada tipo de formación se desglosa una serie de temática que contribuye a la formación del docente con el fin de especializar y fundamentar desarrollos tanto tecnológicos, prácticos, conceptuales y metodológicos referentes al b- learning. Para dar mayor claridad sobre cada aspecto del gráfico se describe cada componente de manera específica. 4.1 Formación en el uso de las TIC para la educación mediante la modalidad b-learning El uso del as TIC converge en la articulación de aspectos conceptuales y prácticos de orden tecnológico y técnico, para llevar a cabo ésta formación en el docente universitario como alude González (2007) es imprescindible una formación inicial, fundamentada y propiciadora de espacios para el debate y el dialogo acerca del impacto de estas tecnologías en el sector educativo. La integración de herramientas y metodologías innovadoras en esta etapa de formación hacen que el docente adquiera competencias para el desarrollo de diseños curriculares sustentados en procesos informáticos y comunicativos de orden deductivo e inductivo según las necesidades del propio contexto. 4.2 Formación del docente para el diseño instruccional Esta etapa de formación continua lleva al docente a perfeccionar su desempeño en el diseño de actividades y el seguimiento que pueda ejercer para dar retroalimentación al proceso, bien sea en espacios presenciales o virtuales. El diseño instruccional enmarca además de actividades, el diseño de materiales didácticos, el manejo de las propiedades en tiempos sincrónicos o asincrónicos, la actualización de contenidos, la estructuración de temáticas acordes a la disciplina, la mediación tecnológica de los hipertextos, la vinculación de estrategias de búsqueda de información y otras acciones de orden planificador que deben ser trabajadas de manera interdisciplinar con otros profesionales interventores en el diseño de la plataforma y de los contenidos del área. En esa medida, el reto del docente en esta formación será mezclar los conceptos y estrategias pertinentes de cada instancia bien sea presencial o virtual para entablar una relación acorde a la facilitación del aprendizaje. 4.3 Formación en comunicación para el docente en ambientes b-learning La formación docente en cuanto a comunicación está encaminada a dar herramientas para la comunicación asertiva e inducir una labor de facilitador de dinámicas de interacción con los estudiantes y demás profesores, puesto que se necesita de cierta habilidad y experticia para lograr canales comunicativos y aprovechar las herramientas y usos de las TIC en veras de retroalimentar al grupo en formación, por lo tanto, cuando se genera el desarrollo de estrategias para el seguimiento e interrelación con el estudiante no solo en el plano académico, puede brindar un apoyo en el alcance de metas personal y conocer su debilidades y fortalezas con mayor certeza a través de medios alternos como redes sociales, micromundos
  • interactivos y demás experiencias que pueden ser atraídas como recursos de participación activa (Gros y Silva, 2005). 4.4 Formación del docente para la evaluación de los aprendizajes Los programas de formación docente podrán vincular aspectos como “evaluación (conceptos, procedimientos e instrumentos), basada en competencias, con métodos distintos en pruebas de conocimiento a través de herramientas y métodos: portafolio, wikis, plataformas de trabajo colaborativo (BSCW) y LMS”. (Zapata, 2010, p.28). Substancialmente, el docente deberá recibir una formación centrada en la selección y evaluación de diseños instruccionales para ser partícipe de las renovaciones acordes a los resultados de la evaluación, que a la vez se traduce en metaevaluación de los procesos formativos con base en el criterio de eficiencia del diseño de los medios empleados por el formador. En imprescindible que en los docentes se desarrolle “destrezas suficientes no sólo para la utilización y diseñó de los medios, sino para su selección y evaluación” (Méndez et al., 2007, p.42) lo cual haría posible el surgimiento de un docente crítico y reflexivo al servicio de la educación desde ambientes b-learning. 4.5 Formación en aspectos Técnicos Los aspectos técnicos a diferencia de los elementos tecnológicos en el campo del b-learning, presentan las capacidades y habilidades que tiene el docente para el manejo de software y hardware necesario para el apoyo a través de plataformas y prototipos útiles en el aprendizaje, algunos de estos conocimientos son adquiridos por el docente de manera empírica (Padilla et al., 2008), debido al interés y la necesidad de aprender el manejo de plataformas como Moodle y Blackboard , poniendo en consideración la efectividad del aprendizaje autónomo para dicho fin. (Padilla et al., 2011). 4.6 Hacia la formación de aspectos de autonomía y humanismo en el docente El despliegue científico y la avasallante producción de conocimiento es parte de la sociedad de la información que actualmente se evidencia, la composición de saberes y el debate de las ideas en escalas globales para su aceptación, hacen que la sociedad y en primera instancia el sujeto se adapte a los cambios paulatinos de esta marcha de información, a la par en el presente siglo a través de múltiples estudios, surge la reflexión en torno a la formación con miras a desarrollo humanístico. 4.7 Formación de la dimensión Investigativa en el Docente. Actualmente al docente de educación superior se le valora su experiencia investigativa, medida en el número de proyectos, publicaciones, patentes, invenciones o aportes a la comunidad, sin embargo, la educación superior aún posee ciertas falencias en cuanto a la necesidad que hay sobre ciertos procesos de sistematización de experiencias de la enseñanza y el análisis profundo de problemáticas en el contexto de acuerdo a fenómenos sociales, políticos y económicos. Stenhouse (1991) afirma que la investigación y el desarrollo del conocimiento deben corresponder al profesor en ejercicio de la aplicación investigativa, de otro lado, Aguerrondo & Bralavsky (2003) aluden que la formación del docente debe estar fundada en tres factores: la formación inical, formación continua y la Investigación, aunque hayan dificultades en el presente siglo, los aspectos de la investigación adquieren mayor fuerza en la docencia, reflexionando sobre la importancia que posee y el impacto directo sobre la comunidad e institución educativa. 4.7.1 Alternativas de Investigación en la Formación Docente La investigación formativa como proceso de formación inicial viene dada desde los vestigios de las Ciencias Sociales, habiendo diversas orientaciones y metodologías como la cuantitativa, cualitativa y mixta, de acuerdo a las perspectivas sobre las que se desea formar al docente, el cometido principal será dar bases para el crecimiento en el campo investigativo, demostrando que este campo es fuente primaria de producción académica y de renovación conceptual. En la modalidad b-learning es necesario el principio de la investigación, a medida que se trasciende en este aspecto se van abatiendo modelos tradicionalistas, se quebrantan paradigmas y surgen nuevas comunidades científicas que avalan desarrollos cambiantes de la historia. El docente es participe y gran protagonista de este acontecer por ende: “los nuevos tipos de investigaciones y de diseños metodológicos cualitativos aplicados en investigaciones sociales y educativas, se apartan de las formas tradicionales de investigación en cuanto se refiere al uso preferente o predominante de información cualitativa” (Lafrancesco, 2003, p. 84). 4.8 Hacia una formación docente orientada a las tecnologías Los resultados de una educación basada en recursos tecnológicos, más que la efectividad en el soporte tecnológico y en las innovaciones propias de este campo,
  • es la capacidad que posee el docente para afrontar dichas transformaciones adaptándolas o haciendo un uso eficaz en torno al desarrollo del aprendizaje. En esa medida, la institución educativa de orden superior deberá formar tanto administrativos, funcionarios y docentes para “[...] ser capaces de usar las TIC para la enseñanza, lo cual implica diseñar, y producir cursos y materiales que puedan ser dictados mediante dichas tecnologías, en modalidades presénciales, mixtas y a distancia.” (Dorrego, 2004, p.127), estas formaciones deben ser planificadas y justificadas en la medida que su finalidad no contemple requisitos ni medidas exigidas, sino una construcción de escenarios para la calidad y el mejoramiento de los referentes académicos. 4.9 Formación Pedagógica del docente en ambientes b- learning El docente puede decir que ya todo está dicho con base en lo enfoques pedagógicos, el fundamento, la relación histórico-social y los planteamientos que persigue cada orientación relacionada en las ciencias de la educación, sin embargo, es fundamental que el docente inmerso en modalidades b-learning, comprenda la complejidad y convergencia pedagógica evidente en estos espacios formativos, no solo se trata de un manejo de plataformas virtuales ni de asesorías, es un ambiente de aprendizaje lo que hay que formar, lo operativo pasa a segundo plano cuando el fundamento conceptual de la educación juega el papel primordial para dar un orden claro a lo que se pretende enseñar (Padilla Montoya & Páez, 2008). 5 CONCLUSIONES A pesar de los esfuerzos establecidos por el gobierno y las instituciones educativas en la formación del docente hacia el desarrollo de habilidades para el uso de las TIC, persisten múltiples falencias en el proceso, entre ellas, el referente de alejamiento o contraposición que los docentes crean ante los escenarios b-learning o el conocimiento de estrategias, herramientas o componentes necesario para introducir apoyos virtuales a su quehacer profesional. Sin embargo, en la marcha de las acciones estatales y el interés de diversos organismos como Colciencias, ASCOFADE y las facultades de educación superior, se ha venido transformando dicha situación de marginalidad, tratando de establecer nuevos lineamientos formativos con mayor énfasis en los contextos e intereses del Educador. La formación docente se reconoce como un factor primordial para mejorar la calidad educativa, asumir por parte del docente una formación inicial y continua propende el desarrollo de habilidades y competencias necesarias para afrontar los cambios mediáticos emergentes en la sociedad. No obstante, a manera de reflexión es importante tener en cuenta una revisión epistémica y conceptual de los lineamientos disciplinarios, pedagógicos y didácticos que permitan otorgar un sentido crítico e inherente a la experiencia del docente en su trayectoria como educador y persona con la gran misión de una transformación social. La propuesta formativa del docente universitario en contextos b-learning, propende por el desarrollo integral del docente, a través de elementos que tangencialmente o de manera directa impactan en su vocación, por consiguiente, un docente capacitado en aspectos técnicos y temas de actualidad no es suficiente, los énfasis y unidades temáticas deben ser contrastadas de forma inductora y progresiva por factores cambiantes en los enfoques pedagógicos y didácticos, mostrando otras visiones de la realidad y generando conexiones sobre aspectos culturales, sociales, políticos y en gran magnitud de orden social, por esta razón, los ambientes combinados enfatizan en condiciones de autonomía, metacognición, de respeto a los estilos de aprendizaje y sobre todo se orienta en los lindes de las facilidades que ofrece el paradigma comunicativo en instancia de apoyar las reformas educativas que se plantean en el devenir social. 6 BIBLIOGRAFÍA [1] Aguerrondo, I., & Braslavsky, C. (2003). Escuelas del futuro en sistemas educativos del futuro. ¿Qué Formación docente se requiere?. Argentina: Papers Editores. [2] Arias, N. y Rojas, D. (1998). Modelo de Formación del Docente en América Latina. En: V symposium Interncional sobre Practicum Ponencia: Libro:V symposium internacional sobre prácticum, Universidad de Vigo. Universidad Santiago de Compostela, 52 – 56. [3] ASCOFADE. (2006). II congreso Nacional, Profesión Docente “Estado actual y proyecciones”. Santa Marta 17, 18 y 19 de mayo. [4] Dorrego, E. (2004). Nuevas Tecnologías y Educación. Capitulo 13. Madrid: Pearson. [5] González, J. (2007). Blended learning, un modelo pertinente para la educación superior en la sociedad del conocimiento. Revista virtual EDUCA. Brasil. Universidad Autónoma de Tamaulipa. [6] Gros, B. y Silva, J. (2005). La Formación del Profesorado como docente en los espacios virtuales de aprendizaje. Revista Iberoamericana de Educación, 36 (1), 1-14. [7] Guarneros, E., Silva, A., & Pérez, C. (2009). La Innovación Educativa y Tecnológica en la
  • Educación Superior de México, una empresa pendiente. Ponencia virtual en México. [8] Lafrancesco, G. (2003). La investigación en educación y pedagogía. Bogotá: Delfín. [9] Levis, S. (2008). Formación docente en TIC ¿el huevo o la gallina?. Revista Razón y Palabra, 63. [10]Ley General de Educación. (1994). Ley115, Titulo VI, Los mandatos referidos a los educadores. Colombia. [11]Decreto 2566 (2003). “Por el cual se establecen la condiciones mínimas de calidad y demás requisitos para el ofrecimiento y desarrollo de programas académicos de educación superior y se dictan otras disposiciones”, 10 septiembre de 2003. Colombia. [12]Ley 30, (1992). Por la cual se organiza el servicio público en la Educación superior. Colombia. [13]Méndez, A., Rivas, A. & Del Toro, M. (2007). Entornos virtuales de Enseñanza Aprendizaje. Ministerio de Educación Superior Editorial Universitaria: Centro Universitario de Las Tunas. [14]Padilla, J., Montoya, D. y Páez, C. (2008). Creencias de los Docentes acerca del uso de las tecnologías de Información y Comunicación. Revista Educación y Desarrollo Social, 2 (2), 45- 57. [15]Padilla, J. E., García, L. y González, M. (2011). Fundamentos de pedagogía contemporánea para la educación a distancia y virtual. Bogotá: Universidad Militar Nueva Granada. [16]Sampieri, R., Fernández, C y Baptista, P. (2003). Metodología de la Investigación. México D.F.: McGraw-Hill. [17]Stenhouse, L. (1991). Investigación y desarrollo del curriculum (Tercera Edición). Editorial Morata. [18]Strauss, A. y Corbin, J. (2002). Bases de la investigación cualitativa. Técnicas y procedimien tos para desarrollar la teoría fundamentada(2a. ed.). Bogotá: Universidad de Antioquia. [19]Torres Mesías A. y Torres Vega N. (2002). La investigación formativa en los programas de formación de licenciados en la facultad de educación de la universidad de Nariño. Memorias II Congreso Nacional, Profesión Docente: Estado Actual Y Proyecciones. Ascofade, pp. 399 – 420. [20]UNESCO. (2006). Modelos Innovadores en la Formación Inicial del Docente. Chile: Andros Impresores. [21]UNESCO. (2004). Las tecnologías de la información y la comunicación en la formación docente. Montevideo: Ediciones Trilce. [22]Universidad Nacional de Colombia. (2008). Declaración de Bolonia. Unimedios, 19, 1-12. [23]Zapata, M. (2010). Evaluación de competencias en entornos virtuales de aprendizaje y docencia universitaria. Revista de Educación a Distancia, Docencia Universitaria en la Sociedad del Conocimiento, vol. 1.
  • INGENIERÍA INDUSTRIAL
  • IMPACTO EXPLORATORIO EN LA IMPLEMENTACION DE SISTEMAS DE CALIDAD Y AMBIENTAL EN LA GESTION Y PRODUCTIVIDAD DE LAS PYMES EN BOGOTA D.C. Oscar Alejandro Vásquez Bernal, Diana Patricia Díaz Velandia1 ECBTI, Universidad Nacional Abierta y a Distancia, Bogotá, Colombia Resumen Actualmente el sector de las Pymes, esta produciendo un impacto en la economía nacional y por esto es préocupante observar los índices de fracasoy las investigaciones que se están haciendo de los años 90, lo cual evidencia que entre las causas estructurales de la poca permanencia se encuentran: las deficiencias administrativas .la baja adopción tecnológica, el difícil acceso a la financiación, la baja formación administrativa de los empresarios, la falta de planificación estratégica, el flujo deficiente o mal manejo de la información y la comunicación. No obstante, algunas de estas PYMES, han aplicado sistemas de gestión en sus empresas ya sea la norma ISO 14001 y/o la norma ISO 9001, mejorando en algo la baja competitividad con las grandes empresas y las que llegan a raíz de los nuevos TLC firmados por el país. Por lo anterior, Surge el interés en la exploración del nivel de implementación de las normas ISO 14001 e ISO 9001 y compararlo con el nivel de productividad alcanzado por estas PYMES en Colombia y en especial las ubicadas en Bogotá D.C. Por lo anterior, la pregunta de la investigación es: ¿Las PYMES bogotanas que tiene implementados sistemas de gestión de la calidad y ambiental, han incrementado su productividad y gestión frente aquellas que no tienen ningún sistema implementado? Para responder a esta pregunta sepretende realizar un estudio experimental que pretende triangular la información recogida mediante entrevistas a profundidad con los empresarios de PYMES que tiene sistemas de gestión implementados y con empresarios de PYMES sin implementación de sistemas de gestión, a través de una observación directa no participante de los sistemas aplicados y el desarrollo de encuestas donde se logre analizar el grado de implementación o no de los mismos. Palabras claves: Norma, Ambiental, Calidad, Productividad, Rentabilidad e ISO 1 INTRODUCCIÓN Hoy en día la importancia de: las micro, pequeñas y medianas empresas es una realidad plenamente aceptada en Colombia, a la cual han contribuido numerosos estudios que se vienen desarrollando desde los años 90. Dichas investigaciones se han enfocado a la caracterización de estas entidades económicas y a la búsqueda de alternativas ante los altos índices de fracasos. Lo anterior desembocó en políticas (Ley 500 y los documentos Conpes) y programas (estatales, gremiales o de entidades privadas) que pretendían solucionar las necesidades; sin embargo, a pesar del esfuerzo, los índices de fracaso siguen siendo constantes, constituyendo una problemática que afecta el desarrollo económico y social del país. 2 OBJETIVO GENERAL Determinar el nivel de impacto de la implementación de sistemas normalizados de calidad ISO 9001 y ambiental ISO 14001 en la productividad y gestión de las en las pequeñas empresas ubicadas en Bogotá D.C. 2.1 OBJETIVOS ESPECÍFICOS • Establecer las dificultades en la implementación de sistemas de gestión de calidad y ambiental por pate de las pequeñas empresas de Bogotá D.C. • Identificar las razones sociales, financieras y productivas para la implementación de los sistemas de gestión de calidad ISO 9001 y de gestión ambiental ISO 14001 en las Pymes con estas certificaciones en Bogotá D.C. • Evaluar la gestión y productividad en las pymes con certificación frente a las pymes que no tienen los sistemas de gestión implementados.
  • • Diseño preliminar de herramientas informáticas para el seguimiento y mejoramiento continuo de las gestiones normalizadas en las Pymes estudiadas. 3 PLANTEAMIENTO DEL PROBLEMA De acuerdo con las investigaciones realizadas por Fundes, el Rosario y la Escuela de Administración de Negocios (EAN)3 una de las causas de fracaso de la pymes es la falta de estrategias a largo plazo orientadas hacia un mercado global. Según la Universidad del Rosario, esto se refleja en procesos discontinuos, en los cuales se adoptan medidas, se contratan asesores y se realiza una inversión, sin mantenerlos hasta que den resultado4 . Así, al poco tiempo, la pyme cambia de nuevo de plan estratégico sin que el anterior haya concluido. Esto genera una mezcla que deja aún mayor confusión en los procesos administrativos y gerenciales. A lo anterior, se suma el bajo acceso a sistemas de información que permitan agilizar la comunicación y por lo tanto la implementación de dichos modelos. La situación descrita, en las pequeñas empresas, genera una mezcla de datos que: al ser manejados por una sola persona o por varias; pero, de manera parcial, produce una toma de decisión cortoplacista y sesgada por la percepción, la emotividad y la confusión de la información. Así, el trabajar al día a día genera no sólo pérdidas financieras sino que impide el conocimiento de la empresa, lo cual obstaculiza el manejo adecuado de la entidad e impide el desarrollo de la capacidad empresarial necesaria para la competencia en los mercados internacionales. Es claro que existen diferentes factores que intervienen la productividad de una PYME, lo mismo que una gran variedad de manuales y procedimientos aplicados o por aplicar; sin embargo, esta propuesta de investigación se limita al análisis de cómo afecta la implementación real de los sistemas de gestión en la productividad de una PYME. Hoy en día es innegable la influencia que las empresas Certificadas en normas ISO en la competitividad 3 Para mayor claridad en el texto los títulos de las investigaciones son omitidos; sin embargo la información precisa de cada una de ellas se encuentra en la bibliografía. 4 Méndez Álvarez, Carlos Eduardo. Tecnologías y herramientas de gestión. Caso Grandes, medianas y pequeñas empresas en Bogotá. Editorial Universidad del Rosario. 2009. Pág 66. empresarial y en su inserción en los mercados internacionales. De ahí que vale la pena reflexionar sobre los niveles de implementación real para la mejora de los procesos productivos de las pequeñas empresas, lo mismo que analizar los aplicativos que se requieren para los procesos administrativos, puesto que no se trata sólo de tenerlos sino de hacer un uso acertado de ellos. El hecho de tener una certificación de ICONTEC en normas ISO no garantiza el éxito, pues de la dirección y de los procesos de gestión depende que la implementación sea acertada y por lo tanto exista la mejora. Esto permite pensar en la necesidad de analizar los dos aspectos de manera coordinada de forma que permita mejorar la productividad. Por lo anterior, la pregunta de la investigación es: ¿Cómo es la influencia en las PYMES bogotanas de los sistemas de gestión de la calidad ISO 9001 y sistema de gestión ambiental ISO 14001, en el incremento de la productividad y competitividad frente aquellas que no tienen ningún sistema implementado? Por ello debemos hacer las siguientes preguntas : • ¿Tienen las PYMES bogotanas con certificación ISO 9001 aplicados realmente sobres procesos de calidad? • ¿Cuál es el nivel de implementación del sistema de gestión ambiental ISO 14001 en las PYMES, para una influencia positiva con el entorno? • ¿cuáles PYMES en Bogotá tienen implementado los sistemas de gestión de calidad ISO 9001 y ambiental ISO 14001? • ¿Cómo afecta el no tener sistemas de gestión implementados en las PYMES de Bogotá en la productividad? 4 JUSTIFICIÓN Con los años, la inquietud mundial por el medio ambiente y los procesos de calidad han ido ganando mucha atención. Las actividades industriales que conducen a la contaminación ambiental aumentan la preocupación sobre la promoción de procesos productivos más respetuosos del medio ambiente con el fin de mitigar los impactos de la contaminación. Además, Sí estos procesos están con un correcto diseño y con un procedimiento adecuado según un sistema de gestión de la calidad ha documentado en un disminución significativa de residuos comerciales e industriales de las actividades industriales de las PYME. Las PYME representan la mayoría de los negocios en Colombia. Según el Balance Económico de la ciudad de Bogotá realizado por la Cámara de Comercio, en el 2007, la ciudad generó el 26% de la producción nacional, en ella se localiza el 27% de las empresas existentes en el país, además tiene el PIB per cápita más alto de Colombia
  • (US$ 5.473) y representa el 23% de las exportaciones no tradicionales5 . Ahora bien, de acuerdo con la entidad, en la estructura empresarial bogotana predominan las microempresas con un 87%, le siguen las pequeñas y medianas empresas pymes con un 11% y con un 1% las grandes empresas6 , es decir, la mayor parte del universo empresarial corresponde a mipymes. Las deficiencias administrativas en las pymes se reflejan en la baja productividad que impide la proyección de la empresa y desvirtúa la planeación estratégica. Ahora bien, para los investigadores, gran parte de la problemática está relacionada con dificultades para la implementación y la divulgación de los sistemas en el momento de mejorar la productividad. Por ello, la presente propuesta de investigación busca aportar a la solución de la situación a partir del análisis de los procesos productivos y ambien- tales, soportes de una excelente competitividad. En las pequeñas empresas, el afán de resolver los problemas inmediatos, además, genera un desorden en el registro de la información y en la planeación de actividades que, a su vez, afecta la productividad. Para romper el ciclo.Es necesario no sólo la revisión de los procesos de sino la adopción de instrumentos flexibles y ágiles para el manejo de los datos y los procesos productivos, estos podrían ser con la implementación de procedimientos y sistemas de gestión bajo las herramientas informáticas adecuadas y contextualizadas con la situación de las pequeñas empresas. Adicionalmente, muchas de las pequeñas empresas, por su tamaño, no tienen una estructura organizacional, ni el personal adecuado o el que hay es insuficiente para llevar a cabo un manejo efectivo de la producción. El uso de sistemas ISO puede ayudar a la solución de este problema, pues contribuyen a la comprensión de los procesos y a la segmentación de los procedimientos de tal manera que facilite el encontrar los puntos críticos y los cuellos de botella en la organización, lo cual, a su vez, posibilita el diseño de planes y correctivos efectivos. Además, el estudio de la implementación de sistemas de gestión para mejora de la productividad puede generar un 5 Balance de la economía bogotana, 2007 y 2008, y primer semestre del 2009- Camara de comercio de Bogotá pág 11 recuperado de http://camara.ccb.org.co/documentos/4737_Balance_de_la _economia_bogotana_Parte_1.pdf 6 Ibid conocimiento contextualizado sobre el proceso productivo, el cual es de vital importancia para cualquier empresa. Por ello, este proyecto busca tener un fuerte impacto en las pequeñas empresas, ya que permite identificar las necesidades puntuales y las fallas en las implementaciones de los sistemas de gestión de calidad y ambiental que ameriten procesos de mejora en busca del fortalecimiento de un sector que aporta a la generación de empleo, el desarrollo económico, el aumento de PIB (Producto Interno Bruto), el incremento del comercio interno y el crecimiento de la capacidad productiva del país. 5 METODOLOGIA Por ser un estudio exploratorio sobre el impacto en la implementación de sistemas normalizados de gestión en las pequeñas empresas y su comparación con aquellas empresas que no tiene ningún sistema de gestión implementado, esta investigación no plantea hipótesis propiamente dichas, ya que en palabras de Hernández Sampieri “los tipos de estudio que no pueden establecer hipótesis son los exploratorios. No puede presuponerse (afirmando) algo que apenas va a explorarse”; 7 sin embargo, para dar coherencia al proceso investigativo partimos de las siguientes conjeturas, sin llegar a proponer la relación entre variables: • La implementación adecuada de los sistemas de gestión aumenta la productividad y mejorar las gestiones dentro de las empresas. • Los sistemas de gestión normalizados deben estar íntimamente relacionados con los procesos productivos, pues de lo contrario así se tengan certificaciones, estas no constituirán una garantía de aumento en la productividad. 5.1 Seleccionar el diseño apropiado de investigación: El objetivo del estudio es a nivel de empresa y la unidad de análisis será las gestiones normalizadas en las PYMES. Al hacer la revisión de la bibliografía existente se encontró que a pesar del desarrollo de varios estudios de caracterización y un número menor sobre los modelos administrativos y las herramientas de gestión empleados en las pymes colombianas y bogotanas, no existe una investigación centrada en el nivel de impacto en la productividad de los sistemas de gestión normalizados tipo ISO 9001 de calidad y la ISO 14001 de ambiental. 7 Hernández Sampieri. Roberto, Fernández Collado, Carlos y Batista Lucio, Pilar. Metodología de la investigación. Mac Graw Hill. Colombia. 1997. Pág. 97
  • Por ello, se puede afirmar que es un tema o problema de investigación poco explorado. De acuerdo con lo expuesto en el apartado sobre las hipótesis, al ser un estudio exploratorio no se tienen variables claramente identificadas, lo cual implica que no se puede hacer un estudio experimental. Por ello, lo que se busca es la observación de los procesos de calidad y ambiental tal y como se dan en su contexto procedimental, para después ser analizados, por lo tanto no se construye una situación, sino que se observan e indagan sobre los procedimientos utilizados en condiciones en las que no podemos interferir; pero que nos sirven para encontrar las respuestas al planteamiento del problema. También, es importante aclarar que la toma de datos se hará en un momento determinado y a una única muestra por lo que su diseño es: no experimental, transversal. Para la recolección de la información se realizaran entrevistas semiestructuradas a los encargados de los procesos y sistemas normalizados de gestión y observaciones directas sobre los procesos relacionados con la calidad y procesos ambientales. Mediante el análisis de los datos lograremos la familiarización del tópico en estudio en este caso los sistemas de gestiones normalizadas implementadas o por implementar en las pequeñas empresas ubicadas en Bogotá e identificaremos las variables para estudios posteriores de tipo descriptivo y los componentes esenciales para una herramienta colaborativa. 5.2 Delimitación de la población y de la muestra Por ser un estudio exploratorio, de corte cuanticualitativo, cuya finalidad es determinar tendencias o identificar relaciones potenciales con miras a investigaciones posteriores de carácter descriptivo o correlacional, adicionalmente medir el nivel de implementación de los sistemas normalizados de gestión, por lo tanto, en este proyecto se trabajará sobre una muestra por conveniencia, de tal manera que es: no probabilística. Para ello se seleccionaran 20 pequeñas empresas (10 con sistemas de gestión implementadas y certificadas; y 10 sin ningún tipo de implementación y certificación). Para la selección de la muestra se seguirán los siguientes parámetros: que se encuentren ubicadas en las localidades Puente Aranda, Carvajal y Toberin, por ser sectores que tienen una mayor concentración empresarial; que tengan entre 5 a 10 años de funcionamiento y que se encuentren en los sectores comerciales y en el sector productivo, teniendo en cuenta el equilibrio entre los grupos. 5.3 Fase de Recolección de datos De acuerdo con los objetivos específicos la toma de datos se realizará en tres momentos y a partir de tres técnicas: (uno) para establecer las dificultades de implementación de los sistemas normalizados de gestión que tienen las pymes sin certificación se realizarán entrevistas semiestructuradas; (dos) para describir y medir el nivel de implementación de los sistemas de gestión normalizados, lo mismo que para la evaluación de la productividad una observación directa no participante. Al final para hacer la contrastación de los resultados, e identificar los factores relacionados con el nivel de implementación y la produc- tividad en las pymes certificadas en sistemas de gestión normalizadas (tres) se hará una entrevista grupal con un número representativos de los gerentes de las empresas estudiadas. Al final, a partir de la información recolectada y sistematizada se podrán enunciar las necesidades enunciadas en el objetivo general. Para la realización de las entrevistas se diseñara un cuestionario que oriente la indagación y un temario que será entregado al entrevistado previamente. La validación de estas dos herramientas se realizará por medio de la presentación a cuatro evaluadores calificados tanto en investigación como en el tema. En este sentido, es un instrumento ideal para captar el proceso, objeto de estudio, pues es una realidad cambiante en la que se deben encontrar las tendencias generales entre las diferentes empresas. Además con ella se obtiene un nivel de profundidad y detalle difícil de conseguir con otras técnicas. Para llevar un registro sistemático, válido y confiable de los comportamientos y de los procesos productivos o comerciales relacionados con los sistemas de gestión, una vez definido el universo de aspectos a observar mediante las entrevistas, se realizaran dos acciones: (uno) levantamiento tanto de los procedimientos de gestión mediante diagramas o manuales de procedimientos y (dos) se establecerá una lista de los aspectos, eventos o conductas que influyen en la poca implementación de los sistemas de gestión para el mejoramiento de la productividad, de tal manera que sirvan de punto inicial para el establecimiento de las unidades de observación y las categorías.
  • Una vez establecidas claramente las categorías, se procederá a la codificación y con ella se elaboraran los protocolos de observación, los cuales servirán para dar confiabilidad y validez a la observación. 5.4 Análisis de datos Una vez desarrollado el trabajo de campo se realizará la transcripción de las entrevistas a los gerentes de las empresas en estudio, de tal manera que se garantice la claridad y literalidad del relato. Posteriormente, se hará un análisis tipológico para el cual se introducen categorías que clasifican el material recogido según la necesidad de la investigación. Para logar lo anterior se realizaran las siguientes fases: lectura detenida de la información obtenida con el fin de establecer las categorías de análisis; codificación de dichas categorías para facilitar su reconocimiento en todos los relatos o entrevistas; luego se procederá a la evaluación del significado y las recurrencias mediante la elaboración de cuadros semánticos y comparativos. Una vez realizada la observación directa no participante se procederá a la organización del material y a la sistematización del mismo en busca de la identificación del flujo de la información y de los cuellos de botella que es el primer objetivo específico. Simultáneamente con esto se observaran los niveles de implementación de los sistemas de gestión y sus manuales de procedimientos y se indagará las razones para la anterior, así, como que se hace de ellas, segundo y tercer objetivo. Sin embargo para lograr una mayor fiabilidad en el resultado final se realizará una entrevista grupal con un buen número de los gerentes entrevistados, en ella se presentarán los resultados encontrados y se les preguntará lo que ellos piensan sobre los resultados y sobre los requerimientos informáticos específicos que tienen. Esto con el fin de completar la triangulación de la información, además de los parámetros de medición y seguimiento de los sistemas de gestión, cuarto objetivo. 6 RESULTADOS O PRODUCTOS ESPERADOS • Establecer las variables para una investigación descriptiva sobre la productividad en Bogotá. Identificar la dificultad de implementación de sistemas de gestión normalizados que desarrollen la mejora en la productividad. • Consolidación de la sub-línea gestión integral en la ingeniería del programa de ingeniería industrial • Creación de un semillero de investigación sobre gestión integral empresarial • Elaboración de tres trabajos de grado vinculados al proyecto • Creación de una comunidad virtual para los pequeños empresarios • Escritura de un artículo para publicar en las revistas de la universidad • Socialización del trabajo en el campus virtual de la Universidad y en un foro abierto para los docentes y estudiantes del programa • Formación de jóvenes investigadores • Consolidación de una sub-línea de gestión integral aplicada para la administración • Desarrollo de herramientas colaborativas para mejoramiento continúo de los sistemas de gestión en las pymes. 7 REFERENCIAS [1] Algebra Calvo, María Angelica. (2005). Incorporación de los principios de la gestión integrada de recursos hídricos en los marcos legales en América Latina experiencias aprendidas. Bogotá: Universidad Externado de Colombia. [2] Amaya Nova, Oscar Dario. (2002). La constitución Ecológica de Colombia. Bogotá: Universidad Externado de Colombia. [3] Anton, Benedicto (1998). Educación Ambiental, Barcelona: Escuela Española. [4] ICONTEC (2006). Normas y documentos de apoyo para la implementación, mantenimiento y mejora de los sistemas de gestión ambiental. Bogotá. [5] MORIN, Edgar (2000). Los siete saberes necesarios para la educación del futuro. UNESCO – MEN - ICFES. [6] Wernerfelt, B. (1984). Un punto de vista basado en los recursos de la empresa. Strategic Management Journal, 5, 171-180. [7] Zeng, S.X., Tian, P. y Tam, C.M. (2007). Superar los obstáculos para la implementación sostenible del sistema ISO 9000. Diariode auditoría de gestión, 22 (3), 244-254. Estudios, análisis de impacto, pequeñas y medianas empresas-PYMES, las normas ISO, la gestión ambiental Códigos de Clasificación 9130 Experimento / tratamiento teórico, 9179 Asia y el Pacífico, 9.520 pequeñas empesas, 1540 Control de la contaminación 1 Correspondencia: oscar.vasquez@unad.edu.co
  • DIAGNÓSTICO BASADO EN EL MODELO SCOR PARA LA CADENA DE SUMINISTRO DE LA EMPRESA MATECSA S.A. Investigador: José Ignacio Campos Naranjo Autores: Claudia Marcela Cruz Reyes, Juan Camilo Sánchez Rodríguez. 1 Facultad de Ingeniería, Universidad Libre, Bogotá Colombia Resumen Este artículo presenta el desarrollo de cada una de las actividades encaminadas al diagnóstico y análisis de la cadena de suministro de la empresa MATECSA S.A., ubicada en Mosquera - Cundinamarca. En vista de las falencias existentes en la organización, la presente investigación (en proceso) tiene como propósito establecer un plan maestro de implementación del modelo Scor en la empresa MATECSA S.A. con el fin de alcanzar la excelencia operacional de la cadena de suministro, generando impactos económicos, productivos y competitivos para la organización. Palabras claves: Cadena de Suministro, Modelo Scor, excelencia operacional, Logística. ABSTRACT This article presents the development of each of the activities aimed to the diagnostic and analysis of the supply chain of the company MATECSA SA, located in Mosquera - Cundinamarca. In view of the shortcomings in the organization, this research (in process) aims to propose a master plan for implementing of the Scor model in the company MATECSA SA to achieve operational excellence in supply chain, generating economic, productive and competitive impacts for the organization. Key Words Supply Chain, Scor Model, operational excellence, Logistics 1 INTRODUCCIÓN Alcanzar la excelencia operacional a partir de la modernización de los procesos productivos y la mejora continua a nivel transversal en la organización, son los fundamentos para mantener una inserción dentro del mercado, permitiendo consolidar y logar ventajas competitivas. Por tal motivo son indispensables, tanto eficientes conexiones dentro del sistema logístico, como la consecución de las operaciones llevadas a cabo dentro del mismo. Matecsa S.A. es una empresa ubicada en Mosquera, Cundinamarca, dedicada a la producción y comercia- lización de sistemas de construcción metálicos de acuerdo con los parámetros de AISI (American Iron Steel Institute), productos certificados bajo las Normas técnicas Colombianas ICONTEC NTC 5680y NTC 5681. A su vez provee la asistencia técnica, acompañamiento y soluciones de tipo técnico respecto a los productos y servicios ofrecidos. La selección de esta pyme colombiana se realizó en razón a los errores presentados en aspectos fundamentales del proceso logístico como son la entrega de productos y el cumplimiento de compromisos, evidenciadas en la desincronización de la cadena de suministro. Para llevar a cabo el diagnóstico del comportamiento logístico de la organización, se fundamentó en la metodología del modelo Scor (Supply Chain Operations Reference Model), un Modelo de Referencia que estandariza la terminología y los procesos de una Cadena de Suministro para modelar y, usando KPI´s (Key Performance Indicators o Indicadores Clave de Rendimiento), comparar y analizar diferentes alternativas y estrategias de la cadena de suministro. [1] 2 METODOLOGÍA 2.1 Recolección de la Información El estudio inicia con base a la información suministrada por la empresa Matecsa S.A. correspondiente a la descripción del portafolio de productos, caracterización de los procesos productivos, análisis financieros, descripción de los procesos logísticos, políticas de calidad, requerimientos de comercialización y planeación
  • estratégica, a partir de los cuales se realiza un análisis general de la situación actual de la cadena de suministro de la organización. 1 claudiam.cruzr@unilibrebog.edu.co - juanc.sanchezr@unilibrebog.edu.co Para determinar las fases de implementación del modelo Scor se tuvo como base de referencia la información suministrada por el Supply Chain Council, donde se establece que: “El modelo SCOR permite describir las actividades de negocio necesarias para satisfacer la demanda de un cliente. El Modelo está estructurado bajo cinco Procesos Principales de Gestión: Planificación (Plan), Aprovisionamiento (Source), Manufactura (Make), Distribución (Deliver) y Devolución (Return) presentado en la Figura 1. [2] Figura 1. El modelo SCOR está organizado alrededor de cinco Procesos Primarios de Gestión. [3] 2.2 Caracterización de la Cadena de Suministro El modelo SCOR presenta tres categorías en las que se pueden ubicar las diferentes empresas del mercado de acuerdo al sistema de producción que presentan y bajo las cuales se despliega la Cadena de Suministro [4]: 1. Make –to-Stock: (Fabricación contra almacén) 2. Make –to-order: (Fabricación bajo pedido) 3. Engineer –to-order: (Diseño bajo pedido) A partir de la recolección de información realizada en la fase 1 se determina que MATECSA S.A presenta un sistema de producción basado en la política Make–to- order, (Fabricación bajo pedido) debido a que sus clientes emiten órdenes de compra, especificando las características del producto que requieren y la organi- zación tiene como fin seguir los parámetros de estas ordenes para cumplir con los requerimientos y asegurar la entrega del producto logrando la satisfacción de las necesidades del cliente. La clasificación de la organización dentro del sistema de producción Make – to-order es el punto de partida para la ejecución del Modelo Scor, en donde se establecen los siguientes factores críticos de éxito con el fin de realizar un dictamen inicial de las actividades a implementar en busca de la mejora de la organización: Mejorar la comunicación entre los diferentes departamentos de la empresa, con el fin de garantizar el cumplimiento de entregas. Realizar un seguimiento y supervisión detallada en el área de despachos, carga y entrega de producto para disminuir los errores en las actividades de separación manual de productos y transporte. Garantizar un proceso de formación continua por medio de capacitaciones, relacionada con el conocimiento de procedimientos y manejo de producto evitando las desconexiones a lo largo de la cadena de suministro. Realizar un Plan Maestro de Proveedores y de Clientes, con el fin de llevar a cabo una adecuada priorización de los mismos, buscando disminuir retrasos tanto en la recepción de materia prima como en la entrega de producto final. 2.3 Estado actual de la Cadena de Suministro El proceso de fabricación de los perfiles para construcción, empleados como estructura y soporte en fachadas, muros, entrepisos, bases para cubiertas, cielorrasos, vigas, columnas y pórticos comprende las actividades relacionadas en las Figuras 2 y 3: Figura 2. Diagrama de Proceso de Producción
  • Figura 3. Diagrama de Proceso ASME A partir de las Figuras 2 y 3 se puede establecer el alcance de la Cadena de Suministro de MATECSA S.A. en el que se evidencian las condiciones generales del negocio, analizando los flujos de información, dinero y materiales a través de los proveedores, la organización y los clientes (Figura 4), siendo éstos, los actores principales de 3 procesos relacionados en el Modelo Scor: Source (Abastecimiento), Make (Producción) y Deliver (Distribución), respectivamente. Figura 4. Alcance de la Organización. A través de la metodología implementada por el Modelo Scor se construye un diagrama, (Figura 5), plasmando los Procesos Primarios de Gestión llevados a cabo en la cadena de suministro de la organización especificando los Niveles 1 (Superior) y 2 (de Configuración) del modelo a desarrollar. En el Nivel Superior se ven reflejados los procesos de Planeación P1 a lo largo de la Cadena de Suministro de la Organización, Planeación P2 en la actividad de Abastecimiento -Source- relacionado con los Proveedores, Planeación P3 en la actividad de Producción -Make- propia de MATECSA S.A, Planeación P4 en la actividad de Distribución -Deliver- relacionada con los clientes y Planeación P5 en la actividad de Devolución de entregas - Return- dirigida a la organización. Figura 5. Mapa de Procesos de SCOR (Niveles 1 y 2). En el segundo nivel del ModeloScor, el Nivel de Configuración, se especifican los procesos de Abastecimiento, Fabricación y Distribución llevados a cabo por cada uno de los actores de la cadena de suministro: • Los proveedores realizan el proceso de Abastecimiento -Source- S2 para garantizar la adquisición de la materia prima que, posteriormente, será enviada a MACTESA S.A. a través del proceso de Distribución -Deliver- D2. • La organización desarrolla el proceso de Abastecimiento de materia prima -Source- S2 proveniente de los proveedores, posteriormente ejecuta el proceso de fabricación del producto – Make- M2 y, finalmente realiza el proceso de Distribución –Deliver- D2 a sus clientes. • Los clientes de MATECSA S.A. se dividen en dos grandes grupos: en el primero se encuentran las comercializadoras que realizan el proceso de Abastecimiento –Source- S2 del producto fabricado y lo dirigen a sus diferentes clientes a través del proceso de Distribución –Deliver- D2, y en el segundo se encuentran las Obras de Construcción que adquieren el producto a través del proceso de Abastecimiento –Source- S2 para su posterior implementación en la industria. 3 RESULTADOS Y ANÁLISIS A continuación se presentan los resultados obtenidos del proceso de definición y caracterización de la cadena de suministro de la organización, información recopilada a través de visitas de campo a la planta de producción y la consolidación de la información proporcionada por los principales actores de la cadena de suministro y los fundamentos en los cuales se basa el Modelo Scor. Para
  • este informe se han seleccionado los efectos más relevantes. Las dos situaciones problema de mayor representación dentro de la cadena de suministro de MATECSA SAson los errores en las entregas e incumplimiento de compromisos. En las figuras 6 y 7 se presentan las posibles causas, resaltando las de mayor impacto. Las principales por las cuales se generan dichos efectos negativos dentro de la cadena de abastecimiento se deben a la poca o nula utilización de los planes de producción, las cual se fundamentan principalmente en la falta de capacitación a los actores del proceso y la débil comunicación entre estos. Figura 6. Diagrama causa-efecto de Errores de entrega. Figura 7. Diagrama causa-efecto de Incumplimiento de compromisos. Uno de los indicadores más importantes que permite identificar la satisfacción del cliente es la entrega de pedidos a tiempo, en razón a que la credibilidad y confiabilidad hacia los clientes se ve afectada por las demoras en las entregas y consecuentemente se presentaría una desventaja competitiva frente a las demás organizaciones de la industria. Tabla 1. Observaciones pedidos mes de septiembre Figura 8. Pedidos entregados a tiempo. La figura 8 refleja el comportamiento de las entregas de pedidos en los últimos meses, donde se establece que el 86.83% de las entregas efectuadas se realizan en la fecha programa, el 10.73 % se realizan con demoras de 1 a 5 días y el 1.83 % se realizan con demoras entre 6 y 10 días. Otro de los factores determinantes en la satisfacción del cliente es la entrega de órdenes completas la cual representa solo el 66.33%, el porcentaje restante se debe a varias circunstancias que afectan el cumplimiento de las mismas tal como lo indica la Figura 9. Durante los meses de Julio, Agosto y Septiembre la falta de producción afecta la entrega completa del 9.66% de los pedidos, el 6% se debe a la consolidación de carga y el faltante en materia prima afecta el cumplimiento del 7% de la cantidad de pedidos. OBSERVACIONES CANTIDAD % Órdenes Perfectas 115 86,47 Incumplimiento en los tiempos de entrega de las órdenes (de 1 a 5 días) 15 11,15 Incumplimiento en los tiempos de entrega de las órdenes (de 6 a 10 días) 3 2,26 TOTAL 133 100,00
  • DESCRIPCION A B C D E TOTAL INFLUENCIA A Comunciacion entre departamentos 2 3 3 2 10 B capacitacion de Operarios 0 2 3 2 7 C Materia prima 2 1 2 2 7 D Produccion 1 1 1 3 6 E Entregas 1 0 1 1 3 TOTAL DEPENDENCIA 4 4 7 9 9 MATRIZ DE VESTER Tabla.2 Descripción de pedidos mes septiembre Figura 9. Pedidos entregados completos. 3.1 Matriz DOFA Figura 10. Matriz DOFA En la Figura 10 se consolidan las observaciones más importantes realizadas a partir de los resultados de las visitas de campo, la información obtenida por parte de los actores principales de la empresa y su categorización de acuerdo a la metodología DOFA (debilidades, opor- tunidades, fortalezas y amenazas). 3.2 Matriz de Vester La bondad de las metodologías para la identificación de problemas con base en la Matriz de Vester, radica en aportar los elementos suficientes para establecer relaciones de causa-efecto entre los factores y problemas bajo análisis y llegar a la detección de problemas críticos y de sus respectivas consecuencias. [5] Tabla 3: Descripción Matriz de Vester En la figura 11 se evidencia el análisis de los factores que intervienen en la Cadena de Suministro de Matecsa S.A Figura 11. Configuración de problemas • Cuadrante pasivo: Se encuentran los factores A y B, los cuales Se entienden como problemas sin gran influencia causal sobre los demás, pero son originados por la mayoría. • Cuadrante Crítico: Se evidencian los factores C y D, los cuales se entienden como problemas de gran causalidad, que a su vez son originados por la mayoría de los problemas existentes. Requieren gran cuidado en su análisis y manejo debido a que de su intervención dependen en gran medida los resultados finales. • Cuadrante activo: En este cuadrante se puede observar el factor E, un problema de alta influencia sobre la mayoría de los restantes, pero que no es causado por los demás. Esclavepuesto Debilidades Fortalezas Defectos en aprovisionamiento de materias primas. Mantenimiento preventivo diario en cada una de las máquinas. Incumplimiento en órdenes de entrega. Inspección continúa por parte de cada uno de los operarios encargados del proceso productivo. Falta de comunicación entre los departamentos. Certificación en las normas ISO 9001, NTC 5680, NTC 5681, de gran parte de los productos fabricados Autonomía en el Despacho Oportunidades Amenazas Crecimiento en el sector de la construcción, generando demanda de productos y servicios ofrecidos por Matecsa S.A. Aumento de los costos de transporte a causa de variables intervinientes como son los factores climáticos. Tratado de Libre Comercio Ofertas de las demás empresas del Sector. Enfoque en implementación de bases y estructuras sismo - resistentes. Cultura de pago de los clientes. ESTADO DESCRIPCION CANTIDAD % 0 Entregas Completas 128 68,09 1 Entregas incompletas debido a la falta de materia prima 10 5,32 2 Entregas parciales programadas por el cliente 19 10,11 3 Demora de entregas por consolidación de carga 11 5,85 4 Entregas incompletas por falta de tiempo 20 10,64 188 100,00
  • que es causa primaria del problema central y por ende requiere atención y manejo crucial. • Cuadrante Inerte: No se presentan, problemas de baja prioridad. 4 CONCLUSIONES La implementación del modelo SCOR requiere de la participación, apoyo y liderazgo del nivel directivo de la empresa teniendo en cuenta la difusión y capacitación del concepto de Cadena de Suministro del Modelo en toda la organización. Las principales causas de la generación de la situación problema correspondientes a los errores en entregas se ven influenciadas por la falta de capacitación en el personal y el conteo manual de cargue y descargue de producto terminado. Gran parte de las faltas presentadas en las entregas a tiempo corresponden a las demoras provenientes por parte de los proveedores en el abastecimiento de materia prima para la fabricación de producto. La entrega de producto terminado debe tener un espacio fundamental para su desarrollo, puesto que en dicho ámbito se presentan desconexiones importantes las cuales influyen en la calidad de servicio brindado por la empresa. Una buena comunicación con los proveedores es fundamental ya que estructura el inicio de la cadena de abastecimiento e influye profundamente, pues de ahí parte el cumplimiento oportuno de las entregas de los productos terminados a los clientes. El modelo SCOR como herramienta estratégica permite visualizar de manera integral la Cadena de Suministro de la organización, no obstante, a través de sus parámetros de medición en cada uno de sus procesos se pueden determinar las desconexiones que llevarán a priorizar proyectos e implementar acciones de mejora continua. 5 REFERENCIAS A. Capítulo de un libro [1] Stadtler, Hartmut and Kilger, Christoph (Editors). Supply Chain Management and Advanced Planning.Second Edition. 2002. B. Documento de Trabajo [2] Supply-Chain Operations Reference-model SCOR Version 6.1, SCC Inc., May 2004. [4] Calderón Lama, José Luis, Análisis del Modelo SCOR para la Gestión de la Cadena de Suministro, 2005. [5] “Aplicación de la Matriz Vester”. Jojo Cuthbert Chiimbila. Plusformacion: http://www.plusformacion.com/Recursos/r/Aplicacion- Matriz-Vester. C. Libro [3]Bolstorff,Peter.Supply chain excellence: a handbook for dramatic improvement using the SCOR model. New York, AMACOM, 2003
  • INTEGRACIÓN DE LOS SISTEMAS DE GESTIÓN PARA ACREDITACIÓN Y CERTIFICACIÓN DE LABORATORIOS Adriano Cano Cuervo1 , Jorge Acevedo Bohórquez2 , Manuel Arturo Jiménez Ramírez3 Facultad de Ingeniería, Universidad de los Andes, Bogotá, Colombia Resumen Este articulo muestra de manera general cómo se logró diseñar un modelo de gestión integrado para el laboratorio de ensayos de Ingeniería Civil de la Universidad de los Andes.La metodología utilizada en este proyecto se basa en los principios de la implementación integrada de los sistemas de gestión que son desarrollados por la International Organization for Standardization (ISO). De acuerdo a lo anterior, se logró evidenciar que es posible integrar sistemas de gestión para acreditación con sistemas de gestión para certificación. Para este caso, se logra integrar el sistema de gestión para la competencia de los laboratorios de ensayo y calibración ISO/IEC 17025:2005 con el sistema de gestión medioambientalISO 14001:2004 y el sistema de gestión en seguridad y salud ocupacional ISO-OHSAS 18001:2007. Esto es posible debido a los requerimientos similares que tienen estas normas internacionales que facilitan la compatibilidad de estos es una sola gestión. Por medio de esto, se garantiza la competencia técnica del laboratorio, su responsabilidad con el medio ambiente y la seguridad industrial de sus empleados y visitantes. Adicionalmente, se certifica la trazabilidad de los resultados emitidos por el laboratorio permitiéndole enfrentar mercados competitivos y exigentes acordes a los requerimientos legales exigidos por el estado colombiano. Palabras claves: Acreditación, certificación, sistemas de gestión, calidad, salud ocupacional, medio ambiente. 1 INTRODUCCIÓN Una organización es un sistema que interactúa con el entorno. A través del tiempo, se ha definido sistema como el conjunto de elementos interrelacionados que logran un objetivo específico [1]. Un Laboratorio de ensayos se constituye como una organización a la cual son aplicables los lineamientos y requisitos específicos de las normas internacionales, como la ISO 9001 y la ISO/IEC 17025, para implementar un sistema de gestión de calidad. Además, se ha venido observando la creciente necesidad, en diferentes organizaciones en el mundo, de proteger a sus empleados y el medio ambiente. Esto se ha logrado por medio de la implementación de sistemas de gestión de seguridad y salud ocupacional (OHSAS 18001) y medio ambiental (ISO 14001). Cuando un laboratorio de ensayos implementa los sistemas de gestión de calidad, seguridad y salud ocupacional y medio ambiental, garantiza la adopción de un sistema integral en todos sus procesos, su competencia técnica, su responsabilidad con el medio ambiente y la protección de sus empleados y visitantes. De esta manera, se avala la trazabilidad de los resultados emitidos por el laboratorio permitiéndole enfrentar mercados más competitivos y exigentes. Según Labodova [2], existen dos maneras de implementar los sistemas de gestión: • Paso a paso, implementación individual • Implementación integrada La implementación individual consiste en establecer primero un sistema de gestión determinado y posteriormente ir integrando de forma paulatina otros sistemas. La implementación integrada consiste en establecer e implementar en un solo paso un sistema de gestión que integre y cumpla con todos los requerimientos exigidos por cada uno de las normas internacionales que la organización requiera. La integración se puede definir como el proceso por medio el cual la organización aprende a introducir criterios y especificaciones en sus procesos de modo que satisfagan a todas sus partes interesados (clientes, personal de la organización, sociedad, entre otros.) ahorrando costos y esfuerzos, con espíritu innovador, autocritica y comprometido con la mejora continua [3].
  • El modelo de gestión integrado que se plantea en este artículo está encaminado a brindar a la organización una guía que le permita establecer los parámetros fundamentales requeridos para implementar un sistema de gestión integrado que incluya la norma internacional ISO/IEC 17025:2005. 2 LA ORGANIZACIÓN El laboratorio Integrado de Ingeniería Civil y Ambiental, de la Universidad de los Andes, está conformado por los laboratorios de Ingeniería Civil, Ambiental e Hidráulica. El Laboratorio de Ingeniería Civil cuenta con dos áreas estratégicas (Instrumentación y ejecución de ensayos) que facilitan el cumplimiento de las actividades diarias bajo el sistema de gestión de calidad. Estas unidades están conformadas por personal profesional en ingeniería con la experiencia y la capacidad de generar valor en cada uno de los procedimientos realizados. Además, cada área cuenta con auxiliares y técnicos de laboratorio encargados de la realización de los ensayos y el monitoreo continuo de los equipos. De esta manera, realizar de manera efectiva los procedimientos necesarios para generar conformidad en cada una de las actividades desarrolladas. Adicionalmente, cuenta con personal administrativo que soporta todas las actividades que permiten la prestación de servicios internos y externos. 3 ANTECEDENTES Los sistemas de gestión se han convertido, para muchas empresas, en una ventaja competitiva que les permite garantizar estándares de fabricación de bienes y prestación de servicios. Según Labodova [2], existen dos maneras de implementar los sistemas de gestión: 1. Paso a paso, implementación individual 2. Implementación integrada Cuando un sistema de gestión no es suficiente para satisfacer las necesidades de la organización, los requerimientos legales y los requerimientos de los clientes, se vuelve necesario implementar más de un sistema de gestión. Por esta razón, es preciso diseñar modelos que permitan integrar varios sistemas en una sola gestión. Dicha integración se puede realizar unificando dos o más sistemas de gestión. Manresa & Godoy [5] describen el proceso de integración de los sistemas de gestión ISO 14001 e ISO-OSHAS 18001, para garantizar el compromiso de la alta dirección y la responsabilidad social de la organización con el medio ambiente y sus trabajadores. En esta investigación, los autores identifican los principios y conexiones comunes entre los sistemas, ventajas y desventajas de su integración. Riviera & Rodríguez [6], en el simposio de metrología realizado en México, expusieron un modelo de integración entre la norma ISO/IEC 17025 con la norma ISO 9001para un laboratorio de metrología. En éste, se consideró la semejanza en los requerimientos de gestión comunes entre las normas. Este trabajo concluye lo siguiente: Un laboratorio de metrología que funciona dentro de una organización mayor puede mejorar el uso de sus recursos si considera que los procesos ISO 9001 cumplen los requisitos comunes y los procesos ISO/IEC 17025 se enfocan a los requisitos de la capacidad técnica. Bajo esta propuesta, la duplicidad de procedimientos es menor por lo tanto, se reducen los costos de mantenimiento del sistema y se concentra el desempeño del laboratorio en el desarrollo de su capacidad técnica [6]. En este caso, los autores dieron un paso importante que permite la integración de una norma de certificación con una de acreditación basados en los requerimientos de gestión comunes entre las dos normas. Adicionalmente, dejan abierta y planteada la necesidad de integrar la norma ISO/IEC 17025 con otros sistemas de gestión diferentes a la ISO 9001. Sin embargo, durante la investigación no se encontraron estudios o aplicaciones que permitan integrar un sistema de gestión genérico certificable, como la norma ISO 14001 e ISO-OHSAS 18001, con un sistema de gestión específico acreditable, como la ISO/IEC 17025:2005. 3.1 VENTAJAS Y DESVENTAJAS DE LA IMPLE- MENTACIÓN INDIVIDUAL Las organizaciones han ido implementando las normas de gestión según sus necesidades inmediatas de aplicación. Generalmente, la norma más aplicable es la ISO 9001 por su aplicabilidad y uso en todo tipo de organizaciones sin importar su función social. Aunque son muchas las ventajas que se pueden obtener por implementar un sistema de gestión, generalmente a la organización le interesa reducir el costo asociado a la implementación y el mantenimiento del sistema de gestión. La ventaja más relevante en la implementación individual es el bajo costo de implementación. Por esta razón, las organizaciones prefieren implementar un solo sistema de gestión y eventualmente implementar otro después de acuerdo a sus necesidades inmediatas [5].
  • Otra ventaja es la simplicidad de la documentación que se debe generar para implementar un solo sistema de gestión. Esto se debe a que los esfuerzos se deben dirigir exclusivamente a un solo sistema. Además, al generar estrategias para concienciar a los empleados de la organización, todas se centrarían en satisfacer los requerimientos establecidos en una sola norma, lo que facilita la comprensión de los integrantes de la organización. Todo lo anterior se reduce en menor esfuerzo en materia de formación y cambio cultural organizacional [5]. Las desventajas de la implementación individual se evidencian al iniciar el proceso de implementación de un nuevo sistema de gestión, que hace necesario modificar el sistema existente para acoplarlo al sistema que se está empezando a implementar. Por esta razón, nace la primera desventaja: la duplicidad en la información [7]. Al implementar por separado los sistemas de gestión se incrementan los re-procesos, ya que es necesario generar de nuevo procedimientos de documentación, formación y capacitación, revisión y, en general, todo el ciclo PHVA [7]. Además se genera duplicidad en cargos, como el representante a la alta dirección y cargos específicos solicitados por cada norma, para el cumplimiento de sus requisitos [5]. Es también difícil operar múltiples sistemas de gestión implementados por separado (paralelamente) y alinearlos con la estrategia de la organización. Esto se debe a que se genera una fuente de complejidad en la gestión interna, disminuye la eficiencia, incurre en incompatibilidad cultural y aumenta la hostilidad en los empleados [8]. Por último, implementar los sistemas de gestión por separado incrementa los costos asociados a las solicitudes de certificación [8] Se deben solicitar visitas técnicas y auditorías externas por cada uno de los sistemas de gestión implementados de manera separada. 3.2 VENTAJAS Y DESVENTAJAS DE LA IMPLE- MENTACIÓN INTEGRADA Según Dessler [9], la implementación integrada es una de las técnicas que los profesionales o dueños de negocios deberían considerar debido a que es una herramienta básica para la integración/coordinación.Garvin [10] define la integración como el grado de adecuación y armonía de una organización. De hecho, es una existencia de total armonía y alineamiento de la política y la finalidad de todas las áreas que integran la organización. En general, la integración de sistemas se puede describir como la combinación de la gestión de la calidad y la gestión medio ambiental. Así mismo, existen algunos sistemas de gestión medio ambiental basados en gestión de la seguridad y salud ocupacional o integrados con sistemas de producción más limpia [11]. La combinación más completa que se ha encontrado en la literatura está orientada a la integración de la gestión de calidad, el medio ambiente y la seguridad y salud ocupacional. Este enfoque se orienta hacia el concepto de calidad total [2]. Además de los casos de implementación, existen estudios realizados por Riemann y Sharratt [12] en los cuales se evidencia el creciente interés de las organizaciones por la integración de sistemas de gestión. Shillito [13] Tranmer [14] y Beechner y Koch [15] hacen un análisis sobre los problemas de la integración de los sistemas de gestión y cómo superarlos [16]. Sin embargo, no se ha desarrollado un sistema formal de gestión integrada que pueda ser certificado a nivel internacional [2]. La ISO favorece la integración voluntaria de los sistemas de gestión; por esta razón, declara lo siguiente en cada una de las normas que genera8 : …“incluye requisitos específicos para otros sistemas de gestión, tales como los de calidad, ambiente, seguridad o gestión financiera, aunque estos elementos se pueden alinear o integrar con los de otros sistemas de gestión. Es posible que una organización adapte su(s) sistema(s) de gestión…” … “para ser eficaces, deben “estar dentro de un sistema de gestión estructurado que esté integrado dentro de la organización…”. Las normas OHSAS sobre gestión de S y SO están previstas para brindar a las organizaciones los elementos de un sistema de gestión de S y SO eficaz que se puedan integrar a otros requisitos de gestión y ayuden a las organizaciones a lograr objetivos de S y SO y económicos. …“con el fin de facilitar la integración voluntaria de los sistemas de gestión de calidad, ambiente, seguridad y salud ocupacional por parte de las organizaciones…” Lo anterior evidencia el interés de la ISO por garantizar la compatibilidad de las normas para poderlas integrar. Sin embargo, implementar un sistema de gestión integrado tiene tanto ventajas como desventajas. Gilbert [17], Jordan 8 Apartados tomados de la norma ISO-OHSAS 18001:2007, aplica a todas las normas amparadas por la ISO.
  • [18], Riemann y Sharratt [12] y Sunderland [19], aciertan en que la reducción de los esfuerzos y los costos son las razones principales para la integración de los sistemas de gestión. Además, ellos consideran que la integración ayuda a generar procesos de auditoría integrales y eficaces. Adicionalmente, consideran un sistema integrado de gestión (SIG9 ) como un instrumento para solucionar problemas similares relativos a la gestión de la organización. Lo anterior se complementa con lo descrito por Zeng, Shi y Lou [8], quienes enfatizan que la integración se centra en el proceso de mejora y optimización, que conduce a la reducción de costos. Así mismo, hacen énfasis en que la implementación integrada incentiva el liderazgo y la mejora continua en la organización. Se puede inferir que existe un mejoramiento en todos los procesos y actividades relacionados con la organización, que resulta en la satisfacción de los clientes internos y externos y generan mejoras a la sinergia organizacional [20]. Zwetsloot [20] afirma que la implementación de sistemas integrados de gestión incrementa la sinergia en el sistema y en los aspectos comunes de las normas. Dichos aspectos deben ser documentados de manera que permitan que el ingreso de nuevos participantes en el sistema no afecte ningún aspecto que involucre la gestión integrada. Así mismo, Massey [21] indica que la integración de los sistemas de gestión es una herramienta eficaz para evitar la duplicación de procesos y de documentación. Complementando lo expuesto por Massey, Tranmer [22] afirma que el control en la documentación alinea la gestión de los sistemas integrados con los objetivos del negocio y con la estrategia global de la organización, lo que conlleva a generar control de accesibilidad y flujo de la información de acuerdo a los requisitos exigidos en cada norma. Labodova [2] plantea en su investigación “Implementing integrated management systems using a risk analysis” que la integración de sistemas de gestión en una organización reduce el riesgo o la probabilidad de ocurrencia de los siguientes factores: • Pérdidas a causa del reproceso o material desechado • Liberación de productos de mala calidad entregados a los consumidores 9 SIG: Sigla utilizada para denotar Sistema Integrado de Gestión. • Afectar el medio ambiente (disminución del consumo de materias primas y energía, y disminución en la generación de residuos) • Afectar a los empleados (comprender mejor los procesos, disminución de los accidentes de trabajo) • Afectar a los consumidores (productos no conformes que pueden ser fuente de lesiones o accidentes) Por otra parte, Crowe [23] señala que los SIG pueden reducir la flexibilidad de la organización. Es mucho más complejo implementar un sistema de gestión integrado que por separado, debido a que la interfaz de la información está unida de manera fija y rígida, lo que puede inducir fácilmente a un entorno controlado por la burocracia, generando una eficiencia limitada. [8]. Finalmente, autores como Manresa y Godoy [5] afirman que la implementación de un sistema integrado de gestión requiere mayor esfuerzo de formación y de cambio de la cultura empresaria. Esto implica la necesidad de una la elevada inversión para implementarlo y asegurar el compromiso de la dirección, además de la motivación y participación de los empleados y los cambios en las rutinas de la organización [24]. 4 METODOLOGÍA PARA DISEÑAR UN SISTEMA INTEGRADO DE GESTIÓN PARA ACREDI- TACIÓN Y CERTIFICACIÓN DE LABORATORIOS Wilkinson & Dale [25] plantean que existen dos enfoques para lograr la integración de los sistemas de gestión: 1. Combinar la documentación por medio del enfoque alineado de las similitudes de las normas. 2. Implementar el sistema integrado por medio del enfoque de gestión de calidad. Lo anterior se complementa con los descrito por Jørgensen, Remmen & Mellado [24] en donde se afirma que la integración de los sistemas se puede lograr utilizando las referencias cruzadas de cada norma. Adicionalmente, los autores afirman que existen tres niveles elementales para la integración: 1. Coordinación y compatibilidad de los elementos y procesos genéricos, 2. Cultura y aprendizaje, y 3. Mejoras continuas Con base en lo anterior se planteó la siguiente metodología: 1. Identificar requerimientos comunes (integración por referencias cruzadas).
  • 2. Plantear modelo para la gestión integrada. 3. Generar estructura por procesos. 4. Cruzar requisitos de las normas con los procesos de la organización. 5. Generar la gestión basada en procesos (mapeo descriptivo por procesos) 6. Formular directrices. 7. Identificar el marco legal aplicable al sistema integrado de gestión. 4.1 LA INTEGRACIÓN POR REFERENCIAS CRUZADAS O CRUCE DE NORMAS Para identificar los requisitos comunes entre las normas NTC-ISO/IEC 17025:2005, ISO 14001 e ISO-OHSAS 18001 se utilizará el enfoque de alineación de las similitudes de las normas expuesto por Wilkinson & Dale [25] y que se complementa con la el cruce de las referencias cruzadas de cada norma [24]. Es necesario aclarar que, para implementar un sistema integrado de acreditación y certificación como el que se está planteando, la norma base para el sistema de gestión es la NTC-ISO/IEC17025, debido a su rigurosidad y exigencia, por ser una norma de Acreditación. Para esto, se generó una matriz de interrelación de normas en la cual se puede observar que existen relaciones entre los requerimientos de cada uno de los sistemas de gestión y que por ende es posible dar cumplimiento y conformidad con una sola evidencia. A continuación se extraen de la matriz algunos cruces como ejemplos para mostrar la similitud que permite la integración de los sistemas de gestión: •••• El numeral 4.2.2. de la norma NTC-ISO/IEC 17025 coincide con el numeral 4.2 de las normas NTC- OHSAS 18001 Y NTC- ISO 14001. Esta coincidencia se evidencia en el requerimiento de políticas de gestión que enmarquen la responsabilidad de la alta dirección con la implementación del sistema de gestión. Cada una de las políticas tiene requerimientos específicos a su campo de aplicación. Sin embargo, estas políticas se pueden integrar en una sola misión de la gerencia que permita generar estrategias que satisfagan los requerimientos de las tres normas. •••• El numeral 5.2.1 de la norma NTC-ISO/IEC 17025 coincide con el numeral 4.4.2 de las normas NTC- OHSAS 18001 Y NTC-ISO 1400. En estos numerales se hace énfasis a la competencia del personal que interviene en cualquier actividad que afecte de manera positiva o negativa el sistema de gestión. Además, la norma NTC-ISO/IEC 17025 exige que la organización tenga personal directivo y técnico que permita satisfacer las exigencias de la norma internacional en las actividades de gestión y técnicas del laboratorio. Adicionalmente, el numeral 5.2.2 de la norma NTC-ISO/IEC 17025 complementa el requerimiento con la responsabilidad de la dirección de identificar las necesidades de formación de su persona. •••• El numeral 4.3 de la norma NTC-ISO/IEC 17025 coincide con el numeral 4.4.5 de las normas NTC- OHSAS 18001 Y NTC-ISO 14001. En estos numerales se hace énfasis en el control, por medio de procedimientos de aprobación y emisión, de la documentación que hace parte del sistema de gestión. Adicionalmente, el numeral 4.3.3 de la norma NTC- ISO/IEC 17025 complementa los requerimientos de las otras dos normas con la exigencia de la revisión y aprobación de los cambios en los documentos ya aprobados. •••• El numeral 4.15, 4.15.1 y 4.10 de la norma NTC- ISO/IEC 17025 coincide con el numeral 4.5 y 4.5.1 de las normas NTC-OHSAS 18001 Y NTC-ISO 14001. En estos numerales se hace evidente la formulación y ejecución de métodos que permitan verificar la eficiencia del sistema de gestión. En la norma NTC-ISO/IEC 17025 se deben implementar los objetivos de la calidad y hacer el seguimiento de éstos con el fin de garantizar la mejora continua del sistema de gestión. •••• El numeral 4.9 de la norma NTC-ISO/IEC 17025 coincide con el numeral 4.5.3.2 y 4.5.3 de las normas NTC-OHSAS 18001 Y NTC-ISO 14001respectivamente. En este requerimiento se exige a la organización el control de no conformidades. Adicionalmente, el numeral 4,11, 4.12, 412.1, y 4.12.2 de la norma NTC-ISO/IEC 17025 complementa los requerimientos de las otras dos normas con la implementación de las acciones correctivas y preventivas. •••• El numeral 4.11.5 de la norma NTC-ISO/IEC 17025 coincide con el numeral 4.5.5 de las normas NTC- OHSAS 18001 Y NTC-ISO 14001. En estos numerales se hace énfasis en la importancia de las auditorías internas como mecanismo de mejora al sistema de gestión, debido a que éstas permiten identificar no conformidades o desvíos que ponen en duda el cumplimiento de las políticas y procedimientos establecidos para cumplir las normas internacionales. •••• El numeral 4.15 de la norma NTC-ISO/IEC 17025 coincide con el numeral 4.6 de las normas NTC- OHSAS 18001 Y NTC-ISO 14001. En estos numerales se evidencia el compromiso que debe existir por parte de la alta dirección en la
  • implementación de un sistema de gestión que integre tres normas internacionales. Además, es necesario que la revisión por la dirección genere esquemas de mejoramiento continuo por medio del ciclo PHVA. De los aspectos, requisitos y relaciones comunes evidenciadas en los tres sistemas de gestión se destacan: •••• la responsabilidad del sistema de gestión integrado recae únicamente en la dirección de la organización. •••• se debe nombrar un representante de la calidad que haga seguimiento a los tres sistemas de gestión de manera integrada. Adicionalmente, en la norma NTC- ISO/IEC 17025 se solicita una dirección técnica como complemento del sistema de gestión de calidad. •••• se definen y formulan políticas y procedimientos como evidencia del compromiso de la dirección con el sistema de gestión. •••• se definen requisitos de documentación e implementación de procedimientos, manuales y registros o formatos. •••• se establece como requisito la competencia del personal que interactúa en las actividades de ensayo o en las actividades del sistema de gestión. Esta competencia se puede establecer sobre la base de una educación, una formación, una experiencia apropiada y/o habilidades demostradas. •••• se establecen estrategias de mejora continua y auditorias al sistemas de gestión •••• Revisiones por la dirección y gestión del desempeño. 4.2 MAPA DE PROCESOS Para identificar los procesos se seguirá la metodología expuesta por Puri [26], en la que se plantea que la integración es un conjunto de directrices con tres componentes generales: 1. Gestión de la responsabilidad, 2. Gestión de los procesos y, 3. Sistemas de apoyo. De esta manera, lograr generar un sistema de gestión genérico y estándar que se pueda evaluar todo el sistema con auditorias genéricas [27]. Adicionalmente, Jørgensen, Remmen & Mellado [24] recomiendan que para la integración de los sistemas de gestión es necesario utilizar el enfoque basado en procesos y mejora continua utilizado en la norma ISO 9001. Para implementar un sistema de gestión integrado es necesario que la alta gerencia identifique el mapa de procesos de la organización. Esto permite conocer de manera detallada cada uno de los componentes que hacen parre de los procesos de dirección, realización y apoyo que permiten general el bien o servicio prestado. Teniendo en cuenta que el Laboratorio de Ingeniería Civil tiene como misión la prestación de servicios académicos, de investigación y externos, como lo describe la política de calidad, el enfoque por proceso que le aplica es el de una organización de servicios. En el Gráfico 1 se puede observar el mapa de procesos del Laboratorio de Ingeniería Civil en donde se evidencia la cadena de valor del servicio del laboratorio y los procesos involucrados en ésta. Para esto, se tuvo en cuenta la identificación de los procesos comunes de la gestión [1] de los sistemas y la definición del input y output. Gráfico 1. Mapa de Procesos Fuente: el autor La gestión basada en procesos es un principio clave del Sistema de Gestión Integrado para el Laboratorio. Esto se debe a que se diseña una estructura para lograr y mantener el cumplimiento, medir el funcionamiento y mejorar constantemente la eficacia del sistema de gestión integrado. CONCLUSIONES • La integración de los sistemas de gestión permite generar mecanismos de control bajo una sola gestión. Además, se resalta beneficios como la unificación de la documentación, reducción de los costos de implementación, menor resistencia al cambio y mayor eficiencia en la gestión, entre otros. • Es posible integrar el sistema de gestión de calidad acreditable ISO/IEC 17025 con los sistemas de gestión certificables ISO 14001 e ISO-OHSAS 18001. Esto es posible debido a los requerimientos similares que tienen estas normas internacionales que facilitan la compatibilidad de estos es una sola gestión. • Lo requisitos comunes que permiten la integración de estos sistemas de gestión son: el mejoramiento S C IDE RE ELCO SO R I R S
  • continuo (basado en el ciclo PHVA), los requerimientos de documentación, los registros, las políticas la planificación, la responsabilidad de la dirección, el control operacional, la comunicación, las auditorias, las acciones preventivas y correctivas y el representante por la dirección, entre otros. • La decisión de implementar sistemas de gestión está relacionada a las necesidades específicas y generales que viene cada organización. Sin embargo, para implementar un sistema integrado de gestión es necesario que la alta gerencia esté involucrada en todos los procesos de la organización para garantizar la asignación de los recursos e incentivar los compromisos de los empleados. • Aunque es posible integrar los requerimientos comunes entre las norma de acreditación y certificación, es necesario tener en cuenta los requerimientos específicos que tienen la ISO/IEC 17025. Esto se debe a que los estándares de acreditación son dinámicos debido a la naturaleza de las pruebas realizadas en los laboratorios. • La integración de los sistemas de gestión se debe realizar teniendo en cuenta la necesidad de generar sinergia en todo el mapa de procesos de la organización. De esta manera, la alta dirección se asegura que no se genere un sistema de gestión con fines de acreditación o certificación (esto es sólo un reconocimiento) sino que por el contrario, se evidencia la necesidad del mejoramiento continuo. • La estructura documental debe estar dirigía a soportar los requerimientos de cada una de las normas que se quieren integrar. Para el caso de los laboratorios, es necesario identificar los requerimientos de gestión y técnicos que tiene la norma ISO/IEC 17025, debido a que es sencillo integrar los requisitos de gestión de ésta norma con los requisitos de las normas de certificación ISO 14001 e ISO-OHSAS 18001. • Este trabajo formuló las directrices, lineamientos y parámetros generales para integrar los sistemas de gestión ISO/IEC 17025, ISO 14001 e ISO-OHSAS 18001.Para esto, se tuvo en cuenta el enfoque por procesos como herramienta para identificar los procesos misionales, de operación y de apoyo. LISTA DE REFERENCIAS [1] Castillo, D. M. & Martínez J.C. (2006). Enfoque para combinar e integrar la gestión de sistemas. Bogotá, Colombia: ICONTEC. [2]Labodova A. (2004). Implementing integrated management systems using a risk analysis based approach. Journal of Cleaner Production 2004, 12, 571-80. [3] García, M (2003). Sistemas Integrados de Gestión. Revista UNE. Ed. 170 pág. 53-56. [4] Moreno, A. & Valenzuela, G. (2005) Bases para Implementar un Sistema de Gestión Ambiental bajo la Norma ISO 14001: El Caso de la Empresa de Cables de Acero S.A.PRODINSA. Universidad Santiago de Chile, Santiago, Chile. [5]Manresa, R.G. & Godoy, L. P. (2009). Integration of Environmental Management System and Occupational Health and Safety Management System. Instituto de Investigaciones en Normalización, Universidad de la Habana. Cuba. [6] Rivera, C. & Rodríguez R. (2006). Modelo de integración de ISO/IEC 17025 en un sistema ISO 9001. Investigación presentada en el simposio de metrología, Chihuahua, México. [7]Spilka, M., Kania A. & Nowosielski, R. (2009).Integración de sistemas de gestión los logros de los Materiales e Ingeniería de Fabricación. Universidad Tecnológica de Silesia. Pages 44-100. Recuperado el 12 de abril de http://translate.google.com.co/translate?hl=es&langpair=e n%7Ces&u=http://www.journalamme.org/papers_vol35_2 /35213. [8] Zeng S.X., Shi, J. B., & Lou, G.X. (2007). A synergetic model for implementing an integrated management system: an empirical study in China. Journal of Cleaner Production, 15, 1760-1767. [9]Dessler, G. (1992). Organisation Theory: Integrating Structure and Behaviour, 2nd Edition, Prentice-Hall International, London. [10] Garvin, D. (1991). How the Baldridge Award really works. Harvard Business Review, 11-12. [11] Rocha, C. (2001). Product-oriented environmental management systems (POEMS). Proceedings of 7th European Roundtable on Cleaner. Lund, Sweden. 2–4. [12] Riemann, C. & Sharratt, P. (1995). Survey of industrial experiences with environmnetal management. In Environmental Management Systems, Institution of Chemical Engineers, Rugby. [13] Shillito, D. (1995). Grand unification theory-should safety, health, environment, and quality managed together or separately? Environmental Protection Bulettin 039, Institute of Chemical Engineers. [14] Tranmer, J. (1996) Overcoming the problems of integrated management systems. Quality World. 22/10, pag: 714 - 718. [15] Beechner, A.B. & Koch, J. E. (1997). Integrating ISO9001 and ISO14001. Quality Progress. 30, pag. 33- 36. [16] Wilkinson, G. & Dale, B.G. (2000). Models of management system standards: a review of the integration issues. International Journal of Management Reviews, 1/3, pag. 279-298.
  • [17] Gilbert, M.J. (1993). Achieving Environmental Management Standards: A step by step guide to meeting BS7750, UK. [18] Jordan, K. (1995). A practical approach to implementing BS 7750 in the chemical industry. In Environmental Management Systems, Institution of Chemical Engineers, Rugby. [19] Sunderland T. J. (1997). Environmental management systems and certification: do they add value. In ISO 14001 and Beyond, Greenfield Publishing, Sheffield. [20] Zwetsloot, . (1995). Improving cleaner production by integration into the management of quality, environment and working conditions. Journal of Cleaner Production. 3: 61-66. [21] Massey, G. (1996). Tasman holds the combination to management systems. Quality World, 22/10. [22] Tranmer, J. (1996) Overcoming the problems of integrated management systems. Quality World. 22/10, pag: 714 - 718. [23] Crowe, T. J. (1992). Integration is not synonymous with flexibility. International Journal of Operations and Production Management, Vol. 12/10. [24] Jørgensen, T.H., Remmen, A. & Mellado, M.D. (2006). Integrated management systems - three different levels of integration. Journal of Cleaner Production;14/8, pag:713-722. [25] Wilkinson, G. & Dale, B.G. (2002) An examination of the ISO 9001:2000 standard and its influence on the integration of management systems. Production Planning & Control.13(3), pag: 284-297 [26] Puri, S.C. (1996). Integrating environmental quality with ISO 9000 and TQM. Portland, OR: Productivity Press; 1996. [27] Stanislav, K. (2002), Strategies for the integration of management systems and standards. The TQM Magazine.14(1). pag:61-67. BIBLIOGRAFIA • Karapetrovic, Stanislav. & Willoborn, W. (1998). Integration of quality and environmental management systems. The TQM Magazine.10(3). pag:204-213 • Jørgensen, T. H. (2001): Miljøledelse – systemer, standarder og praksis [Environmental Management – Systems, Standards and Practice]. Skriftserie 277. Department of Development andPlanning, Aalborg University. • Bernardo, M., Casadesus, M., Stanislav, K. & Heras (2010).An empirical study on the integration of management system audits Journal of Cleaner Production, Volume 18, Issue 5, pag: 486-495 1 adrianocanoc@egresados.uniandes.edu.co 1 jacevedo@uniandes.edu.co 1 ma.jimenez57@uniandes.edu.co
  • ANÁLISIS DEL IMPACTO DE LA BUROCRACIA EN EL DESEMPEÑO DEL PROGRAMA DE INGENIERÍA INDUSTRIAL EN BOGOTÁ D.C. Manuel Jiménez1 , Adriano Cano2 Facultad de Ingeniería, Universidad de los Andes, Bogotá, Colombia Resumen Este artículo presenta algunos de los resultados de la aplicación de los modelos de regresión lineal en la relación Burocracia y Desempeño Estudiantil; el estudio fue realizado en 24 instituciones de educación superior en Bogotá que ofrecen la carrera de Ingeniería Industrial en la modalidad presencial. La amplia definición de Burocracia puede distorsionar los resultados, para esto se realizó un estudio de igualdad de medias e igualdad de varianzas para identificar el ranking en calidad educativa de los establecimientos frente a su estructura organizacional. Palabras claves: Modelo de regresión lineal, Calidad educativa, Burocracia. 1 INTRODUCCIÓN Este artículo presenta una aplicación de un modelo de regresión lineal en la relación Burocracia y Desempeño Estudiantil (una variable en función de la otra). El estudio se realizó en 24 instituciones de educación superior que ofrecen ingeniería industrial bajo la modalidad presencial. Utilizando los resultados de la prueba Saber Pro (ECAES) del segundo semestre del año 2009 se realizó análisis estadísticos, cuadros comparativos cualitativos y un ajuste lineal que permitió analizar la relación existente entre las variables que componen la investigación. Particularidad principal de este estudio es la metodología, parte de la cual culmina con la conformación, construcción y comparación de conceptos con el fin de ofrecer a cada una de ellas un panorama sobre los posibles factores que influyen en calidad educativa en relación a su estructura burocrática. El artículo finaliza con la justificación entre la estructura burocrática y el desempeño estudiantil. Reconocimiento especial a la existencia de un equilibrio, y al especial cuidado en la interpretación de los conceptos relacionados que incluyen salarios, años de experiencia docente, diferencia entre entidades privadas y públicas y diferencia por carácter académico. Este artículo está divido en cuatro secciones, a parte de esta introducción. La siguiente sección presenta las primeras formulaciones sobre la relación entre burocracia- rendimiento estudiantil; la sección tercera expone la metodología, las principales variables utilizadas y la definición del modelo; la cuarta sección se ocupa de la presentación de los resultados divididos en: un análisis con variables cuantitativas, un análisis con variable cualitativas, y finaliza con la relación de un cuadro comparativo y análisis estadísticos. Por último, el documento culmina con las conclusiones que incluyen contribuciones, limitaciones y direcciones para futuras investigaciones. 1.1 Burocracia y Desempeño Estudiantil La formulación de esta primera perspectiva se intensificó con el reporte de investigación publicado por James Coleman, Sally Kilgore y Thomas Hoffer en 1982 con base en una evaluación nacional de aprendizaje de los estudiantes que finalizaban la escolaridad obligatoria (Fernández, 2002). La investigación titulada “High School Achievement: Public, Catholic and Private Schools Compared” mostró los siguientes resultados: 1) las escuelas privadas tenían mejores resultados que las públicas una vez que el nivel sociocultural de las familias era controlado, y 2) dentro de las escuelas privadas se destacan particularmente las escuelas católicas por ser más efectivas y equitativas (Fernández, 2002). Por consiguiente, el estudio de la efectividad de las escuelas públicas y privadas llevó a Jhon Chubb y Terry Moe (1990) a intentar explicar por qué las escuelas privadas parecen ser mejores que las escuelas públicas. La hipótesis sostenía que las causas de desarrollo de estos factores de efectividad se encontraban en las fortalezas de los mecanismos de control y regulación de las escuelas americanas (Fernándes, 2002). En un estudio previo Chubb y Moe (1988) encontraron que las escuelas públicas y privadas son diferentes distintivamente tanto en ambiente como en organización. Además, arguyen que es más probable que las escuelas
  • privadas posean las características, creencia generalizada, para producir efectividad. Este argumento se deriva desde su creencia que el contexto ambiental ha generalizado consecuencias para la organización y operación de todas las escuelas, y específicamente de las principales diferencias entre ambientes públicos y privados (y así entre escuelas públicas y privadas). Por tanto, derivado de su método característico de control social, Chubb y Moe (1988), argumentan que las escuelas públicas están subordinadas en un sistema jerárquico de política democrática, mientras que las escuelas privadas son autores altamente autónomos “controlados” por el mercado. En su libro de política educativa “Politics, Markets and America’s Schools” se sintetiza un conjunto de estudios cuantitativos. Mediante sucesivos modelos de regresión argumentaron y suministraron evidencia de que empíricamente y teóricamente es demostrable que las escuelas privadas llegan a ser efectivas dado que están sometidas al mercado; esto quiere decir que si un padre de familia no está conforme con la elección de la escuela puede tomar la decisión de retirar a sus hijos y matricularlo en una de su satisfacción. Por otro lado, las escuelas públicas no tenían los rasgos propios de las escuelas eficaces porque estaban sujetas a fuertes restricciones administrativas por parte de los consejos y superintendentes. (Chubb & Moe, 1990. Citado en Fernández, 2002). Pero los mecanismos de control de tipo político que gobiernan las escuelas públicas, sorprendentemente terminaban por incrementar la burocracia y la lucha de poderes corporativos gremiales que, a largo plazo, impedían desarrollar medidas correctivas o mejoramientos. (Chubb & Moe, 1990. Citado en Fernández, 2002). Por otro lado, basados en la investigación de Chubb y Moe (1990), surgió una investigación titulada “Bureaucracy and Organizational Performance: Causalty Aruments about Publics Schools”. Esta investigación hace una crítica a los resultados encontrados por Chubb y Moe. En resumen, Chubb y Moe (1990) argumentan que a nivel institucional, las organizaciones burocráticas no pueden responder a las demandas de los padres y, por tanto, la burocracia “causa” el bajo desempeño estudiantil. Sostienen también que las características del sistema de las escuelas públicas (particularmente su estructura burocrática y la gobernabilidad democrática) las hacen una organización ineficaz que deprime el rendimiento estudiantil (Chubb & Moe,1988; 1990). En contraste, Smith and Meier (1995) objetan que un bajo rendimiento escolar es probable que responda con nuevos programas y estos esfuerzos generarán más burocracia para coordinar las reformas. El crecimiento burocrático, en otras palabras, señala que el sistema escolar está respondiendo a las demandas del entorno. Teniendo en cuenta las afirmaciones de los autores mencionados, Meier, Polinard & Wrinkled (2000), usando siete años de datos panel de más de 1000 distritos escolares, encontraron que la burocracia tiene poco impacto sobre el desempeño estudiantil en años futuros. Desempeño pobre, sin embargo, resultó en crecimiento burocrático en años subsecuentes. Y adicionalmente, el análisis reveló que el crecimiento en burócratas estuvo también asociado con un crecimiento en profesores en relación a estudiantes y clases más pequeñas. 2 METODOLOGÍA 2.1 Modelo de Regresión Lineal Como Proceso de Modelación Los modelos de regresión lineal son modelos utilizados ampliamente por los economistas, los cuales tienen como objetivo la medición económica. En consecuencia, los análisis econométricos, mediante los modelos de regresión lineal, inician con declaraciones de una proposición teórica. Un modelo (o teoría) nunca pueden ser realimente confirmados a menos que se haga tan amplia que incluya toda posibilidad; pero esto puede ser sometido investigación más rigurosa en el caso de comprobar evidencia contradictoria que haya sido refutada. (Greene, 2008). El proceso del análisis econométrico proviene desde la especificación de las relaciones teóricas. Inicialmente se procede sobre el supuesto optimista que se puede obtener medidas precisas sobre todas las variables en un modelo especificado correctamente. Si la condición ideal se cumple en cada paso, los análisis siguientes probablemente serán rutina (aunque según Greene (2008), esto raramente se cumple). Tomando el modelo de Meier, Polinard & Wrinkled (2000), y teniendo en cuenta la restricción que relaciona el número de observaciones y el número de variables, se propuso los siguientes modelos: (1)
  • (2) Donde TS = Tasa de estudiantes que se encuentran por encima de la media de Bogotá D.C en los resultados ECAES 2009; BR (Burocracia) = Tasa de personal administrativo por cada 100 estudiantes. Esta tasa específicamente ajusta por tamaño organizacional considerando la burocracia en relación del número de estudiantes (or task size) (Meier, Polinard & Wrinkled, 2000); ST = Salario promedio de los profesores de tiempo completo; SC = Salario de los profesores de cátedra; AE = Años de experiencia de los profesores; CA = Variable dumie que indica el carácter de la institución (Escuela tecnológica, Institución universitaria y Universidad); O = Variable dumie que indica el origen de la institución (es decir, si la IES es pública o privada); K = Variable dumie que indica el número de estudiantes que presentaron la prueba ECAES (SABER PRO), (Se clasifica en cuatro categorías: de 1 a 50, de 51 a 100, de 101 a 150 y de 150 en adelante). En general, la teoría económica sugiere que salarios más altos deberían atraer mejor personal calificado para una profesión (Hanushek & Pace, 1995. Citado en Meier, Polinard & Wrinkled, 2000). Por esta razón, se usa la medida del salario promedio de los docentes de tiempo completo y el salario de los profesores de cátedra. Los profesores son muy importantes para el éxito estudiantil. Por este motivo, se espera que cuanto mayor experiencia de los profesores habrá un mayor ambiente de aprendizaje para los estudiantes. (Meier, Polinard & Wrinkled, 2000). La medida de años promedio de experiencia se espera que se relacione positivamente con el desempeño estudiantil. (Meier, Polinard & Wrinkled, 2000). Los modelos de regresión son afectados frecuentemente por problemas de heteroscedasticidad y autocorrelación. Si estos problemas no son tenidos en cuenta, los resultados de la prueba de significancia global y la prueba de significancia individual estarían arrojando resultados erróneos y por tanto, estaría llevando a conclusiones equivocadas. Se realizará estudios para conocer si el modelo adolece de estos problemas y luego se controlarán utilizando las herramientas de los modelos econométricos. 2.2 Herramientas de Análisis Como Método de Modelación Existen algunos programas computacionales que son ampliamente usados para el análisis de modelos econométrico (los modelos de regresión lineal son los del interés de esta investigación). Conceptualmente, un paquete estadístico es un programa informático específicamente diseñado para el procesamiento de datos con el objetivo de resolver problemas de estadística descriptiva o inferencial. (Guillén, 2006). El software utilizado para el procesamiento de los datos es el programa SAS System. Una vez se ha obtenido el modelo, la metodología a seguir dentro de la herramienta de análisis, es la siguiente: Recolección de datos, Gestión y calidad de los datos, Diseño de la base de datos, Codificación de términos de la base de datos y Depuración de la base de datos. 3 RESULTADOS Y DISCUSIÓN La hipótesis sugiere que los programas de pregrado (educación presencial) en Ingeniería Industrial en Bogotá D.C. con mayor aparato burocrático tienen mejor desempeño. Por falta de observaciones se realizó el análisis en tres partesLa hipótesis sugiere que los programas de pregrado (educación presencial) en Ingeniería Industrial en Bogotá D.C. con mayor aparato burocrático tienen mejor desempeño. Por falta de observaciones se realizó el análisis en tres partes : (3) (4) Analizando la matriz de correlaciones se observó que dos variables independientes tenían alta correlación (LnST y Ln SC). Es decir, el modelo tenía problemas de multicolinealidad que fue corregida utilizando componentes principales. Adicionalmente, se contrastó problemas de heteroscedasticidad, autocorrelación y el modelo no mostró ninguno de estos problemas. Las pruebas de endogeneidad no arrojan resultados por falta de observaciones.
  • 3.1 Modelo con Varibles Cualitativas Tabla 1. Relación burocracia y desempeño estudiantil, la prueba t se encuentra en paréntesis Variables dependientes Tasa de estudiantes Burocracia Variables Independientes Parámetro Error estánda r Parámetro Error estánda r Prin1 -0.29133 0.02379 -0.28178 0.01707 (-12.25) (-16.50) Años de experiencia 335.509 0.27583 324.762 0.15318 (12.16) (21.20) Tasa de estudiantes NA NA -0.96291 0.07452 (-12.92) Burocracia -103.234 0.07989 NA NA (-12.92) R cuadrado 0.9947 0.9983 F 62.51 192.56 Error estándar 0.00198 0.00185 Número de casos 5 5 En la tabla 1 se aprecia que a un nivel de significancia entre el 5% y el 8% todas las variables resultan significativas. La relación entre los años de experiencia y el desempeño estudiantil es positiva como se esperaba. Adicionalmente y a manera de predicción, se observa que si se incrementa los años de experiencia en 1% el desempeño aumentará en 3.35%. Lo contrario ocurre con la variable burocracia, ésta muestra que si se incrementa en 1% la relación personal administrativo-estudiantes el desempeño estudiantil se disminuirá en 1.03%. Por otro lado, para la segunda relación se observa que a un nivel de significancia entre del 5% todas las variables resultan significativas para el modelo. La relación entre la variable relacionada con burocracia sigue siendo negativa, es decir, a manera de pronóstico, si se incrementa en 1% el desempeño estudiantil la burocracia disminuirá en 0.96%. Lo contrario ocurre con los años de experiencia, con incrementos en 1% en esta variable se esperaría que la burocracia se incremente en 3.24%. Por la noción de Burocracia, existen varios conceptos que no son fácilmente medibles (meritocracia, fuentes de dominación, poder y autoridad, etc.), y por tanto, el modelo puede adolecer de problemas de endogeneidad. La endogeneidad sesga los modelos, y este sesgo puede observarse incluso en los signos. Adicionalmente, en la tabla 1 se observa que la variable Prin1 (Primer componente principal que incluye el salario) tiene un valor negativo, lo que puede indicar que tanto el salario promedio como el salario de los docentes de cátedra están relacionados negativamente con el desempeño y con la burocracia. Pero, analizando las observaciones de la primera componente principal se aprecia que dos instituciones tienen relación positiva con el salario (docentes tiempo completo y cátedra). Tabla 2. Variable componente principal Observación Prin1 1 -0.61974 2 1.52319 3 1.52319 4 -1.21332 5 -1.21332 Se observa en los últimos dos valores de la tabla 5 (observaciones 4 y 5), la relación parámetro-componente principal “Prin1” tiene un efecto positivo sobre las variables dependientes, para este caso la burocracia y el desempeño estudiantil. Estas dos entidades son las que mejor desempeño tienen de la muestra de 5 observaciones. Esto confirma que salarios más altos atrae a mejor personal calificado para una profesión y por tanto, mejor será el desempeño de una institución. (Hanushek & Pace, 1995. Citado en Meier, Polinard & Wrinkled, 2000). Vale aclarar que para este modelo la muestra –aunque estadísticamente medible- es no representativa para toda la población; los datos suministrados no poseen instituciones de origen público. Adicionalmente, se conoce que en los modelos de regresión los parámetros cambian al incluir nuevas variables. El separar el análisis en un modelo con variables dumies y otro modelo con variables cuantitativas puede generar que los estimadores se sesguen y no arrojen los resultados correctos. 3.2 Modelos con Variables Cualitativas (5)
  • La tabla 3 muestra los resultados de las variables dumies del modelo. El intercepto captura el valor de la variable omitida, para este caso se omitió las instituciones no oficiales, universidades y la categoría de 101 a 150 de estudiantes que presentaron el examen de estado ECAES (SABER PRO) para el segundo semestre del año 2009. Tabla 3. Regresión con variables dummies. La prueba t se encuentra en paréntesis. Variable dependientes: Tasa estudiantes Variables Independientes Parámetro Error estándar Universidades no oficiales. Rango de estudiantes que presentó la prueba: 101- 150. 7.315.646 1.483.291 (4.93) Rango 1 -50 -496.715 1.267.778 (-0.39) Rango 51 - 100 -1.213.881 1.240.092 (-0.98) Rango > 150 583.249 1.430.229 (0.41) Escuelas tecnológicas -1.926.788 2.404.222 (-0.80) Instituciones universitarias -58.398 1.155.168 (-0.51) Origen IES: Oficial 3.419.161 1.434.206 (-2.38) R cuadrado 0.3792 F 1.73 Error estándar 49.080.333 Número de casos 24 Los resultados muestran que para el caso del número de estudiantes que presentaron la prueba, con un p-value superior a 30% se concluye que no existe evidencia estadística para rechazar la hipótesis nula y por tanto, no existe diferencia significativa en el desempeño estudiantil en esta categoría. Lo mismo sucede con el carácter de la institución, con un p-value superior al 40% se concluye que no se rechaza la hipótesis y por tanto, no existe diferencia significativa en el desempeño entre instituciones universitarias, universidades o escuelas tecnológicas. Adicionalmente, el origen de la institución (si es pública o privada) arroja resultados contrarios a los anteriores, con un p-value de 2.91% se concluye que existe evidencia estadística para rechazar la hipótesis nula y por tanto, las instituciones públicas y privadas tienen desempeños diferentes. Para este caso, las instituciones públicas, en promedio, tienen un desempeño superior al de las universidades privadas, la diferencia entre instituciones públicas y privadas es aproximadamente del 34.19%. Estos resultados pueden estar afectados porque son 3 las instituciones públicas en Bogotá mientras que 21 instituciones son privadas. Las instituciones privadas en su mayoría tienen bajo desempeño estudiantil lo que afecta sus resultados a nivel general, en los que se incluyen instituciones con alto desempeño y varios años de funcionamiento en el mercado académico. Pero independientemente del número de instituciones oficiales y no oficiales, con los resultados de la tabla 3 se confirma lo argumentado por Chubb y Moe (1990), Smith y Meier (1995) y Meier, Polinard y Wrinkled (2000). Chubb y Moe (1990) afirman que las escuelas públicas no son eficientes porque están subordinadas en un sistema jerárquico de política democrática y mayor burocracia. Por su parte, Smith and Meier (1995) objetan que un bajo rendimiento estudiantil responde con nuevos programas y, estos esfuerzos generarían más burocracia para coordinar las reformas; por tanto, el crecimiento burocrático señala que el sistema educativo está respondiendo ante las demandas del entorno. Por lo anterior, si las instituciones públicas poseen una mayor burocracia, que sorprendentemente termina por incrementarse a largo plazo, puede significar que las instituciones públicas están respondiendo a las demandas del entorno y por tanto, estos esfuerzos ayudan a aumentar el desempeño estudiantil. Con los resultados de la tabla 3 se confirma que las instituciones con mayor burocracia (para este caso las instituciones públicas) tienen un mejor desempeño.
  • 3.3 Análisis de Promedios y Desviaciones Estándar A continuación se realizará un análisis comparativo de algunas de las universidades visitadas. Esta fue la información que se logró recolectar para realizar la caracterización del problema utilizando la metodología VIPLAN. Como se aprecia en la figura 4, las instituciones con mayor desempeño estudiantil poseen una estructura jerárquica mayor. Esto a su vez está relacionado con mayor división del trabajo, rutina procedimental, carácter de oficina, súper y subordinación y asignación de salarios como características burocráticas mayormente obser- vables. Tabla 4. Relación estructura burocrática-desempeño estudiantil Desempeño estudiantil Relación burocracia 90.4761905 Director-coordinador- asistente-secretaria 85.3535354 85.078534 80.5755396 56.097561 Director-coordinador- secretaria50 27.6119403 Director-secretaria22.7272727 21.7391304 11.764705 Las últimas cuatro filas de la figura 4 muestran las instituciones con menor desempeño estudiantil. Estos establecimientos poseen una estructura burocrática mucho menor (casi lo debido para ejercer sus funciones). La jerarquía director-secretaria muchas veces incluye al decano de la facultad, los decanos de los departamentos son los mismos directores del programa. Adicionalmente, los establecimientos con mejor desempeño y a su vez mayor aparato burocrático poseen, en sus niveles jerárquicos más bajos, mayor personal contratado para ejercer sus funciones. Es decir, en los niveles de asistentes y secretarias tienen más de 2 o 3 personas contratadas para cada uno de estos niveles. Lo contrario ocurre con los establecimientos con desempeños menores (y aparato burocrático menor), únicamente se tiene al director y una secretaria para realizar sus funciones -incluida la atención a estudiantes-. Dentro de la figura 4 se encuentran dos filas con color gris, estos establecimientos poseen una estructura burocrática media (comparada con los demás establecimientos). Observando la relación de estos establecimientos se aprecia que poseen un desempeño estudiantil medio. Esto puede rectificarse con el análisis comparativo que relaciona la media de cada institución con respecto a la media de Bogotá, y el mismo análisis se realiza con la desviación estándar. Tabla 5. Prueba de igualdad de medias. La prueba t se encuentra en paréntesis Variable dependiente: Promedio IES Variables Independientes Parámetro Error estándar Promedio Bogotá 1.003.928 0.17451 (575.27) Uno 1.046.244 11.196 (9.34) Dos 707.942 0.64777 (10.93) Tres 933.911 0.48183 (19.38) Cuatro 730.252 0.76471 (9.55) Cinco 10.424 0.81049 (1.29) Seis 0.11386 0.88649 (0.13) Siete -1.727 0.73766 (-2.34) Ocho -185.008 187.958 (-0.98) Nueve -183.436 132.012 (-1.39) Diez -0.32795 149.397 (-0.22) Once -324.132 103.523 (-3.13) Doce -220.905 220.141 (-1.00) Trece -31.025 0.77812 (-3.99)
  • Catorce -485.644 265.239 (-1.83) Quince -262.755 0.8267 (-3.18) Dieciséis -687.053 109.449 (-6.28) Diecisiete -438.324 183.863 (-2.38) Dieciocho -471.777 0.69358 (-6.80) Diecinueve -520.242 0.67194 (-7.74) Veinte -63.128 0.7837 (-8.06) Veintiuno -554.139 0.93165 (-5.95) Veintidós -619.247 0.81685 (-7.58) Veintitrés -612.764 112.838 (-5.43) Veinticuatro -808.442 107.869 (-7.49) R cuadrado 0.194 F 50.5 Error estándar 7.705.211 Número de casos 2530 Los resultados de la tabla 5 permiten apreciar que 17 de las 24 universidades tienen promedios diferentes con respecto a la media de Bogotá. Las primeras cuatro instituciones tienen un promedio superior (por significancia estadística) a la media general, mientras que el restante tienen promedio por debajo de la media general como lo indica el valor del parámetro. Este valor indica la diferencia con respecto al grupo de referencia. Por otro lado, para las 7 instituciones restantes los resultados indican que no se rechaza la hipótesis y por tanto, sus promedio son significativamente iguales al promedio de Bogotá. Al comparar los resultados de la tabla 4 con los resultados de la tabla 5 se aprecia que numéricamente las instituciones resaltadas en gris tienen un promedio superior al del grupo de referencia, pero los resultados de la prueba de igualdad de media muestra que son estadísticamente iguales. (Las instituciones resaltadas en gris corresponden a los números Cinco y Seis). Para conocer la calidad educativa de estas instituciones se realizó la prueba de igualdad de varianzas como se muestra en la siguiente tabla. Tabla 6. Prueba de igualdad de varianzas Intervalo Número IES Varianza Prueba (F) >que (F) < que 1 637.374.447 149.310.535 0.75865017 1.385.288.055 2 580.255.077 164.008.423 0.847839332 1.196.955.206 3 796.847.677 119.428.998 0.882967819 1.140.502.052 4 648.868.642 146.665.617 0.824336311 1.239.535.009 5 69.674.994 136.586.621 0.815401252 1.256.883.011 6 51.387.169 185.195.491 0.800881989 1.286.580.413 7 435.725.547 218.409.778 0.829686632 1.229.464.792 8 680.518.779 13.984.437 0.641047482 181.435.191 9 623.109.498 152.728.726 0.724857786 1.480.683.891 10 582.641.081 163.336.783 0.697267319 1.572.601.365 11 54.944.632 173.204.763 0.773550796 1.348.158.315 12 441.813.983 215.399.973 0.59868057 20.681.883 13 421.750.089 225.647.184 0.821704468 1.244.574.759 14 547.072.655 173.956.273 0.545126421 2.539.913.767 15 459.068.798 207.303.829 0.812271267 126.312.307 16 734.109.563 129.635.581 0.763040671 1.374.062.813 17 438.998.316 216.781.515 0.64671957 1.785.803.195 18 57.324.024 166.015.421 0.83851426 1.213.345.148 19 504.638.279 188.584.029 0.842899716 1.205.557.745 20 568.984.656 167.257.094 0.820613075 1.246.681.669 21 475.794.408 200.016.474 0.792435068 1.304.778.733 22 565.627.149 168.249.915 0.814170772 1.259.325.833 23 48.963.291 194.363.406 0.757124368 138.924.707 24 570.644.287 166.770.652 0.765822435 1.367.076.111 Los resultados de la tabla 6 muestra que para las instituciones Cinco y Seis se rechaza la hipótesis de igualdad de varianzas y por tanto, la desviación de éstas instituciones son estadísticamente menores en comparación de la desviación estándar de Bogotá. Por consiguiente, aunque estas instituciones poseen un desempeño “bueno” sus resultados están relacionados con claras posibilidades de mejoramiento de la calidad educativa. Por lo tanto, se comprobó que, si bien, numéricamente los resultados mostraban que estas instituciones tenían resultados deseables, en realidad la significancia
  • estadística muestra que están en proceso de mejoramiento. Esto confirma que su aparato burocrático es menor en comparación de las instituciones con altos desempeños. Hasta este punto, los resultados de la tabla 4 junto con los análisis de igualdad de medias y de varianzas permiten verificar que los establecimientos educativos con resultados satisfactorios, en calidad educativa, son los que tienen mejor desempeño y una estructura burocrática mayor. A continuación, y después del análisis de los resultados, se presentarán las conclusiones de este documento dividas en Contribuciones, limitaciones y direcciones para futuras investigaciones. 4 CONCLUSIONES Las contribuciones particulares de esta investigación sobre burocracia, desempeño estudiantil, modelos de regresión, análisis comparativos y estadísticos son las siguientes: • Esta investigación permite clasificar al programa de ingeniería industrial de una universidad de Bogotá en el ranking de calidad educativa evaluado mediante el análisis de igualdad de promedios e igualdad de desviaciones estándar. Con esta clasificación, el programa puede conocer cómo está su entorno y de esta manera, realizar la predicción de los valores de su desempeño sobre la base del conocimiento de los valores que puede tomar las variables explicativas (burocracia, salarios, especialización, etc.) • El estudio sobre la igualdad de medias y la igualdad de varianzas permite observar que las instituciones con bajos desempeños tienen estadísticamente una baja calidad educativa. Esto quiere decir que de la mayoría de los estudiantes presentaron resultados inferiores a los del promedio del país. Por tanto, estos resultados son una clara señal en relación con el mejoramiento de los procesos educativos de la institución. A su vez, este análisis confirma los resultados del análisis comparativo en relación con la burocracia. Esto quiere decir, que las instituciones con menor desempeño tienen menor estructura burocrática, las instituciones con mayor desempeño tienen mayor estructura burocrática, y las instituciones con desempeño medio tienen un aparato burocrático menor en comparación con las instituciones con altos resultados. Los análisis de regresión lineal tienen supuestos y decisiones importantes a la hora de modelar. Varios aspectos de interés concernientes a la información y por tanto, la realización de análisis son las siguientes: • La población total “instituciones que ofrecen Ingeniería Industrial en Bogotá” es muy pequeña, son 24 universidades las que ofrecen la carrera en educación presencial. Esta limitación evita que se agreguen variables que pueden ser de interés para estudiar el impacto de éstas tanto en la burocracia como en el desempeño estudiantil. Finalmente, teniendo en cuenta las contribuciones y limitaciones de esta investigación, las direcciones para futuras investigaciones son las siguientes: • Si se posee un tamaño de población mucho mayor, y teniendo en cuenta que la unidad de medida son las instituciones, se puede analizar el impacto de todas las variables inidentificadas por Meier, Polinard & Wrinkled. Por otro lado, se pueden analizar los estudiantes (como unidad de medida) en la relación que tienen las variables de primer, segundo y tercer nivel en el desempeño estudiantil consideradas por Valencia (2005). • Existen otros medidas de desempeño organizacional, si los trabajadores de los niveles jerárquicos más bajos son los mayores afectados por la burocracia, se puede pensar en la “satisfacción laboral” como medida de desempeño organizacional. De esta manera, se puede pensar en observar cómo se relaciona la burocracia con la satisfacción de los trabajadores. • Al tener un tamaño de población mayor con datos medibles en años anteriores, es factible realizar un análisis en datos panel para conocer si la burocracia es una causa o una consecuencia de los altos o bajos desempeños de las organizaciones. Adicional a este estudio, es necesario realizar un análisis con estudio de estructuras causales “dinámica de sistemas” para verificar si un modelo en datos panel puede establecer relaciones causales entre las variables de interés.
  • 5 REFERENCIAS [1] Chubb, J. & Moe, T. (1988). Politics, Markets, and the Organiza-tion of Schools. The American Political Science Review, 82, (4): 1065-1087. [2] Fernández, T. (2002). De las “escuelas eficaces” a las reformas de segunda generación. Revista Iberoamericana de Educación, 1-26. [3] Greene, William. (2008). Econometrics Analysis (6ta Ed.). Bogotá, Colombia: Universidad de los Andes. [4] Guillén, A. (2006). Procesamiento de datos: paquetes estadísticos. SEDEN, 49-64. [5] Meier, K., Polinard. J. & Wrinkle. R. (2000). Bureaucracy and Organizational Performance: Causality Argument about public schools. American Journal of Political Science, 1-24. [6] Purkey, S. & Marshall, S. (2010). Effective Schools. U.S. Department of Education, National Institute of Education, Educational Resources Information Center (ERIC), 1-70. [7] Smith, K. & Meier, K. (1994). Politics, Bureaucracy and Schools. Public Administration Review, 54: 551- 558. 1 ma.jimenez57@uniandes.edu.co 2 adrianocanoc@egresados.uniandes.edu.co
  • ANÁLISIS DE LOS FACTORES QUE INCIDEN EN EL NIVEL ACTUAL DE IMPLEMENTACIÒN DEL SISTEMA DE GESTIÓN (ISO/TS16949) EN EMPRESAS DEL SECTOR AUTOPARTISTA Nelson Vladimir Yepes González, John Jairo González Bulla UAN, Regional Bogotá – Facultad de Ingeniería Industrial- Universidad Antonio Nariño 2012 Resumen Las normas ISO 9000 han tenido gran acogida en todos los sectores de la industria. Sin embargo, el sector automotriz, adoptó la especialización de esta norma en una específica para el sector, debido a que los fabricantes las consideraban insuficientes para asegurar sus requisitos. ISO/TS 16949 [1] ha sido concebida por la propia industria, a través del grupo de trabajo internacional sobre el sector automotriz IATF (International Automotive Task Force), para alentar mejoras en la cadena de suministro. La norma es exigida a nivel internacional y cómo Colombia acaba de firmar un Tratado de Libre Comercio (TLC) con los Estados Unidos, se hace necesario que los productores de autopartes la acojan en sus procesos de producción. La pregunta que surge es: ¿Cómo se encuentra la industria en la adopción de estándares de Calidad como la ISO/TS 16949? Palabras claves: Calidad, competitividad, certificación, ISO/TS 16949 1 INTRODUCCION La aplicación de estándares internacionales de Calidad, han tenido un gran desarrollo a nivel mundial. La norma con mayor acogida es la ISO9000, pero en la industria automotriz el estándar de mayor aceptación ha sido la ISO/TS 16949. China y Estados Unidos son los dos principales líderes en contar con mayor número de certificaciones [1]. (Ver gráfico No.1) Gráfico No.1.Certoificaciones ISO/TS 16949 Vs Carros producidos (2008) Fuente: F Franceschini*,MGaletto, D A Maisano, and L Mastrogiacomo El estándar internacional ISO/TS 16949 eliminó las cargas de redundancia, costo y administración impuestas por las normas anteriores definidas en varias regiones geográficas. En última instancia, reemplaza a QS-9000 y diversas normas europeas de gestión de calidad, debido a los mandatos de los principales fabricantes de automóviles (Lin, 2004; Bayati y Taghavi, 2007) [2]. China por ejemplo, ha desarrollado una mayor profundización de artículos y publicaciones de carácter científico en torno al estándar. No se debe desconocer su desarrollo tecnológico en el sector automotor y el que ocupen el primer puesto a nivel mundial en el mercado de reposición y fabricación de autopartes, Como lo define un artículo de la Universidad de Lanzhou [3]. China empezó a competir con los productos importados que contaban con el estándar, factor que se ha convertido en la elección inevitable de las empresas para mejorar la competitividad En nuestro continente, las cifras presentadas por el Grupo de Trabajo Automotriz Internacional (IATF), presentan que hasta el año 2008 Colombia tenía 80 certificaciones ISO/TS 16949, ocupando el tercer puesto, primer puesto Brasil con 1037 certificaciones y el segundo Argentina con 238 La investigación tiene como propósito, analizar los factores que inciden en la baja implementación del sistema de gestión ISO/TS 16949 en las empresas
  • fabricantes de autopartes en la ciudad de B fin se ha obtenido una muestra de 67 emp al cual se le aplicó un instrumento d permita conocer los factores que implementación. Se presentan los resulta un análisis de las variables estudiadas, p algunas conclusiones y recomendaciones fortalecimiento de la calidad del sector. 2 METODOLOGIA El estudio se desarrolla en dos etapas. Du etapa y mediante la metodología de Participativa (IP) [4] se procede al ac organismos de carácter público y privad transformación productiva del Ministerio Comercio, instituto Colombiano de N (Icontec), Asociación Colombiana Autopartes (Acolfa) y Asociación del sec sus partes (Asopartes) dando a conoce recibiendo sugerencias que condujeron a una encuesta para los fabricantes del sec de Bogotá, que permitiera determina implementación de los sistemas de gestión especial con el estándar ISO/TS 1694 encuestadas). En este sentido, para Hall (1 de investigación debe estar basado en discusión, indagación y análisis, en el que formen parte del proceso al mismo investigador. Las teorías no se desarroll para ser comprobadas o esbozadas por e partir de un contacto con la realidad. describe mediante el proceso por el cual crea sus propias teorías y soluciones sobre 3 RESULTADOS Colombia cuenta con empresas na extranjeras certificadas de acuerdo a estándares internacionales, como la norm experiencia en manejo de las tres tecnolo europea y asiática. Entre las empresa destacan Good Year, Michelin, Yazak Vitro, Dana, Dupont, entre otras. En Colombia, las empresas aut comercializan productos a las en constructoras cuentan con el estándar ISO ser un requisito exigible de la gran e cumplimiento del estándar no se prese cadena desde el proveedor primario. Para el estudio, se encuestaron sesen empresas ubicadas en la ciudad correspondientes al CIIU D343 fabrica piezas y accesorios (autopartes) Bogotá. Para este presas del sector, de encuesta, que inciden en su ados obtenidos y ara culminar con s que permitan el urante la primera la Investigación cercamiento con do (Programa de o de Industria y Normas técnicas Fabricantes de ctor automotor y er el proyecto y la realización de ctor en la ciudad ar el grado de n de calidad y en 49 (67 empresas 1983) el "proceso n un sistema de e los investigados o nivel que el an de antemano, el investigador a La realidad se l una comunidad e sí misma". acionales como los más altos ma TS 16949, con ogías: americana, as extranjeras se ki, Saint Gobain, topartistas que nsambladoras ò O/TS 16949, por empresa, pero el enta en toda la nta y siete (67) d de Bogotá, ación de partes, para vehículos automotores, con un total de 3 Las primeras preguntas conocimiento y adopción de l las empresas del sector (ver gr Gráfico No.2. Adopción d Calidad Fuente: Elaboración propia Encontramos que el conocim sistemas de gestión de Calida empresas no reconocen siste Esto obedece a la falta de ma de sistemas de gestión de cali deficiente especialización de en especial en la pequeña emp El modelo de gestión m organizaciones del sector e segundo lugar se presenta ISO/TS 16949 (13%). La sistemas de gestión de cali ocupacional, sistemas de segu son aplicadas por las organiza Por otra parte, existe poca clientes, en el cumplimien solamente un 29% de las em de gestión de Calidad. El producto, sin importar la ad calidad en las organizaciones porcentaje mínimo de empre estándar internacional ISO/T interés en su adopción (58%). Lo anterior permite definir, por parte del cliente al exig 33 preguntas. obedecen al grado de los estándares de Calidad por ráfico No.2) e sistemas de Gestión de miento de las empresas en ad es del 60%, un 40% e las emas de gestión de Calidad. ayor difusión en la adopción dad para las empresas, y a la la mano de obra del sector, presa. más implementado por las s la ISO9001 (49%) y en la adopción del estándar implementación de otros idad como ambiental, salud uridad en la información, no aciones objeto de estudio. a exigencia por parte de los nto de normas de calidad, mpresas se les exige sistemas cliente exige calidad del dministración del sistema de s proveedoras. A su vez, un esas tienen conocimiento del TS 16949 (27%), pero existe . que existe desconocimiento gir productos con base en la
  • certificación de calidad. Hace falta una m orientada al consumidor final en la autopartes para reposición que cumplan ISO/TS 16949. Su conocimiento está d gran empresa y a las empresas que de piezas a constructoras ò ensambladoras. La segunda parte del estudio, pretende empresas cuentan con elementos estruc permita adoptar el estándar ISO/TS 16949 El 30% de las empresas cuenta con esenciales para el desarrollo del sistem Calidad con base en el estándar. Un gra empresas (70%), no presentan estructur definida, planeación estratégica ó plan d gráfico No.3). Gráfico No.3. Condiciones estructurales Fuente: Elaboración propia El 30% de las empresas cuentan con la re la dirección para llevar a cabo el sistema lidad, pero el 70% no tiene delimitada y autoridad y responsabilidad de los emplea 4) Grafico No.4. Responsabilidad de la direc Fuente: Elaboración propia mayor divulgación a exigencia de con el estándar direccionado a la esean proveer de e conocer si las cturales que les 9. las condiciones ma de gestión de an porcentaje de ra organizacional de negocios (Ver esponsabilidad de de gestión de ca- y documentada la ados (Ver gráfico cción Un componente importante, los recursos, dónde el 70% con planes escritos para forma planes de mantenimiento p desarrollan acciones para m empleados. (Ver gráfico 5) Grafico No.5. Gestión de recu Fuente: Elaboración propia Al realizar el producto, se e empresas no realizan dise suministrado por las casas ma las empresas (79%) no des producción, no documentan e exigen certificación de cali controlan la calidad de los pr tampoco hacen uso de las h calidad. (Ver gráfico 6) Gráfico No.6. Realización de Fuente: Elaboración propia se presenta en la gestión de de las empresas no cuentan ación de personal, carecen de programado, cómo tampoco mejorar el bienestar de sus ursos encontró que un 17% de las eño de producto, este es atrices, Un gran porcentaje de arrollan planificación de la especificaciones técnicas, no dad a sus proveedores, no rocesos de fabricación, cómo herramientas estadísticas de producto
  • En medición, análisis y mejora, el 20% de las empresas cumplen con auditorías internas para verificar el funcionamiento interno, indicadores de gestión para medir el desempeño, procedimientos para la mejora de procesos y procedimientos para el uso de material defectuoso. (Ver gráfico 7) Gráfico No.7. Medición, análisis y mejora Fuente: Elaboración propia Como resultado de la identificación de las necesidades expuestas anteriormente, se establece la definición de una herramienta informática con la cual se puedan controlar aspectos importantes en la implementación y el mantenimiento del sistema de gestión de calidad ISO/TS 16949. Este software se basa principalmente en el control de los documentos, que controlan requerimientos específicos del sector autopartista como lo son el Diagrama de flujo, el AMEF (Análisis de modo y efecto de falla) y el plan de control. El sistema de información contiene cuatro módulos principales de acuerdo al gráfico 8. Gráfico No. 8. Contenido del software Fuente: Elaboración propia El módulo para control documental, cuyo objetivo principal es controlar los documentos en cuanto a realización, revisión, aprobación, cambios y copias (Ver gráficos 10 y 11). Contiene permisos de acuerdo a usuario y contraseña definida en los permisos (Ver gráfico 9). Grafico No. 9. Pantalla de apertura Fuente: Elaboración propia Gráfico No. 10. Lista de documentos Fuente: Elaboración propia Gráfico No. 11. Control de cambios Fuente: Elaboración propia
  • El módulo para control de registros (Ver gráfico 12) controla aspectos como la identificación, el orden, los tiempos en archivo activo e inactivo, responsables y conexión con el documento principal, el cual puede visualizar el registro asociado. Grafico No. 12 Control de registros Fuente: Elaboración propia En el módulo de elaboración de PPAP (Proceso de aprobación de partes para producción), se pueden elaborar el diagrama de flujo, el AMEF y el plan de control, los cuales son documentos necesarios para que el autopartista acceda a los mercados de las ensambladoras (Ver figura 13) Gráfico No 13 Diagrama de proceso Fuente: Elaboración propia El módulo Balanced Scorecard, pretende satisfacer la necesidad de seguimiento al sistema de gestión ISO/TS 16949 a través del uso de indicadores de gestión básicos, las gráficas de estos indicadores, se podrán generar en Excel por medio de la herramienta ODBC (Conexión abierta de base de datos) 4 CONCLUSIONES El estándar de calidad ISO/TS 16949, está orientado a la gran empresa, La mayoría de empresas que comercializan sus productos a las ensambladoras ò constructoras, elaboran sus productos bajo normas internacionales y tienen sus procesos de gestión certificados en ISO 9000, ISO 14000, TS-16949, EAQF, entre otras normas. Los factores que inciden en el bajo nivel de implementación del estándar ISO/TS 16949 en las PYMES son: • Falta de conocimiento del productor y el cliente • Poco personal calificado • Falta de divulgación y concientización del estándar para toda la cadena, presentando los beneficios. • Poca exigencia en el cumplimiento del estándar para toda la cadena productiva Un gran porcentaje de empresas, que pudieran estar en el 70% del total, no aplican sistemas de gestión de Calidad, lo cual las hace vulnerables frente a los procesos de competitividad a nivel global. De igual manera, la exigencia en el cumplimiento de estándares de calidad no se presenta en toda la cadena productiva. Falta una mayor ilustración al consumidor final, en especial al adquirir piezas de reposición y que estas cumplan con estándares de calidad. Falta profundizar en investigaciones dirigidas en presentar los beneficios . ¿Por qué es importante que las Pymes adopten el estándar de Calidad ISO/TS 16949? Un estudio realizado por Bakhtiar Ostadi, et al.(2010) en Irán, sobre el impacto de la aplicación del estándar ISO/TS 16949 en la industria automotriz , donde
  • participaron 57 compañías, permitió demostrar a través de los resultados que la adopción de la norma trae para las industrias ayuda significativa en el estado de mejorar la organización, un mejor control de calidad, una mayor capacidad de competir en las ventas, verificación del sistema de auditoría interna. Los efectos de los beneficios de la ISO son también estadísticamente significati- vos. Con una actitud más positiva, la implantación de ISO podría llevar a más compañías en mejorar la organización y la gestión [5] Investigaciones futuras, pueden explicar las barreras en la adopción ò razones de las empresas que son reacias en adoptar las normas de gestión de calidad. También es interesante identificar tecnologías que permitan ayudar a las organizaciones en realizar una fácil adaptación de los estándares de calidad. La adaptación de sistemas de información puede contribuir con la implementación y el mantenimiento de un sistema de gestión de calidad, al facilitar el control de los requerimientos básicos de la norma referencial. 5 REFERENCIAS [1] F Franceschini*, MGaletto, D A Maisano and L Mastrogiacomo (2010), “ISO/TS 16949: analysis of the diffusion and current Trends” En linea http://pib.sagepub.com/content/225/5/735.abstract [2] Lin, W.-T., Liu, C.-H., Hsu, I-C., & Lai, C.-T. (2004). An Empirical Study of QS 9000 in the Automobile and Related Industries in Taiwan. Total Quality Management, 15(3), 355–378 [3] Universidad de Lanzhou, (2011) “La norma ISO / TS 16949 de gestión de la calidad en el sistema de planificación y estudio de caso de importación” ,En línea: http://cdmd.cnki.com.cn/Article/CDMD-10730- 1011139834.htm#cankao [4] Durston John y Miranda Francisca (2002) “Experiencias y metodología de la investigación participativa” CEPAL; Chile En línea: http://www.eclac.cl/publicaciones/xml/4/10204/lcl1715- p.pdf [5] Bakhtiar Ostadi, Mohammad Aghdasi, Reza Baradaran Kazemzadeh,” The impact of ISO/TS 16949 on automotive industries and created organizational capabilities from its implementation”, Vol 3, No 3 (2010) p494-511 [Online]: http://jiem.org/index.php/jiem/article/view/152
  • State of Knowledge Analysis to certification criteria for professional engineers Case Study in Colombia, United States, Canada, Guatemala, Honduras, El Salvador O. A.. Vásquez Bernal National Distance Open University, Bogotá, Colombia School of Basic Science, Technology and Engineering, Industrial Engineer Program. (ovasquezbernal@gmail.com) Abstract Free trade agreements signed and under negotiation between Colombia and the countries of North and Central America, aimed at reducing and eliminating barriers to free movement of professionals to develop businesses that generate profits for each of the parties, this requires the security professional meets minimum requirements in line with international standards. The recognition of certifications, licenses among countries with respect to education and professional experience, standards of conduct and professional ethics is essential to ensure free mobility. This paper aims to develop the document review to unify criteria for certification and recertification of engineering and the impact of the free trade agreements concluded between Colombia, United States, Canada, El Salvador, Guatemala and Honduras. Keywords Professional Certification, Recertification Training, Professional Registration, Free Trade, Professional Practice, Professional Experience 1 INTRODUCTION Currently, business development for the exchange of goods and services have gone beyond the physical boundaries of the villages, the need to understand and manage the new ground rules for doing business has required to structure the corporate vision transforming prospectively. The analysis of the business has changed and whatever phenomenon is happening in different parts of the world, affects decision making for local businesses, regional and transnational. Economic liberalization has helped to foster these changes and act proactively to analyze and take the appropriate actions to respond to these phenomena requires receiving and maintaining a qualified staff that flexibility and foresight are necessary virtues for economic development companies. The need for international conventions and the development of free trade agreements, which are essential in a business environment increasingly competitive, it is necessary to ensure that the skills and competence of our professionals in engineering is consistent with international standards to compete with professionals from other latitudes. This paper aims to develop the document review and criteria for the unification of certification and recertification of engineering and the impact of the free trade agreements concluded between Colombia, United States, Canada, El Salvador, Guatemala and Honduras. 2 METHODOLOGY The research strategy was framed in the analysis of the state of the knowledge of certification and recertification to conceptualize the unification of criteria applied to engineering professionals in Colombia, Canada, United States, El Salvador, Guatemala and Honduras, to that end, A descriptive study required by the analysis and conceptualization of information concerning the
  • mechanisms for certification and recertification. This entails descriptive study to answer the question regarding the impact of certification and recertification of Colombian engineering professionals facing the economic globalization in terms of intellectual capital between Colombia, United States, Canada, El Salvador, Guatemala and Honduras, study that will be supported with the information collected and analysis of the specific component of intellectual capital (if any) within the free trade agreements concluded or to be concluded between these countries. TABLE 1 RELATIONSHIP BETWEEN THE METHODOLOGY AND RESEARCH QUESTIONS ACTIVITY ACCORDANCE WITH THE RESEARCH QUESTION COMMENTS Analysis of legal regulations on certification and recertification in Colombia and international regulations What are the mechanisms for the unification of criteria for certification and recertification between Colombia, United States, Canada, El Salvador, Guatemala and Honduras? Analysis was developed the legal regulatory environment and / or policy on certification and recertification in Colombia. Similarly to take into account the specific rules between Colombia, United States, Canada, El Salvador, Guatemala and Honduras and established their correlation Review of the professional component in the Free Trade Agreements in relation to the Professional and / or professional skills What is the impact of certification and recertification of Colombian engineering professionals against economic globalization in terms of intellectual capital between Colombia, United States, El Analysis was developed for the specific component (if any) within the free trade agreements concluded or to be concluded between Colombia, United States, Canada, El Salvador, Guatemala and Honduras Salvador, Guatemala and Honduras? TABLE II DETAILS OF THE METHODOLOGY STUDY DETAILS COMMENTS Type of Study: Descriptive Study. The study aimed to look at the documentation related to the Certification and Recertification of professional engineering in the international context and developed interaction with Colombian law. This created a product that conceptualized on the criteria for certification and recertification between Colombia, United States, Canada, El Salvador, Guatemala and Honduras. Variables: It was noted and reviewed relevant documentation to the certification and recertification, with regard to legal rules and regulations Colombian and United States, Canada, El Salvador, Guatemala and Honduras were analyzed professional component of free trade agreements between Colombia, United States, Canada, El Salvador, Guatemala and Honduras were reviewed supporting material that experts have developed in the field of professional higher education and skills model to design the plan for certification and recertification Participants: Documental Study Legal Documentation: decrees and laws in Colombia on professional certification, codes of ethics, framework documents of treaties or developing free trade agreement between Colombia, United States, Canada, El Salvador, Guatemala and
  • Honduras, standards and international regulations issued by professional associations in these countries, as well as professional councils and associations in Colombia Instruments: Collection of secondary information in professional associations and professional advice in Colombia. Consult the documents and regulations issued by the Ministry of Commerce, Industry and Tourism in relation the Free Trade concluded or under way between Colombia, United States, Canada, El Salvador, Guatemala and Honduras Method of análisis data Direct observation was made and developed block diagrams that schematically the interrelationships of information and analysis of the laws and regulations on certification and recertification. This created a concept of these tests 3 RESULTS Below are the results of tests on the research questions (See Table I), by the description of the processes of certification and recertification in Colombia, United States, Canada, Guatemala, El Salvador and Honduras, supported by diagrams and dialog boxes to help organize information relevant to understanding the information about the activities carried out as the analysis of legal regulations concerning the certification and recertification in Colombia and the international regulation on the Revision of the Treaties professional component Free Trade in relation to the Professional and / or professional skills. Regulations on Certification and Recertification Training in Colombia To analyze the issue about the rules governing certification and recertification in Colombia, we must take as its starting point the right to education is provided in the Constitution of Colombia. The National Ministry of Colombia is responsible for setting national education policy and track of higher education institutions and universities to direct efforts to the implementation of the decrees and laws that protect the realization of the right to education. The university itself has a responsibility to develop the Institutional Education Project which frame the guidelines for quality assurance program offered. Moreover, the university collects and analyzes information through the alumni, the productive sector, regional and international market on the implementation of curricula, as a result is generated Institutional Educational Project with the administrative component framed structure, foundation, educational, curricular and community, which set the guidelines for universities to cover the whole of society. Colombian universities provide the professional engineering title, then the newly graduated engineer must perform the procedures for obtaining professional tuition Engineering Professional Councils.[3] These councils must comply with the guidelines and code of ethics of professional engineering, are obligated to document review, approval and issuance of Professional Registration. This document is essential to legally exercise the profession. The councils do not perform professional engineering recertification, also have a scale to indicate levels of experience and expertise of engineering professionals. To perform engineering activities abroad, the practitioner must complete the formalities with the Ministry of Education and the Ministry of Foreign Affairs to grant a work permit in different countries abroad. Professional activities in different countries, are governed by the regulations of each state (in case of federal states) or the regulations of each province. Regulations on Certification and Recertification U.S. Pro In the U.S. the process of certification and recertification is governed by NCEES National Council of Examiners for Engineers and Surveing [11] which is responsible for awarding licenses for engineering professionals to develop their professional activities under the regulations of each state. Given the conditions of federal law, each state has the rigorous guidelines required to establish the procedures and requirements that the professional engineering must meet. In Florida for example F.B.P.E. Florida Board of Professional Engineer, Engineering [8] takes the Chapter 471 which established the guidelines and regulations for engineers professional activity under development may affect their job, the integrity of the user, the tangible and constructive, that is why, specialties such as construction, structures,
  • electrical, mechanical, control and fire protection, are set to priority under the regulatory control. Importantly, each specialty is regulated independently because the requirements are different and the inspection and control parameters are different. The recertification of professionals is low given the demand for professional license renewal, therefore, the certifications of experience and specialized studies in the area become important so that professional engineering profession can continue working in the state. Regulations on Certification and Recertification Training in Canada In Canada, the Charter provides in Section 92 [9]to the provinces exclusive powers to issue laws benefiting special needs gives each province. Within these requirements, labor regulations. The rules of Professional Engineers (Professional Engineer Act) establishes the parameters for the functioning of the professional engineering committee, the granting of professional licenses and all regulations related to the procedure for obtaining, renewing and professional licensing. The entity that monitors the implementation of this rule is the CCPE Canadian Council Professional Engineer) and with the participation of the Canadian Accreditation Board of Engineering (CEAB) is responsible for everything related to the updating of legislation and enforcement of regulations for professional licensing in the Canadian provinces. Each province has control associations responsible for licensing and monitoring the profession is being developed based on the requirements and demands set. The practitioner should comply with the guidelines issued by associations in their CPD (Continuing Professional Developer Program or Program License Application guide or license). Programs must be accredited based on Canadian guidelines also a certified experience for certification as the renewal of certification (recertification) Regulations on Certification and Recertification Training Northern Triangle of Central America (Guatemala, Honduras, El Salvador) In Central America, the professional certification from the fact ensure that university programs are accredited and give the guarantee that graduates meet professional guidelines and professional requirements. There is an approach to the integration of processes leading to the work done by academy and those in which professional advice. The local development councils and regional professional accreditation of architecture and engineering programs which gestated a multilateral agreement of professional associations in Central America, led to the creation of the Central Accreditation Agency of Architecture and Engineering Programs. ACAAI supported by the Accreditation System Federated College of Engineers and Architects of Costa Rica SACFIA. In Costa Rica the sustained support in the development of accreditation processes of architecture and engineering programs with the Canadian Accreditation Board of Engineering (CEAB) to validate programs and their relationship with international requirements (in this case under Canadian guidelines) determines that the Costa Rican university programs are meeting international standards established under agreements with Canada under the "substantially equivalent". This experience moved to the Central Accreditation Agency of Architecture and Engineering Programs. ACAAI [4] strengthens the development of processes and procedures in compliance with international standards. The manual developed by the agency does not indicate the recertification process. Moreover, the creation of this agency agreement will strengthen understanding and agreements to allow mobility among member countries of Central America. Impact of certification and recertification of Colombian engineering professionals facing the economic globalization in terms of intellectual capital between Colombia, United States, El Salvador, Guatemala and Honduras A free trade agreement is a regional or bilateral trade agreement to expand the market for goods and services between the participating countries. Basically, is the elimination or substantial reduction of fares on goods between the parties, and agreements on services. This agreement is governed by the rules of the World Trade Organization (WTO) or by mutual agreement between participating countries. An FTA does not necessarily lead to economic integration, social and regional policy, such as the European Union, the Andean Community, MERCOSUR and the South American Community of Nations. Although these were created to promote trade, also included provisions for tax and budget policy and the movement of people and common political bodies, missing elements in an FTA. These trade agreements pave the way for understanding among stakeholders in the generation of agreements on different topics. Provide legal security and international law to negotiate agreements that benefit both
  • parties. Compliance with the constitutions of the countries negotiating a free trade agreement, strengthening bonds of understanding and communication between the parties and the creation of partnerships are key elements in the development of these agreements. With regard to the impact of free trade agreements in force between Colombia and the countries of Central American Northern Triangle (Guatemala, Honduras, El Salvador) [5] and signed by Colombia, the United States and Canada, observed the following similarities: Unification of criteria for recognition of experience and ability to provide professional services. Promote areas of understanding for the generation of conventions and agreements of mutual benefit for the exchange of professional information and experience certified. The treaties only open the way for the discussion and generation of agreements, each country must respect the relevant regulations for licensing professionals. Career mobility is established through the generation of agreements and conventions to determine compliance with regulations similar parameters among countries that develop them. Figure 6 is the diagram that explains the interaction and impact of free trade agreements with regard to professional recognition. 4. DISCUSSION Based on tests on relevant information to the processes of certification and recertification and the topics discussed in the existing free trade agreements and treaties between countries of the Central American Northern Triangle (Guatemala, Honduras and El Salvador) United States and Canada respectively, can establish a frame of reference that places the issue of unification and certification and recertification criteria and their effect with the free trade of these countries. In developing the analysis from the activities aimed at ensuring the quality of education in meeting "voluntary" standards to organize educational management in universities, in the case of Colombia to the certification process by granting the professional registration by a Professional Board for Engineering and make a comparison with other countries of study are tangible differences such as: • In the countries of Central American Northern Triangle (Guatemala, Honduras, El Salvador) specifically to the Central Agency Accreditation Program of Architecture and Engineering ACAAI provides a manual for the accreditation of programs in engineering and architecture which involves support of the Central American countries, ensuring academic mobility between these countries • In Colombia the Ministry of National Education is responsible for giving the educational revolution and promote the sustained improvement of education, however there is no interaction with Engineering Professional Councils or with the productive sector of goods and services. • In Canada and the United States given its federal system, have similarities in the regulations relating to professional licensing, which affects the ease of mobility of professionals in the various provinces and states. • In the U.S. the sectorization of occupations by level of importance and requirement that the responsibility for human integrity and material and financial cost, the licensing and intrinsically specified professional specialization in the applied field. • The ongoing renewal of professional licenses you grant the necessary requirement for professional development through the development of specialized training or expertise. With regard to the analysis done and signed treaties in force between the countries of study, there was similarity in the recognition of licenses and professional degrees by noon and conventions and agreements between these countries. Free Trade Treaties establishing bridges of communication with the control bodies for the development of agreements and conventions. The fulfillment of these agreements must be made in compliance with current regulations among member countries of the treaty. 5. CONCLUSION Unification and criteria for certification and recertification of the Colombian professional engineering under the impact of free trade agreements can be concluded: • Establish coordination between the actors that determine the engineer's professional quality (Ministry of National Education, Universities, Professional Councils engineering, industrial sector) that energizes the professional certification process in Colombia.
  • • Replicate the certification processes of academic programs to encourage recertification granting the importance of engineering activity. • Carry out a review of professional standards in Canada and the United States with Colombian professional standards and adapt professional license for those engineering activities that may infringe on the integrity of the individual and the monetary loss of goods and services. 6 REFERENCES [1] UNESCO IESALC Informe sobre la educación superior en América Latina y el Caribe. 2005 http://www.slideshare.net/guest241d8e/unesco-iesalc- informe-sobre-la- educacion-superior-en-amrica- latina-y-el-caribe-2005-la-metamorfosis-de-la- educacion-superior [2] Villada Osorio Diego, Zarur Miranda Xiomara, Rama Vitale Claudio, Malo Álvarez Salvador, Jaramillo Héctor Fabio, Bolívar Rafael, Lopera Palacio Carlos Mario, Yarce Jorge, Forero Robayo Carlos Hernando, Ramírez Carlos Augusto, Martínez Gómez Rafael. Proyecto: La Certificación y Recertificación Profesional CONTRATO MEN-ASCUN No. 543/08 [3] Ley 842- 2003 Por la cual se modifica la reglamentación del ejercicio de la ingeniería, de sus profesiones afines y de sus profesiones auxiliares, se adopta el Código de Ética Profesional y se dictan otras disposiciones. Extractado de http://www.copnia.gov.co/mas_informacion_acerca_ de_ley_842_de_2003-49_109/ [4] Agencia Centroamericana de Acreditación de Programas de Arquitectura y de Ingeniería, ACAAI. Manual de Acreditación de Programas de Arquitectura y de Ingeniería. Centroamérica Agosto 2009. [5] Tratado de Libre Comercio entre Colombia y El Triángulo del norte de Centroamérica. Ministerio de Comercio Industria y Turismo. Colombia http://www.mincomercio.gov.co/eContent/newsdetail. asp?id=5910&idcompany=1 [6] Tratado de Libre Comercio entre Colombia y Canadá. Ministerio de Comercio Industria y Turismo. Colombia http://www.mincomercio.gov.co/eContent/NewsDetai l.asp?ID=6767 [7] Tratado de Libre Comercio entre Colombia y Estados Unidos. Ministerio de Comercio Industria y Turismo. Colombia. http://www.tlc.gov.co/eContent/newsDetail.asp?id=5 023&IDCompany=37&Profile= [8] 61G15 Florida Administrative Code http://www.fbpe.org/userfiles/file/61G1522510.pdf Chapter 471 Florida Statutes http://www.fbpe.org/userfiles/file/Chapter%20471.pdf [9] Constitution Act 1867 Section 92 http://www.canlii.org/en/ca/const/const1867.html [10] Professional Engineers Act http://www.elaws.gov.on.ca/html/statutes/english/ela ws_statutes_90p28_e.htm [11] NCEES National Council of Examiners for Engineers and Surveing http://www.ncees.org/
  • ANÁLISIS DE IMPACTOS ECOSISTÉMICOS GENERADOS POR LA EXPLOTACIÓN DE LA MINA PALACIO FELIX ORLANDO AMAYA COCUNUBO1 ECBTI, Universidad Nacional Abierta y a Distancia, Bogotá, Colombia Resumen Los desafíos políticos, económicos, culturales y sociales actuales, son un tema de sumo interés, debido a que muchos de estos se han descuidado o se han desarrollado problemas que a diario se vienen convirtiendo en situaciones crónicas que empeoran. Por este motivo, es necesario que las políticas de desarrollo de Colombia sean miradas desde una óptica de planeación, pues nuestro país está en un constante de desarrollo y requiere de procesos complejos y de innovación. Estos deben permitir de cierta forma cambiar los sistemas de administración local, regional y nacional, para tratar de mitigar algunas falencias sociales. Además propender a la transformación de gobiernos que aseguren una participación ciudadana estructurada, que asignen recursos de forma equitativa, con una visión a largo plazo de desarrollo sustentable, a través del aprovechamiento de los recursos disponibles. Lo anterior debe garantizar un desarrollo económico territorialmente más equilibrado, en donde las decisiones que se tomen sean beneficiosas para toda la comunidad y no solo para unos pocos. Es necesario seguir avanzando en el fortalecimiento de la capacidad de adaptación a las circunstancias y realidades de nuestro territorio; a los retos que estos nos presentan y enfocarnos en la responsabilidad que tenemos como ciudadanos para mejorar la calidad de vida de nuestras poblaciones, teniendo en cuenta tanto lo económico como el manejo de nuestros recursos. Sumando a lo anterior, debemos hacer énfasis en las políticas tanto locales como nacionales en donde haya una visión integral de todos los factores que intervienen en el desarrollo de nuestro país; tales como los culturales, naturales, capacidad técnica y científica, empresariales, los mercados y sus relaciones. Palabras claves: Desarrollo, Sustentable, Calidad, Economía, Impacto Ambiental, Biodiversidad. 1 INTRODUCCIÓN El código de minas excluye la minería de los parques naturales nacionales y de reservas de carácter regional, pero ésta no excluye actividades mineras en ecosistemas sensibles de alto valor estratégico por los servicios ambientales prestados como los páramos, humedales y reservas abastecedoras de aguas. Esto denota desarticulación con normas de carácter ambiental, de ordenamiento territorial o de conservación de zonas de interés de tipo ecológico, cultural e histórico. Dichas falencias han llevado a expedir licencias a empresa que no son responsables ni respetan el medio ambiente; y que además, permiten que se exploten áreas como reservas y páramos1 , haciendo que muchos de los recursos naturales presentes en estas zonas se vean peligrosamente afectados. 1 Amplio de tierras altas, que en los Andes se sitúan entre los 10º N y los 8º S, a altitudes comprendidas entre los 3000 y los 4500 m (Chaverri y Cleef, 1997; Luteyn, 1999). 2 OBJETIVO GENERAL Determinar los impactos ecosistémicos causados por la actividad minera de la caliza en el Páramo Palacio. 2.1 Objetivos específicos • Diagnosticar el estado actual del ecosistema de páramo donde se encuentra la mina Palacio, partiendo del análisis de la modificación de cobertura vegetal.
  • • Determinar la afectación de la biodiversidad y fuentes hídricas cercanas a la zona de estudio. • Analizar las acciones correctivas realizadas hasta el momento por la empresa Cemex en la zona afectada por la actividad de extracción de caliza. • Efectuar el análisis social de los impactos generados en la zona de estudio por la explotación de la Mina “Palacio”. 3 PLANTEAMIENTO DEL PROBLEMA Tomando en cuenta que la actividad minera en la zona de páramo genera un alto impacto ambiental2 por la fragilidad del ecosistema, es necesario analizar cuáles son los daños causados a la zona en términos de biodiversidad, fuentes hídricas y cobertura vegetal. A partir de este estudio, se puede generar una propuesta de restauración del ecosistema que propenda a un desarrollo sustentable y que involucre de forma directa a las comunidades afectadas en el proceso de extracción de caliza. 4 JUSTIFICIÓN La minería es una actividad que ha presentado un auge en los últimos años, al considerarse un mecanismo de desarrollo económico y social para el país. Sin embargo, en el ejercicio de expansión de la locomotora minera se han implementado políticas que en muchos casos no velan por el sostenimiento ambiental y ecológico las zonas de extracción, al no realizarse los estudios pertinentes de impacto ambiental ni al hacerse un adecuado seguimiento de la responsabilidad ambiental de las empresas encargadas de la explotación. Lo anterior, se puede traducir en problemáticas sociales que afectan directamente a la población que vive de los bienes ambientales del ecosistema afectado. Este es el caso de la mina Palacio, enfocada en la extracción de piedra caliza, cuyo inadecuado funcionamiento en un ecosistema de páramo, trajo consecuencias negativas en la zona como la reducción de la biodiversidad, cambios en la vegetación circundante y alteración de los caudales de quebradas que abastecen a las poblaciones aledañas. Debido a que esta zona es considerada un área estratégica en términos de servicios ambientales y con relaciones ecológicas frágiles entre cadenas tróficas, es importante revertir estos daños para garantizar un desarrollo sustentable. La investigación pretende hacer un análisis detallado del impacto que dejó la minería en la zona y determinar el estado actual del ecosistema. Este resultado puede contribuir como base a futuras propuestas de restauración que permitan mitigar los impactos generados durante la operación de la mina y que implicaron un costo ambiental, social y económico. 2 El efecto que produce una determinada acción sobre el medio ambiente en sus distintos aspectos. 5 METODOLOGIA El presente trabajo cuenta con dos grandes fases metodológicas: Estado del arte y Estudios sobre el impacto ecosistémico en la zona de estudio. Este proyecto tiene una metodología principalmente cuantitativa, ya que se plantean unas variables de análisis dentro de una matriz, con sus respectivos indicadores e índices, con las cuales se pretende establecer una relación de causalidad que permita deducir el estado actual del ecosistema de páramo. Estas variables son medidas de forma empírica en la fase de campo, en la que se hace un diagnóstico preliminar de la zona a través de un método de registro de observación. Con este paso se busca recopilar una información que permita mostrar de forma general, los impactos directos e indirectos de la explotación caliza. Sin embargo, este estudio tiene un componente cualitativo enfocado a la inclusión de la comunidad en el proceso de evaluación y que además, permite incorporar el análisis social de los impactos generados en la zona de estudio. De este modo, se analiza la relación del ecosistema de páramo con los usos tradicionales del suelo de la comunidad (principalmente de ganadería y agricultura), para establecer su dinámica de funcionamiento y coevolución. Asimismo, para realizar una descripción, interpretación y comprensión de los posibles efectos indirectos de la minería, que pudieron recaer sobre dicha población y alterar su patrón de uso de los bienes y servicios del ecosistema. En el componente cuantitativo se emplea un diseño de trabajo en campo en la zona del páramo Palacio, en que se hace un análisis de observación de la zona de estudio y posteriormente un acopio de la información a través de una matriz de Leopold3 (es importante resaltar que este instrumento puede brindar resultados tanto cuantitativos como cualitativos). Esta herramienta permite determinar las variables más relevantes para una evaluación de impacto ambiental; tales como paisaje, hábitat, suelo, flora – fauna y fuente hídrica y establecer los posibles impactos
  • de cada una de éstas en las categorías ambiental, físico- biológico y socioeconómico (CEGESTI, 2011)4 . 3 Es una metodología que procede a cuantificar los impactos ambientales del proyecto por medio de cálculos, simulaciones, medidas o estimaciones. 4 Implementación de un sistema de gestión basado en resultados (RBM). International Idea. 2011. La herramienta cualitativa que se emplea simultáneamente en la fase de campo es la aplicación de entrevista a profundidad para hacer un primer diagnóstico del impacto ambiental, de acuerdo a la percepción de la comunidad. Además, se busca emplear herramientas de participación ciudadana para el desarrollo de la evaluación, con el fin de hacer una vinculación a otras diversas facetas y derechos ciudadanos, como son el derecho a un ambiente saludable, la gobernabilidad como requisito para la toma de decisiones, la responsabilidad compartida, la transparencia y el respeto por los aportes del público (CIID)5 . Con el uso de herramientas cualitativas y cuantitativas en la fase de campo se busca generar un Estudio de Impactos Ecosistémicos, que permita dejar las bases para un plan de restauración en la zona de la mina Palacio. 5.1 ESTUDIO SOBRE IMPACTOS ECOSISTEMICOS DE LA ZONA AFECTADA En esta fase se realizarán una serie de estudios de campo dirigidos a conocer y determinar los impactos ambientales generados por la actividad de extracción de caliza realizada por la empresa Cemex. 5.2 ESTUDIO LÍNEA BASE DE LA ZONA Para este estudio se tendrá en cuenta la información colectada sobre el estado ambiental de la zona antes de la actividad minera. Para esto se tendrán en cuenta variables como el paisaje, hábitat, suelos, flora, fauna y fuentes hídricas. 5.3 DESCRIPCIÓN Y ANALISIS DE LOS IMPACTOS ECOSISTEMICOS POTENCIALES Para este estudio se tendrá en cuenta la información colectada sobre los impactos ecosistémicos resultantes de la actividad de extracción minera. Para esto se tendrán en cuenta variables como la gestión de las aguas, emisiones a la atmosfera, estabilidad del terreno, flora y fauna. Para realizar este proceso se van a emplear metodologías en campo tanto cualitativas como cuantitativas. La primera corresponde la entrevista a profundidad, a través de la aplicación de una encuesta a la comunidad afectada. Esta herramienta permite hacer un primer diagnostico del impacto, de acuerdo a la percepción de la comunidad. Para la segunda parte del trabajo en campo se aplica una matriz de Leopold para identificar los impactos ambientales ocasionados por la extracción minera de caliza 5 Centro Internacional de Investigaciones para el Desarrollo. 6 RESULTADOS O PRODUCTOS ESPERADOS Diagnostico del estado actual del ecosistema de páramo donde se encuentra ubicada la mina. Comprobar la afectación de la biodiversidad y fuentes hídricas cercanas a la zona de estudio. Plantear las acciones correctivas. Efectuar el análisis social de los impactos generados en la zona de estudio. 7 REFERENCIAS [1] Cardenas, G., & Vargas, O. (2008). Rasgos de historia de vida de especies en una comunidad vegetal alterada en un páramo húmeno (Parque Nacional Chingaza). Caldasia, 245-264.Amaya Nova, Oscar Dario. (2002). La cosntitución Ecologica de Colombia. Bogotá: Universidad Externado de Colombia. [2] Castaño, O., Hernández, G., & Cardenas, G. (2000). Reptiles. Colombia Diversidad Biótica III. Bogotá: Instituto de Ciencias Naturales, Universidad Nacional de Colombia. [3] Cemex. (2010). La Mina Palacio: hacia un futuro sostenible. Recuperado el 7 de Febrero de 2012, de http://www.prediominapalacio.com/index.php?optio n=com_content&view=article&id=66&Itemid=77M ORIN, Edgar (2000). Los siete saberes necesarios para la educación del futuro. UNESCO – MEN - ICFES. [4] Conesa, V. (2003). Guía metodológica para la evaluación del impacto ambiental. tercera Edición. Madrid: Ediciones Mundi-Prensa.9000. Diario de auditoría de gestión, 22 (3), 244-254. Estudios, análisis de impacto, pequeñas y medianas empresas- PYMES, las normas ISO, la gestión ambiental Códigos de Clasificación 9130 Experimento / tratamiento teórico, 9179 Asia y el Pacífico, 9.520 pequeñas empresas, 1540 Control de la contaminación
  • 1 Correspondencia: felix.amaya@unad.edu.co
  • LA ECOEFICIENCIA COMO ESTRATEGIA DE CRECIMIENTO PARA LAS PYMES. William Eduardo Mosquera Laverde1 Facultad de Ciencias Administrativas Económicas y contables, Universidad Cooperativa de Colombia, Bogotá, Colombia Resumen El grupo NOESIS ESTRATEGICA de la Universidad Cooperativa de Colombia especializado en estudiar el crecimiento y permanencia de las PYMES en el tiempo, encontró que uno de los factores que más afecta la permanencia es la falta de implementación de sistemas de gestión y especialmente el de gestión ambiental, por lo tanto, en el presente artículo se desarrolla un reflexión con el objetivo de analizar los puntos débiles ambientales en las pymes, las posibles gestiones correctas a implementar y las estrategias a desarrollar para afrontar los TLC vigentes, el alcance de la investigación está entre las pymes con más de tres años de existencia y entre 15 a 50 empleados, una investigación de tipo cualitativo descriptivo para diagnosticar cómo las pymes enfrentan el deterioro ambiental del planeta, luego se enumeraron las ventajas tangibles e intangibles de ser ecoeficiente a través del desarrollo e implementación de medidas operativas, el cumplimiento de las políticas públicas, el aporte al entorno ambiental, se mostraron algunas herramientas de gestión de se deben adoptar y por último se visualizaron varias empresas ecoeficientes en Colombia. Palabras claves: Compras verdes, Desarrollo sostenible, Ecodiseño, Ecoeficiencia, Producción limpia, Valorización. 1 INTRODUCCIÓN Las pymes en Colombia han venido creciendo en Colombia desde los años 70 pero su auge radica en los años 90, pero estas han tenido una permanencia máxima en el mercado de tres años, entre las causas de esta poca permanencia se encuentran: el difícil acceso a la financiación, la baja formación administrativa de los empresarios, la falta de planeación estratégica, la poca competitividad en los mercados internacionales especialmente con la puesta en marcha de los TLC, por no contar con la falta de implementación de sistemas de gestión particularmente el sistema de gestión ambiental1 . Lo anterior desembocó en políticas (ley 590 de 2000 y varios documentos conpes) y variedad de programas gubernamentales y no gubernamentales que pretendían solucionar las necesidades, sin embargo, a pesar del esfuerzo, los índices de fracaso siguen creciendo, constituyendo una problemática que afecta el desarrollo económico y social del país. Por lo anterior, se puede afirmar que, se ha buscado la consolidación de las pymes a través del apoyo: financiero, tecnológico, comercial y productivo. En otras palabras, el fortalecimiento e inserción de las pymes a la economía formal no es suficiente porque aun se presentan graves problemas de competitividad y permanencia, según la Universidad Santo tomas de Colombia, cerca del 70% de las ellas no alcanzan a los 10 años de funcionamiento2 . Lo expuesto permite pensar que el bajo nivel de competitividad, productividad y permanencia en el mercado influyen aspectos relacionados con la gestión de procesos, la afectación del entorno y la calidad de vida que genera en su interior y sus zonas de influencia, además que para poder lograr competitividad con las empresas estatales y las extranjeras que llegan con la puesta en marcha de los TLC, ha obligado a las pymes a mostrar la implementación y certificación en sistemas de gestión, a pesar que estas sean precarias, lo cual lleva a grandes inversiones sin conocer el objetivo real e importancia para el crecimiento de las PYMES. De acuerdo con las investigaciones realizadas por Fundes, el Rosario y la Escuela de Administración de negocios (EAN)3 una de las causas de fracaso en las pymes es la falta de estrategias a largo plazo orientadas hacia un mercado global que exige de parte de sus clientes manejos integrales de gestión como calidad para dar confianza en los productos, de gestión ocupacional y seguridad industrial para garantizar un buen trato de los empleados y la gestión ambiental para que con ello se garantice un buen trato del entorno en sus procesos y productos que es lo esencial a tratar en el presente artículo. 1 Rojas, A. Grillo, C. (2011) Estudio exploratorio de la aplicación de TICs y desarrollo comunicacional como apoyo en la toma de decisiones en la Pymes. 2 Velasco, M. (2006) Caracterización de las pymes de Bogotá mediante el uso de información secundaria. Universidad santo tomas 3 Para mayor claridad en el texto los títulos de las investigaciones son omitidos; sin embargo la información precisa de cada una de ellas de encuentra en la bibliografía.
  • 2 LAS PYMES Y EL DETERIORO AMBIENTAL Las pymes en Colombia han crecido muy lentamente, pero esto, no las exime de su aporte contaminante, el cual no ha sido en la misma forma de su crecimiento, está si aumenta rápidamente lo que ocasiona un impacto ambiental negativo que se debe contrarrestar por medio de sus productos y la aplicación interna del desarrollo sostenible. 2.1 Impacto ambiental Como puede ser de conocimiento de todos los lectores cualquier tipo de actividad en el planeta genera algún impacto, es decir, no se puede tener un impacto cero, ya que como su definición lo determina un impacto es la consecuencia sobre un entorno o el cambio de las características iniciales de un medio4 . Por lo anterior, las actividades sin control por parte de las pymes es una de las causas del deterioro del medio natural a través del consumo de recursos y de los residuos que su actividad genera. Según lo anteriormente mencionado las pymes están obligadas antes de iniciar un proyecto conocer sus impactos ambientales y anticipar las consecuencias futuras en un estudio o evaluación de impacto ambiental (EIA), que es un instrumento que identifica describe y valora los efectos previsibles que el desarrollo de un proyecto producirá sobre los diferentes aspectos ambientales. 2.2 Reducción del impacto de un producto Un producto inicia su impacto desde el momento de las extracción de las materias primas, que se pueden trasformar varias veces antes de llegar al fabricante pyme; El producto terminado debe ser envasado y distribuido hasta llegar al consumidor, quien una vez terminada su utilidad o empleo el envase o empaque se convierte en un residuo que debe ser gestionado correctamente. Por lo cual, una empresa productora puede disminuir el impacto a través de ecoproductos, es decir, aquellos en el que su diseño, producción, comercialización, utilización y eliminación se hace teniendo en cuenta todo su ciclo de vida5 , reduciendo el impacto ambiental total y minimizando el consumo de recursos. Por otro lado una pyme de forma integral puede involucrar en la gestión ambiental a sus proveedores, distribuidores y consu- midores para que sea efectiva la gestión de principio a fin. 2.3 Desarrollo sostenible Todas las empresas incluidas las pymes tiene la obligación moral de aplicar el desarrollo sostenible que consiste en desarrollar económica y socialmente la compañía sin disminuir los recursos naturales necesarios para las generaciones futuras, este concepto fue desarrollado por la primera ministra noruega Gro Harlem Brundtland en 1987 en un texto denominado “Nuestro futuro común” en el marco de un informe socio económico para la ONU. Figura 1. Desarrollo Sostenible Fuente: 1413 × 1450 - 82 k - gif - 4.bp.blogspot.com/.../desarrollo- sostenible.gif El anterior se tomo como estrategia para que la administración de una empresa desarrolle la prevención y actuación ambiental para disminuir el impacto ambiental a través de la ecoeficiencia. 3 VENTAJAS DE LA ECOEFICIENCIA Antes de iniciar con las ventajas de la ecoeficiencia se debe hacer un acercamiento al concepto del mismo de la siguiente manera: “Proporcionar bienes y servicios a un precio competitivo, que satisfaga las necesidades humanas y la calidad de vida, al tiempo que reduzca progre- sivamente el impacto ambiental y la intensidad de la utilización de recursos a lo largo del ciclo de vida, hasta un nivel compatible con la capacidad de carga estimada del planeta”6 . Este concepto es muy cercano al de desarrollo sostenible del informe brundtlnad, muy aplicable a la gestión integral de una pyme, en donde, con términos de indicador, la ecoeficiencia puede ser el valor del producto o servicio sobre el impacto ambiental que este genera, resumiendo puede ser “producir más con menos recursos naturales empleados”. 4 Villegas, F. (1999). 5 Forum medioambiental, (2008). Disponible en http://www.forumambiental.org/pdf/guiacast.pdf. Extraido el 9 de abril de 2012. 6 World Business Council for Sustainable Development WBCSD (2007).
  • Por lo anterior, una gestión ecoeficiente en una pyme aumenta la competitividad de la misma por medio de: una mejora continúa por menos desperdicio de recursos naturales, reducción en los consumos hídricos y energéticos en sus procesos, reducción en el volumen y toxicidad de los residuos sólidos y emisiones gaseosas que produce, disminución en los riesgos por incumplimiento de las leyes ambientales. 3.1 Ventajas tangibles El aplicar desarrollos ecoficientes en una pyme entrega a la misma varias ventajas unas visibles y otras no, entre las visibles o tangibles se tiene las siguientes: • Ayudas Gubernamentales, con esta ventaja la pyme recibe subsidios para la producción y descuentos en el pago de impuestos. • Orientación del mercado hacia productos con un mínimo impacto, los clientes actuales y potenciales tienden a comprar productos más amigables con el planeta. • Desarrollo de estrategias orientadas a reducir costos en recursos y energía, ya que con los programas ambientales la empresa puede ingresar a la contabilidad ambiental buscando como mostrar los desarrollos ecoficientes en los estados de resultados. • Disminución de los costos ambientales (quien contamina paga, cánones, multas, ecoimpuestos, etc.), esto se ve reflejado en menos gastos jurídicos que es donde se reflejan estos costos y la tranquilidad de hacer las cosas bien. • Prevención de accidentes, paralización o cierre de la empresa. Esta ventaja hace referencia que al ser ecoeficientes se3 ha tenido en cuenta cada parte del proceso y los integrantes del mismo por consecuencia va de la mano de la gestión ocupacional, dando tranquilidad ante cualquier visita sorpresa de las secretarias de salud o hábitat. • Menores barreras a las exportaciones. Esta ventaja sirve para la comunidad económica europea la cual tiene frenos y aranceles altos para las compañías que no puedan demostrar que sus productos son procedencia ambiental controlada. • Preferencia por parte de muchas empresas hacia proveedores con un correcto comportamiento ambiental, se debe a que muchas empresas en el mundo manejan la cultura de compras para empresas que tengan una implementados sistemas de gestión de igual manera que ellos las tiene. • Ecoposicionamiento, este nuevo concepto se emplea cuando las empresas logran un destacado aporte a las mejoras ambientales en sus empresas y estas son bien vistas por la opinión pública y sus clientes, con lo cual logra mayores ingresos, aun sus productos sean de mayor costo. 3.2 Ventajas intangibles • Estas ventajas no son fácilmente ubicables en una empresa pero son vitales para lograr los resultados económicos y sociales esperados entre algunas de las se tienen: • Protección frente a la competencia, esta ventaja esta unida con el ecoposicionamiento ya que por medio del anterior, la pyme puede mostrar sus aplicaciones ambientales y lograr una mayor cantidad de clientes y un crecimiento en sus ventas. • Preparación para las exigencias de la legislación, esta ventaja es muy útil en Colombia, ya que la legislación ambiental es muy fuerte con la mayor cantidad de sanciones tanto de tipo pecuniario y coercitivo, adicionalmente continuamente surgen resoluciones sobre el manejo de los contami- nantes en las empresas y hogares. • Mejora de las relaciones empresariales con el entorno social, esta ventaja las empresas bajan las tensiones con sus vecinos ya que estos al ver las aplicaciones ambientales, bajan la presión sobre la compañía y además la destacan ante sus competidores. • Mejora del ambiente de trabajo, todos los empleados se sienten a gusto laborando dentro de ella y repiten los procesos ambientales que aprenden en la empresa en sus respectivos hogares y barrios, también, se sienten mas cómodos en sus labores diarias. • Estrategia ambiental, consiste en que la empresa analiza sus procesos y comienza a desarrollar la mejora continua en cada punto del proceso, no solo el productivo, sino también, el adminis- trativo y comercial. Figura 2. Estrategias Ambientales Fuente: http://www.borsicca.com/borsicca.php?funcionamiento=3
  • La empresa debe iniciar con una producción limpia en donde se empleen menos recursos naturales y mas reciclados, en donde, se trabaje en procesos cerrados el agua (recircular la mayor cantidad de veces posibles), también se debe tener en cuenta que hacen con los residuos que se generan y como los procesan a quienes se les entregan, así, como el control del producto al final de su proceso productivo y por ultimo si no se puede controlar más la producción y se genera el residuo, que este residuo, se lleve y se procese en un vertedero controlado. 4 MEDIDAS OPERATIVAS Para que una pyme ingrese a los desarrollos ecoeficientes debe aplicar algunas medidas en la operación de sus procesos como las siguientes: 4.1 Ecodiseño Esta medida consiste la incorporación de todas las necesidades ambientales en el momento de diseñar un nuevo producto de la compañía como es la reducción de componentes y materiales, facilitar que diferentes componentes puedan ser reciclados, el empleo de materiales fáciles de limpiar, reparar y reutilizar, así como, la eliminación de materiales tóxicos en su fabricación. Por lo anterior el ecodiseño pretende que se tengan productos que respondan más a las necesidades del consumidor pero con el uso de la menor cantidad de materia y energía posible. 4.2 Buenas prácticas La medida consiste en una serie de propuestas ordenadas y articuladas en todos los procesos de la empresa que no involucra grandes inversiones o trasformaciones en la compañía, solo son pequeños desarrollos que llevan a cambiar el comportamiento ambiental de los empleados y el producto final, es lo que se conoce comúnmente como las culturas ambientales de la empresa como son el re-uso del papel, ya inmerso en los procesos de las compañías. 4.3 Mejora de los procesos Después de tener buenas prácticas ambientales las pymes debe continuar con la mejora de sus procesos a todo nivel en la compañía, esta mejora consiste en un estudio básico de medidas ambientales eficientes como son la reducción en consumo de energía y agua, así como, la reducción en la generación de residuos como la recuperación de material sobrante que no se ha empleado aun y que antes se catalogaba como sobrantes. 4.4 Reingeniería de procesos Ya con una mejora de proceso se puede continuar con la reingeniería que considera la revisión, ajuste y modificación del proceso de producción para mejorar ya sistemáticamente el ahorro de energía, agua y la reducción de los contaminantes, en últimas es la de incorporación de criterios ambientales definitivos en la empresa. 4.5 Producción limpia Esta consiste en la mejora continua de los procesos de producción ya que con ello se comienza a garantizar el incremento de la competitividad y la viabilidad económica de la pyme, esta medida permite el ahorro de insumos, la sustitución de materiales peligrosos y reducción de emisiones y residuos contaminantes. 4.6 Mejores tecnologías disponibles (MTD o BAT) La pyme en su investigación y desarrollo permanente debe estar en la gestión de buscar el cambio radical de sus procesos de producción, teniendo en cuenta que estas inversiones deben ser progresivas según las posibilidades de la pyme. 4.7 Tratamiento y valorización interna A raíz que las pymes desarrollen todas las medidas anteriores, siempre habrá generación de residuos por lo cual la pyme debe hacer un tratamiento previo de los residuos que genere como es la limpieza y ubicación, luego de ello la empresa debe desarrollar la valorización que consiste en determinar que debe recuperar, reutilizar o finalmente enviar a reciclar, ya sea para mejorar los productos actuales o la creación de subproductos que generan una nueva línea de comercialización. 4.8 Eliminación y transporte externo Como parte de la corresponsabilidad la pyme debe tener mecanismos para conocer quien elimina los residuos que genera, ya sea, que se lleven a una planta recicladora o se entreguen a un vertedero controlado, o en alguno de los casos el control de la incineración, todos estos residuos deben ir en unos transporte adecuados para que se lleven bien al destino final y no que como a veces sucede a mitad de camino. 5 ENTORNOS AMBIENTALES Estos tienen que ver con todo lo que rodea o puede influir en la pyme desde el exterior entre estos tenemos principalmente las políticas públicas, los merados financieros y las asociaciones de consumidores. 5.1 Políticas públicas El estado colombiano es uno de los principales partes externas interesadas en las pymes para que se desarrolle un gestión ambiental y preservación de los ecosistemas,
  • por lo cual nuestro país tiene una legislación ambiental extensa y actualizada en las problemáticas ambientales ya que esta surgió desde el año de 1979 con la ley 9 en el régimen sanitario, hasta las últimas resoluciones del 2011 sobre el manejo de los residuos eléctricos y electrónicos en Bogotá. Además, surgen los impuestos de tipo ecológico para las empresas que generan un excesivo impacto negativo en el entorno, por otra parte existen una serie de incentivos económicos para las compañías que implementen sistemas de gestión ambiental comprobables. Fuera de lo anteriormente mencionado entre las compañías se tienen acuerdos voluntarios para las practicas ambientales y el cumplimiento normativo legal, de forma que todas tengan una participación equitativa en las obligaciones, entre estos desarrollos se tiene las compras verdes que consiste en que las empresas certifican que los proveedores tiene una procedencia ambiental optimas de los productos que se compran. Figura 3. Responsabilidad Social empresarial Fuente:http://www.uninorte.edu.co/divisiones/Ingenierias/IDS/secciones. asp?id=88 Por último las empresas optan por una integralidad de sus manejos ambientales con la norma ISO 26000 relacionada con la responsabilidad social empresarial que involucra el componente ambiental, el componente social interno y externo, con sus empleados, socios, proveedores y clientes, así como la calidad a través de la competitividad de sus productos, especialmente si son con certificados ambientales. 5.2 Políticas externas En estas políticas se relacionan al mercado bursátil que es donde se negocian las empresas y las asociaciones de consumidores que son los encargados de proteger los derechos de los mismos y que los productos que estos reciben cumplan con todas las exceptivas que los clientes esperan o que se les ofrece a través de la publicidad, como en Colombia lo determina la nueva ley del consumidor ley 1480 de 2012. Además, que un mal manejo ambiental puede llevar a que una empresa que cotice en la bolsa de valores se lleve a la banca rota o una pérdida de valor de su acción como sucedió con la empresa mattel o la petrolera BP. 6 HERRAMIENTAS DE GESTIÓN Las pymes que deseen afrontar los retos de una correcta gestión ambiental como estrategia para ser productivos ante los TLC vigentes con sus productos debe aplicar algunas o todas las herramientas que a continuación se mencionaran 6.1 Diagnósticos ambientales de oportunidades de minimización (DAOM). Consiste en hacer una revisión de los procesos de la empresa y determinar las oportunidades de prevención y reducción en origen de la contaminación, tratando de actuar técnica y económicamente sobre los procesos en todo su desarrollo y no solo al final de este. 6.2 Planes de minimización Tiene que ver con la reducción de los subproductos y los residuos contaminantes que la empresa genera, esto se logra, por medio revisiones, clasificación, selección del flujo de los residuos, un análisis técnico y económico de las alternativas de minimización, selección de la mejor alternativa, implementación y seguimiento de cumpli- miento del proceso seleccionado. 6.3 Eficiencia energética Por medio de aplicarse desde el diseño hasta el embalaje de la reducción de consumo de energía, ya sea con la mejora o cambio de los procesos, no solo los productivos, sino de todas las áreas de la empresa, el más sencillo, el apagado de equipos que no sean de indispensable uso. 6.4 Ahorro hídrico Muy similar a la eficiencia energética pero de menor visibilidad es el ahorro de agua en la empresa, radica en la mejora de refrigeraciones, limpiezas, generaciones de vapor. Este se mejora por medio de trabajo en ciclo cerrado, que consiste en usar el agua la mayor cantidad de veces posible antes de desecharla. 6.5 ISO 14000 Por medio de este sistema de gestión normalizado consiste en un desarrollo sistemático de los procesos con miras a un buen manejo del medio ambiente que se ve reflejado en el control por medio de auditorías internas y externas, que siempre por lo general llevan a buscar una certificación
  • que se refleja en forma pública por medio de una ecoetiqueta, que da a la compañía, acceso a mercados internacionales que apoyan a estas certificaciones. 6.6. Contabilidad ambiental Con esta se busca la aplicación del análisis financiero en la integración de los desarrollos ambientales de la empresa, por medio de estimación de costos de producción, asignación de costos a cada parte productiva como corresponda, control real de los procesos, mejora en la salud ocupacional y la seguridad industrial desde el punto de vista financiero. 6.7. Comunicación ambiental Es indispensable para divulgar todo lo relacionado con la gestión ambiental de la compañía, desde el compromiso de las directivas hasta la certificación final entregada, todo esto soportado con los manuales de procedimientos necesarios para llevar a cada correctamente la gestión ambiental en la compañía. 6.8 Formación en gestión ambiental Es la capacitación permanente de todas las partes interesadas en la pyme con el fin que todos tengan el conocimiento de los puntos a controlar, implementar y mejorar cada una de los procesos de la compañía que debe llevar a término una excelente gestión ambiental en la empresa y que no dé a la dualidad del posible desconocimiento de lo que compañía trata o desarrollar en los aspectos ambientales en su interior y en su entorno cercano o sea sus vecinos y familias de sus empleados, con el fin de contribuir con la preservación del planeta desde todos los espacios posibles. 6.9 Análisis de ciclo de vida Figura 4. Ciclo de vida Fuente: http://www.cegesti.org/ecodiseno/ciclo.htm El análisis de ciclo de vida de los productos es esencial para una ecoeficiencia en la compañía, ya que sin el no es posible conocer cómo afectan los productos de la compañía a ambiente, desde el momento del diseño hasta la disposición final de estos cuando han cumplido con su vida útil, se debe desarrollar por medio del estudio de cada unos de los pasos que tiene el producto, observando y analizando no solo los impactos negativos sino también la buenas prácticas para implementarlas por completo, teniendo en cuenta siempre el mejoramiento continuo. 6.10 Marketing ecológico Esta herramienta sirve para penetrar los mercados ambientales mundiales, aumentar la competitividad y la rentabilidad de la compañía, mejorar o mantener la buena imagen de la pyme, mejorar la relación con los grupos de presión como son los ambientalistas, acciones comunales y el estado. Con el fin de lograr una credibilidad comercial y ambiental. 6.11 Política de compras Con el fin de mejorar la calidad de los productos, se debe diseñar con el fin de conseguir los mejores materiales para toda la empresa sin que se afecte mucho los recursos naturales. 6.12 Gestión de los riesgos ambientales Esta muy de la mano con la gestión ocupacional de la empresa y se trata de mirar las posibles contingencias ambientales que se puedan presentar en la compañía y se debe revisar desde el diseño hasta el desmantelamiento de la empresa, es tan importante, que se revisa permanentemente para poderle otorgar a la pyme su correspondiente licencia ambiental. 6.13 Ecoinnovación Sirve para anticiparse a las otras compañías y como oportunidad de negocio, tiene mucha relación con la oficina de innovación y desarrollo tecnológico con el fin de determinar e implementar nuevos procesos o desa- rrollos que aumenten la ecoeficiencia de una empresa, entre estas pueden ser nuevos procesos, mejorar en la gestión, sistemas de medición, etc. 6.14 Alerta Tecnológica Este punto trata una revisión permanente por parte de la compañía de todos los nuevos desarrollos desde el punto de vista ambiental, como pueden ser aplicaciones con energías alternativas, nuevas materias primas con material reciclado o recuperado, maquinaria con mayor eficiencia energética e hídrica, aplicación de las TICs en la comunicación y decisión de la gerencia.
  • 7 EMPRESAS COLOMBIANAS ECOEFICIENTES Figura 5. Gestión ambiental integral Fuente: PREAD7 Según la cámara de comercio de Bogotá y el PREAD se presenta tres categorías para las empresas que en Colombia han iniciado y tienen un desarrollo ecoeficiente aplicado de la siguiente manera: 7.1 Élite generando desarrollo sostenible Team-Acegrasas, ABB, Boehringer Ingelheim, Carulla Vivero, la Nacional de Chocolatés, Merck, Siemens y Pavco. 7.2 Excelencia Ambiental generando desarrollo ostensible Cyquim de Colombia, la Procesadora de Materias Primas, AGA, ATESA, Azul K, Sigra, Express del Futuro, Gaseosas Colombianas Centro, Gaseosas Colombianas Sur, Gaseosas Lux (pertenecientes a Postobón), GM Colmotores, Hospital El Tunal, Lasea Soluciones, Lighting de Colombia, Minipak, Schering-Plough, Schneider Electric, Si 99 y 3M de Colombia. 7.3 En marcha hacia la excelencia ambiental Alimentos Nutrion, Aseo Capital, Coltavira, Marcel France, LIME, Ingrecrom, Recubrimientos Industriales, Si O2, Symrise Ltda. y la Terminal de Transportes de Bogotá. 7.4 Empresas ecoeficientes Bayer, Colcafé S.A., Faber-Castell, Plásticos Mónaco, Ricoh, Sika Colombia S.A., Xie S.A., Soplascol, Carrefour, R.I.V. Servicios Generales, Congelados Agrícolas, Napas Luigi y Embalajes Colombia. 8 REFLEXION FINAL Todas las pymes pueden optar por la ecoeficiencia como una estrategia para permanencia y crecimiento, ya sea como una misión altruista para conservar el planeta y hacer del desarrollo sostenible algo real, o por otra parte como un polo de crecimiento y táctica para defenderse la cantidad de productos que llegaran con los TLC, que pueden determinar el cierre de las compañías. Como se escoja la ecoeficiencia es una estrategia para devolver a este planeta que no solo nos da un espacio para existir, sino que, nos permite crecer y lograr nuestros sueños, por lo tanto debemos cuidarlo para que nuestros nietos también lo puedan disfrutar tanto como nosotros. Es decir, es un único planeta por lo tanto un único hogar para todos. 9 REFERENCIAS [1] Alvaro Cala Hederich. Situación y necesidades de la pequeña y mediana empresa. Civilizar Revista electrónica de difusión científica. Universidad Sergio Arboleda Bogotá. Recuperado de http://www.usergioarboleda.edu.co/civilizar [2] Beltrán Alejandra y Torres Elsa. Pymes. Un reto a la competitividad. Universidad Externado. Bogotá. 2004 [3] Bermúdez Rodríguez Tatiana y González González, Patricia. Una aproximación al modelo de toma de decisiones usado por los gerentes de las micro, pequeñas y medianas empresas ubicadas en Cali, Colombia desde un enfoque de modelos de decisión e indicadores financieros y no financieros. Revista de Contaduría Universidad de Antioquía No. 52 páginas 131 a 154. Universidad de Antioquía. Medellín 2008. [4] Cámara de comercio de Bogotá. Balance de la economía Bogotana, 2007-2008 y primer semestre del 2009. Recuperado de http://camara.ccb.org.co/documentos/4737_Balance_de_la _economia_bogotana_Parte_1.pdf [5] Dinámica de la empresa familiar pyme, fundes diciembre 2008. Recuperado de http://www.fundes.org/Paginas/PublicacionesFundes.aspx [6] Gómez Betancourt Gonzalo y López Vergara María Piedad y Betancourt Ramírez José. Estudio exploratorio sobre la influencia de la visión familiar y la visión patrimonial en el crecimiento en ventas de la empresa familiar en Colombia. Cuadernos de Administración, No 39, julio a diciembre de 2009. Bogotá. 2009 [7] Grupo Gpymes EAN. Modelo de modernización empresarial para pymes. Escuela de Administración de Negocios. Editorial EAN. Bogotá. 2004. 7 Programa de Excelencia Ambiental Distrital
  • [8] Martha Velasco R. Caracterización de la pymes de Bogotá mediante el uso de información secundaria. Universidad Santo Tomas. Bogotá. 2006. [9] Méndez Álvarez, Carlos Eduardo. Tecnologías y herramientas de gestión. Caso Grandes, medianas y pequeñas empresas en Bogotá. Editorial Universidad del Rosario. Bogotá. 2009. [10] Moreno López William. Aspectos metodológicos y avances en desarrollo del proyecto Modelo de gerencia sostenible para micro empresas en Bogotá. Cooperativismo y Desarrollo. No 95, Julio a diciembre de 2009. Teoría del Color, Medellín. 2009 [11] Prado Gonzales Miriam y Zambrana Sandoval Fanny. Mejoramiento de la gestión estratégica y productividad de las pymes a través de las TICs. Fundes. Bolivia.2009 [12] Rodríguez Astrid Genoveva. La realidad de la pyme colombiana desafío para el desarrollo. Cuadernos de administración No. 23, enero-junio de 2010. Universidad Javeriana. [13] Rojas, A. Grillo, C. Mosquera W. (2010) « Estudio exploratorio sobre el manejo de la información y la aplicación de las TICS para la toma de decisiones en las pequeñas empresas de Bogotá ». Universidad Cooperativa de Colombia. Bogotá. [14] Universidad Santo Tomas. Caracterización de las Pymes de Bogotá mediante el uso de información secundaria. Universidad Santo Tomas. Bogotá. 2006. [15] Varios. Dinámica de la empresa Familiar Pyme. Estudio Exploratorio en Colombia. Fundes. Bogotá. 2008 [16] Zevallos Emilio. Panorama de las micro, pequñas y medianas empresas (mipyme) en varios países de América Latina. Fundes. 2002- Recuperado de http://www.fundes.org/Paginas/PublicacionesFundes.aspx 1Correspondencia: williame.mosquera@campusucc.edu.co, willmos101@gmail.com
  • INGENIERÍA DE ALIMENTOS
  • IMPLEMENTACIÓN Y VALIDACIÓN DE UN PANEL PARA LA EVALUACIÓN SENSORIAL DEL CACAO (Theobroma cacao) EN SAN VICENTE DE CHUCURI. Lucas Fernando Quintana Fuentes*, Salomón Gómez Castelblanco** ECBTI, Universidad Nacional Abierta y a Distancia “UNAD”, Bucaramanga, Colombia. ECBTI, Universidad Nacional Abierta y a Distancia “UNAD”, Bucaramanga, Colombia. * lucas.quintana1@unad.edu.co- ** salomon.gomez@unad.edu.co Resumen Colombia es uno de los mayores productores de cacao en América, su producción es consumida en su totalidad en forma interna. El departamento de Santander es el mayor productor de cacao en Colombia y el Municipio de San Vicente de Chucurí es considerado la capital cacaotera delpaís. Actualmente la federación colombiana de cacaoteros Fedecacao junto con la Unad tiene un convenio de cooperación para el fortalecimiento de la capacidad evaluadora de la calidad sensorial del cacao. En el proceso de evaluación de la calidad sensorial del licor de cacao, clon CCN 51, se establecieron las necesidades de acuerdo a la normatividad vigente para la implementación de un panel de jueces entrenados, desde la preselección, selección, entrenamiento especifico, evaluación del entrenamiento y evaluación de las muestras finales de tres fincas representativas en donde se cultiva el clon CCN 51 del municipio de San Vicente de Chucurí. De acuerdo a los resultados del proceso de implementación se conformo un grupo de 11 jueces expertos en entrenamiento con un grado de confiabilidad del 99% y se obtuvo el perfil sensorial de sabor para las muestras con un grado de confiabilidad del 99% de las tres fincas representativas del municipio. Con la implementación del protocolo de evaluación y del grupo de jueces, se proyecta la evaluación de otros clones utilizados por los cultivadores y la consecuente generación de un mapa de sabores del cacao de diversos clones de la región. Palabras claves: Clon, Perfil, Juez, CCN 51, Sensorial 1 INTRODUCCIÓN El presente artículo es producto del proyecto de investigación que tenia como finalidad establecer un perfil sensorial del cacao producido en San Vicente de Chucuri, el cuál se realizó en convenio con Fedecacao y la Universidad nacional abierta y a distancia “Unad”. Fedecacao ha realizado diferentes estudios sobre la calidad físico - química y nutricional del cacao pero no ha profundizado en el análisis sensorial, siendo este el aspecto tratado en el desarrollo de la investigación. La evaluación sensorial se define como el método científico utilizado para evocar, medir, analizar e interpretar aquellas respuestas percibidas a través de los sentidos de la vista, gusto, olfato, tacto y oído. A pesar de la eficacia que los diversos métodos de análisis instrumental han adquirido en los últimos años, persisten interrogantes que no se pueden ser solucionadas mediante el análisis instrumental. En la actualidad, no es suficiente caracterizar un alimento desde un punto de vista fisicoquímico, microbiológico, y nutricional sino que, si se quiere tener éxito en el mercado nacional y una posible expansión hacía mercados internacionales, hay que considerar la calidad sensorial del producto como un factor crítico para el acceso a nuevos mercados competitivos. En principio, la caracterización sensorial y su correlación con las características físico-químicas de los alimentos, son necesarias para definir lo que se entiende por perfil sensorial de los mismos, para determinar si logra o no satisfacer las demandas del consumidor, así como para conocer cuáles son los atributos sensoriales que más
  • influyen en su aceptabilidad. En evaluación sensorial la principal herramienta son los órganos de los sentidos luego se debe garantizar que los resultados se obtienen siguiendo una metodología y normas adecuadas que garanticen su confiabilidad. El método del entrenamiento específico contempló el uso de patrones de licores de cacao que permitieron la familiarización con la terminología y los atributos a evaluar en cada muestra. En este entrenamiento al final se obtuvo un grupo de 11 jueces con una confiabilidad del 99%. Una vez conformado el grupo se logró caracterizar el cacao producido en tres fincas representativas de acuerdo con lo establecido en la caracterización de los productores realizada por Corpoica en el 2000, siendo determinado que el cacao corresponde a un cacao tipo forastero con predominancia del sabor a cacao, ácido, astringente y amargo. 2 METODOLOGÍA 2.1 Generalidades selección de jueces La Guía Técnica Colombiana 165 presenta este proceso comonecesario para la ejecución adecuada de la evalua- ción sensorial, en él se establece el tipo de juez que garantice la aplicación adecuada de la prueba escogida.Para el caso presentado se debe considerar un tipo de juez experto o entrenado en producirrespuesta a la prueba descriptiva aplicada.[1] De acuerdo a lo establecido por Sancho (J & J.J., 1999), el flujo grama del proceso de selección es el siguiente y allí se contemplan los pasos a seguir para la ejecución de las actividades de la investigación. [2] Ilustración 1. Fuente: Adaptado de (J & J.J., 1999) En cada una de estas etapas se aplicó lo recomendado en el manual del Instituto de ciencia y tecnología de alimentos de la universidad nacional de Colombia “ICTA”. (ICTA, 2001)[3] Donde se establecen las siguientes pruebas: Sabores básicos, Identificación de aromas, Intensidad de color, Pruebas de pares, dúo – trío y triangular. Con estas pruebas se busca evaluar la capacidad de cada uno de los candidatos y llevar a cabo la selección del personal.Cada uno de estas pruebas sigue un protocolo de aplicación que se ajusta al siguiente diagrama de flujo: Ilustración 2 Fuente: Los autores. 2.2 Tipos de jueces La evaluación sensorial se puede hacer mediante tres tipos de jueces: “jueces”, “jueces seleccionados” o “jueces expertos”. Los jueces expertos, jueces entrenados y jueces consumidores.En este caso los jueces requeridos son de tipo expertos. [4] 2.3 Condiciones de prueba Las condiciones para el desarrollo y aplicación de las diferentes pruebas sensoriales, se centran en los jueces, los cuales deben ser seleccionados y entrenados. Además, es necesario proporcionar las condiciones locativas básicas, para la sala de catación o cabinas y para el sitio de preparación de las muestras. También se tiene un especial cuidado en el momento de elegir la prueba que se va a aplicar, el formulario, el numero de muestras, las cantidades, y los recipientes que van a contener las muestras. Lo anterior brinda la seguridad y confiabilidad de los resultados, para que a través del estudio estadístico, se obtenga un análisis significativo.[5]
  • 2.3.1 Sitio de prueba El desarrollo de las pruebas se debe llevar a cabo en un lugar que cumpla con condiciones que favorez- can resultados eficientes, y por lo tanto, debe disponer de una infraestructura adecuada, poseer un instrumental y personal calificado. En la mayoría de los casos se deben garantizar las condiciones para poder emitir un juicio en forma individual. (J & J.J., 1999).[6] 2.3.2 Preparaciòn de muestras Las muestras de licor de cacao se prepararon de acuerdo a lo establecido en el manual para análisis de cacao. (Stevenson, Corven, & G., 1993).[7] Los pasos son: 1. Tostado de las almendras. 2. Descascarillado. 3. Triturado de los cotiledones tostados. 4. Refinado de la mezcla obtenida hasta el tamaño de partícula deseado. 5. Moldeado y refrigerado. 6. Atemperado en baño maría al momento de ser servidas para el análisis sensorial. 2.4 Perfil de sabor El método seleccionado, debido al grado de entrenamiento de los jueces, fue el consenso que consiste en: “Inicialmente, el evaluador trabaja solo, registrando las características o notas de sabor. Tan pronto se tienen las notas de sabor, se recomienda consensuarlas. Con base en las notas definidas, se determina el orden de percepción, intensidad, sabor residual o persistencia, o ambos, y luego se evalúa la impresión total. (ICONTEC, 2009). [8] Jiménez (2003), señala que en un licor de cacao se pueden identificar tres tipos de sabores: básicos, específicos y adquiridos, los cuales se detallan a continuación.[9], [10] 2.4.1 Sabores básicos Acido: describe licores con sabor ácido, debido a la presencia de ácidos volátiles y no volátiles. El sabor se percibe a los lados y centro de la lengua. Amargo: se describe como un sabor fuerte y amargo, generalmente por la falta de fermentacióny se percibe en la parte posterior de la lengua o en la garganta Dulce: se percibe en la punta de la lengua. Astringente: este sabor fuerte es por la falta de fermentación, provoca sequedad en la boca, aumento de salivación, se percibe en toda la boca, lengua, garganta, encías y en los dientes, 2.4.2 Sabores especificos Cacao: describe el sabor típico a granos de cacao bien fermentados, secos y libres de defectos. Floral: presentan sabores a flores, casi perfumados y posiblemente se perciba un olor químico. Frutal: se caracteriza por licores con sabor a fruta madura. Esto describe una nota de aroma a dulce, agradable. Nuez: se relaciona con el sabor de la almendra y nuez 2.4.3 Sabores adquiridos Moho: describe licores con sabor mohoso, debido a una sobre fermentación de las almendras o a un incorrecto secado. Químico: describe licores contaminados por combustible, plaguicidas, desinfectante y otros productos químicos. Verde/crudo: se describe así generalmente por la falta de fermentación o de tostado. Humo: describe licores contaminados por humo de madera, usualmente debido al secado artificial. En la NTC 3929 se establece una escala para la evaluación de la intensidad de cada uno de los atributos descritos anteriormente que va de 0 a 5, que en elcaso del cacao evaluado,se ha ajustado a la que utilizan los laboratorios en Ecuador, Francia, Venezuela y Colombia que va de 0 a 10, y que describen cada uno de los atributos de la siguiente manera: 0 0 = Ausente 1 - 2 = Intensidad baja 3 - 5 = Intensidad media 6 - 8 = Intensidad alta 9 - 10 = Intensidad muy alta/fuerte 2.5 Análisis de datos Existen dos enfoques básicos para el manejo de los datos. En los métodos de perfil por consenso, inmediatamente después de que los panelistas han completado sus evaluaciones, el líder del panel tabula los resultados e inicia una discusión para resolver las diferencias. [11] En otros métodos de análisis descriptivo no hay discusión y el perfil obtenido es una serie de promedios de los puntajes asignados a cada descriptor por cada panelista.
  • Los promedios se pueden comparar estadísticamente, por ejemplo usando el análisis de varianza. También existen técnicas de análisis multivariado, para todos los métodos de análisis descriptivo. (NTC. 3929) [12] 2.5.1 Anova El análisis de varianza es una técnica que permite estudiar si hay diferencias significativas entre las medias de las calificaciones asignadas a más de dos muestras, basándose en el principio de « t de Student ». [12] La técnica se puede aplicar para explicar el desarrollo del comportamiento de los datos del proceso de evaluación del licor de cacao por parte de los jueces. En el caso presentado, se aplicó en dos niveles: 1. Una vía, donde se explica la diferencia entre una variable del estudio. 2. Dos vías, donde se explica la diferencia entre dos variables del estudio. 2.5.2 Análisis de componentes principales. ACP “El análisis de componentes principales tiene este objetivo: dada n observaciones de p variables, se analiza si es posible representar adecuadamente esta información con un número menor de variables construidas como combinaciones lineales de las originales.”[13] El análisis de componentes principales puede resumir la mayor parte de las variables obtenidas en un análisis sensorial, a dos o tres de mayor importancia que al final permitirán diferenciar el licor de cacao y poder relacionar sus características.[14] 3 RESULTADOS 3.1 Selección de precandidatos Se procedió a tabular los resultados de la encuesta y se realizó la primera selección teniendo en cuenta como criterios de selección los siguientes: interés, motivación, actitud hacia el cacao, estado de salud, capacidad para comunicarse y disponibilidad. Estos criterios de decisión son los apropiados teniendo en cuenta que los jueces que se entrenaran estarán en capacidad de describir y comunicar percepciones sensoriales según lo contemplado en la NTC 4129 y (Morales, 1994). [15] Tenemos entonces que de 53 candidatos 48 fueron preseleccionados, dando un 91% de seleccionados y un 9% no seleccionados. 3.2 Selección de jueces Una vez realizadas las pruebas de sabores básicos, pruebas de ordenamiento de sabores básicos, pruebas de aromas, pruebas de colores básicos, pares, dúo – trío y triangular fueron seleccionados los jueces para entrenamiento específico. Los resultados obtenidos en este proceso fueron de 20 jueces seleccionados, 27 no seleccionados y 6 que no asistieron a las pruebas. 3.3 Entrenamiento específico En la evaluación del entrenamiento específico se tomo como base lo establecido en el manual de control de calidad del cacao del IICA (Stevenson, Corven, & G., 1993). Para un licor de cacao, en él se establecen cuatro tipos de licor los cuales se presentan en la siguiente tabla: Ilustración 3. Fuente. Stevenson, Corven et al. P 17 Se procedió entonces a preparar tres licores patrón al 80%, 60% y 40% de fermentación y se realizó la respectiva capacitación a los 20 candidatos seleccionados. Después de un entrenamiento intensivo se presentaron las muestras problema para evaluar su capacidad de evaluación. El análisis de los datos fue validado por medio de una ANOVA en dos vías y apoyados en análisis de componentes principales.
  • Los resultados obtenidos para las muestras de los licores estándar, evaluados como muestra problema para verifi- car la aptitud de los candidatos, son los siguientes: Gráfico 3. Evaluación licores patrón. Fuente los autores. La gráfica indica que el desempeño de los jueces fue adecuado; se aprecia que se detectaron las diferencias entre los tres tipos de licor y fueron ordenados en forma ascendente con respecto al atributo « sabor a chocolate ». Se aprecia una mayor correlación de la muestra fermen- tada al 80% con el sabor a chocolate y en menor grado con el sabor astringente, en la muestra del 60% se observa una correlación media con el sabor a chocolate y astringente, por ultimo el licor del 40% esta correlacionado en mayor proporción con el sabor astringente y ácido como producto de la deficiente fermentación. El perfil para los sabores básicos de las muestras problema del entrenamiento fue el siguiente: Gràfico 4. Perfil de sabor. Fuente los autores. Con referencia a los datos obtenidos para la evaluación de los jueces en entrenamiento, se obtuvieron resultados expuestos en el gráfico 4.Con el análisis de varianza se busca establecer si existen diferencias significativas entre las medias generadas para las calificaciones del análisis de muestras y los juicios emitidos por los jueces. (Pedrero, 1996)(J & J.J., 1999), (Antonio, 1994). Se encontró que para los juicios emitidos en la evaluación de las muestras no existe diferencia significativa, lo cual indica que la evaluación de las muestras fue acertada. Se determinó adicionalmente que si existe diferencia significativa entre jueces para lo cual es necesario establecer en cuales de ellos se presenta esta diferencia y para ello se aplicó el procedimiento de diferencia minima de Fisher referenciado en (Pedrero, 1996). [16] Allí, los 6 ultimos jueces tienen una buena consistencia en sus juicios con un nivel de significacncia del 1%, lo que permitió trabajar con este grupo de jueces en entrenamiento. Esto permitió seguir con el proceso de entrenamiento y logró disminuir las diferencias encontradas. Al final de todo este proceso de selección y entrenamiento, se presentó una evaluación final con un 21% del personal seleccionado, un 79% no seleccionado y un 11% que no terminó el proceso. 3.4 Evaluación de licores fincas Antes de proceder a realizar la determinación de los perfiles de cada muestra se evaluó el comportamiento de los jueces realizando la prueba de ANOVA en una sola vía para los resultados de cada muestra problema y se estableció que no hay diferencia significativa para las medias de los datos generados por cada juez con un nivel de significancia del 1%. Las fincas seleccionadas de acuerdo a la clasificación establecida por Corpoica 2000 son: El consuelo vereda Barro amarillo, Seúl vereda Santa Rosa y Chimita vereda Centro. [17] Los datos promedio obtenidos para las tres muestras son los siguientes:
  • Gráfico 5. Análisis licores fincas. Fuente Los autores. Según la gráfica 5,se aprecia que la muestra 3 correspondiente a la finca chimita presenta un mayor atributo correspondiente a cacao y astringencia, con una menor correlación con los atributos amargo y acido, y en una correlación negativa con los atributos adquiridos nuez, floral, frutal, caramelo, otros en su respectivo orden. Las muestras 1 y 2 de la finca Seul y el Consuelo presentan mayor correlación con los atributos amargo y acido, en menor grado con astringente y cacao, y en forma inversa con los adquiridos en igual forma que la muestra de la finca Chimita. El perfil de sabor obtenido para las tres fincas se presenta en el gráfico 6: Gràfico 6. Perfil de sabor. Fuente los autores. Con estos resultados y después de verificar los porcentajes de fermentación inicial de las muestras se establece que los perfiles encontrados son válidos y nos dan un diagnóstico inicial de la calidad sensorial en el municipio de San Vicente de Chucurí para el clon CCN 51. Como resultado final de este proceso, se presenta un mapa de sabores para el clon CCN51 en el municipio de San Vicente de Chucuri. Ilustración 4. Mapa de sabores clon CCN51 San Vicente de Chucuri. Fuente Los autores. 4 CONCLUSIONES Se resalta la importancia de la conformación de un panel de 11 jueces expertos en entrenamiento con un alto grado de confiabilidad, que permitirá el desarrollo de la zona productora y el aumento del poder de negociación por parte de los productores. El perfil sensorial obtenido para el clon CCN51 es consistente con el obtenido en otros países, esto nos ratifica su condición de cacao tipo forastero especial para la elaboración de chocolate de mesa. El nivel de fermentación es factor importante e influye directamente en los resultados de los atributos finales de sabor a cacao, astringente, ácido, amargo, verde y floral. Se obtiene un mapa inicial de sabores para el clon CCN 51 en el municipio de San Vicente de Chucuri, planteando la posibilidad de ampliar este mapa a otros tipos de clon. Las tecnologías de la información y la comunicación jugaron un papel importante para el desarrollo de todas las actividades programadas y garantizar una permanente comunicación entre Bucaramanga y San Vicente de chucuri.
  • 5 BIBLIOGRAFIA [1] ICONTEC. (2007). GTC 165. ANALISIS SENSORIAL. METODOLOGÍA. GUÍA GENERAL . Bogotá D.C., Colombia: ICONTEC. [2] J, Sancho., & J.J., Bota. E. de Castro. (1999). Introducción al análisis sensorial de los alimentos. Barcelona: Edicions Universitat de Barcelona. [3] ICTA. (2001). Selecciòn de jueces para evaluaciòn sensorial. En Evaluaciòn sensorial. Bogotà: ICTA. [4] Morales, A. (1994). La evaluación sensorial de los alimentos en la teória y la práctica. Zaragoza: Acribia. [5] ICONTEC. (2009). GTC 178-2. ANÁLISIS SENSORIAL. GUÍA GENERAL PARA EL PERSONAL DE UN LABORATORIO DE EVALUACION SENSORIAL PARTE 2 RECLUTAMIENTEO Y FORMACION DE LIDERES DEL PANEL . Bogota D.C., Colombia: ICONTEC. [6] ICONTEC. (1996). NTC 3884. ANALISIS SENSORIAL. GUIA GENERAL PARA EL DISEÑO DE CUARTOS DE PRUEBA . Bogotá D.C., Colombia: ICONTEC. [7] Stevenson, C., Corven, J. y., & G. (1993). Manual para el análisis de cacao en el laboratorio. San José, Costa Rica: IICA. [8] ICONTEC. (2009). NTC 3929. ANALISIS SENSORIAL. METODOLOGÍA. MÉTODOS DEL PERFIL DEL SABOR . Bogotá D.C., Colombia: ICONTEC. [9] Jimenez, J., Amores, F., Nicklin, C., Rodriguez, D., & otros, y. (2011). Micro fermentaciòn y anàlisis sensorial para la selecciòn de àrboles superiores de cacao. Quevedo: INIAP. [10]Amores, F., Palacios, A., & Jimenez, J. y. (2009). Entorno ambiental, genètica, atributos de calidad y singularizaciòn del cacao en el nor oriente de la provincia de esmeraldas. Quevedo: INIAP. [11]L. Costell &. E. Durán. (1981). El anàlisis sensorial en el control de calidad de los alimentos. III. Planificaciòn, selecciòn de jueces y diseño estadìstico. Instituto de Agroquimica y Tecnologìa de alimentos. CSIC , 454 - 470. [12]ICONTEC. (2001). NTC 4934. ANALISIS SENSORIAL. METODOLOGÍA. GUÍA GENERAL PARA ESTABLECER UN PERFIL SENSORIAL . Bogotá D.C., Colombia. ICONTEC. [13]Marie, P. D. (1996). Evaluación sensorial de los alimentos. Métodos analíticos. México D.F.: Alhambra Mexicana. [14]Marie, P. D. (1996). Evaluación sensorial de los alimentos. Métodos analíticos. México D.F.: Alhambra Mexicana. [15]ICONTEC. (1997). ANALISIS SENSORIAL. GUIA GENERAL PARA LA SELECCIÓN Y SEGUIMIENTO DE EVALUADORES. PARTE 1 EVALUADORES SELECCIONADOS. NTC 4129. Bogotá D.C.: ICONTEC. [16]Pedrero, D. y. (1996). Evaluación sensorial de los alimentos métodos analíticos. Ciudad de México: Alhambra Mexicana. [17]Corpoica (2000). Caracterización y tipificación de los productores de Cacao del Departamento de Santander. Bucaramanga: Corpoica.
  • PRODUCCIÓN DE UNA BEBIDAALCOHÓLICA DESTILADA TIPO LICOR A PARTIR DE LA FERMENTACIÓN DE UN JARABE HIDROLIZADO DE ALMIDÓN DE ÑAME (Dioscórea rotundata) CARLOS RAMÓN VIDAL TOVAR*, MARBELALVAREZ CASTELLAR, ALVARO ECHEONAMARTÍNEZ * Universidad Nacional Abierta y a Distancia – UNAD-. carlos.vidal@unad.edu.co. Resumen La costa atlántica ocupa el primer puesto en la producción de Ñame a nivel nacional, pero solo es aprovechado para el consumo cocido en sopas, guisos y escasamente en la elaboración de productos como dulces típicos propios de la región. El objetivo de esta investigación, fue producir una bebida alcohólica tipo licor a partir de la destilación de un jarabe fermentado obtenido por hidrólisis enzimática de almidón de Ñame (Dioscórea rotundata). Con el fin de proponer una alternativa de industrialización que dé valor agregado a la cadena productiva de este tubérculo. El almidón fue obtenido por medio de un rayado, lavado, sedimentado, secado y caracterización. Luego, se realizó la hidrólisis enzimática en dos grupos de soluciones por triplicado. El grupo de solución A se hidrolizó con 0.02% de las enzimas Liquozime Supra y Dextrozyme DX; mientras que en el grupo B, solo se utilizó la enzima LIQUOZIME SUPRA al 0.02%. Los jarabes obtenidos se caracterizaron y se fermentaron con 2% de levadura hasta finalizar la actividad visible de la levadura. Luego, se destilaron en un condensador de esferas a 70-75°C. Los grados de alcohol producidos en la fermentación fueron de 3.5 para el grupo A y de 1.8 para el grupo B. El porcentaje de alcohol obtenido en la destilación fue del 22,05% V/V para la solución A y de 4% V/V para la solución B, lo que permitió seleccionar el proceso efectuado al grupo A como el mas adecuado para obtener licor. La evaluación sensorial determinó el 72,7% de aceptación para el sabor y aroma del licor obtenido. Esta investigación demostró que si es posible utilizar el almidón de ñame para la obtención de licores. El proceso puede ser utilizado como una opción industrial para la transformación del ñame y agregar valor a su cadena productiva. Palabras claves: Ñame, Licor, hidrólisis enzimática, Fermentación. ABSTRACT The Atlantic coast is ranked first in the production of yam nationally, but only for consumption advantage cooked in soups, stews and sparsely in the development of products such as sweets from the region. The objective of this research was to produce alcoholic beverage type liquor from the distillation of fermented syrup obtained by enzymatic hydrolysis of starch from yam (Dioscorea rotundata). To propose an alternative industrialization give added value to the potato production chain. The starch was obtained by means of a striped, washed, sedimented, drying and characterization. Then, the enzymatic hydrolysis was performed on two sets of solutions in triplicate. The group of solution A was hydrolyzed with 0.02% enzyme and Dextrozyme Liquozime Supra DX, while in group B, only the enzyme was used at 0.02% LIQUOZIME SUPRA. The syrups obtained were characterized and fermented with yeast 2% until the end of the visible activity of the yeast. Is then distilled in a condenser at 70-75 ° C. spheres the degrees of alcohol produced in fermentation were 3.5 for group A and 1.8 for group B. The percentage of alcohol obtained by distillation was 22.05% V / V solution A and 4% V / V solution B, which made it possible to select the process to group A as the most suitable to obtain liquor. Sensory evaluation determined the 72.7% acceptance for flavor and aroma of the liqueur produced. This research showed that if you can use the yam starch to obtain liquor. The process can be used as an option for processing industrial yam and add value to your supply chain. Keywords: Yam, Liquor, enzymatic hydrolysis, fermentation.
  • 1 INTRODUCCIÓN El Ñame espino es un tubérculo de origen africano que se cultiva en la costa Caribe colombiana, pertenece a la familia de las dioscoreáceas. De esta materia prima se puede extraer almidón el cual puede ser utilizado de diversas formas para la industria alimentaria. La fermentación (Del latín fervere: Hervir) es un proceso que implica cambios físicos y químicos de las materias primas utilizadas. Este proceso puede darse en condiciones aerobias y anaerobias, según sea el caso pueden obtenerse ácidos o alcoholes como productos principales. [1].En términos generales, la fermentación implica el uso de microrganismos para llevar a cabo trasformaciones de la materia orgánica catalizadas por enzimas. El licor, es una bebida alcohólica que puede ser destilada o no, estas llevan azúcar y productos aromáticos, tales como extractos de plantas y frutas, los destilados de estas, sumos de frutas y aceites esenciales. El contenido alcohólico oscila entre el 20 y el 58%, lo normal es aproximadamente un 25% en volumen (%V). El objetivo de esta investigación fue el producir una bebida alcohólica tipo licor a partir de la destilación de un jarabe fermentado obtenido por hidrólisis enzimática de almidón de Ñame (Dioscórea rotundata) con las características exigidas por el INVIMA En esta investigación se genera una alternativa de uso agroindustrial para el Ñame espino que solo es utilizado como un alimento que se consume al fresco sin ningún tipo de procesamiento industrial en su cadena productiva. Según CORPOICA (2003)[2]. En Colombia no se encuentran procesos agroindustriales para la extracción y fabricación de almidones y harinas de Ñame, solo se encuentran recomendaciones técnicas para estos procesos. 2 METODOLOGIA Se procesaron 11 Kg de Ñame espino (Dioscórea rotundata) para la extracción del almidón del ñame acorde al método implementado por CORPOICA en el año 2003 y adaptado por Vidal en el 2009 [3]. Posteriormente, se procedió a realizar la hidrólisis enzimática a una solución de 1000 gramos por duplicado al 40% p/p de almidón. Las soluciones preparadas fueron rotuladas como A y B. La solución A se sometió a la primera hidrólisis utilizando dos enzimas, una -amilasa de nombre comercial LIQUOZIME SUPRA y una glucoamilasa de nombre comercial DEXTROZYME DX, ambas proporcionadas por Coldanzima Ltda. A La solución B se sometió a la hidrólisis únicamente con la enzima LIQUOZIME SUPRA; el método utilizado para la Hidrolisis enzimática fue adaptado del aplicado por Vidal en el 2009[3]. Luego de obtenidos los jarabes, se armaron dos fermentadores de 500 ml de jarabe a 30°Bx de cada jarabe hidrolizado (A y B) y a ambas se les ajustó el pH a 4 con ácido clorhídrico HCL 0.5 N en erlenmeyer kitasato de 1000 ml asegurando la anaerobiosis y enriqueciendo el medio con diferentes nutrientes para la activación de la levadura en cada fermentador, se le agregó un 2% de levadura del volumen total a fermentar y se mantuvo a temperatura ambiente (29°C). Los procesos anteriores se observan en las figuras siguientes: Figura 1. Extracción del almidón de Ñame Fuente: Vidal (2009).
  • Figura 2. Procesos de Hidrolisis Enzimática Fuente. Elaboración propia (2011.) Finalmente se procedió a evaluar el avance de la fermentación cada veinticuatro horas teniendo en cuenta pH, temperatura y grados Brix. Al término de cada fermentación se practicó una pasteurización con calen- tamiento progresivo en un baño de maría hasta alcanzar una temperatura estable de 60°C durante 15 minutos que inactivó las levaduras en el mosto obtenido. Ambas soluciones (A y B) fueron pasadas por un filtro al vació para separar la biomasa del producto deseado. A continuación, se montó un equipo de destilación tradi- cional, con un condensador de esferas y se procedió a destilar cada una de los jarabes hidrolizados fermentados. De cada fermentador se tomo muestras de 5 ml para realizar los análisis de etanol (contenido alcohólico), acidez total, acidez volátil, alcoholes superiores, metanol y furfural como indica la norma técnica colombiana para bebidas alcohólicas destiladas; los grados alcohólicos se tomaron por método de cromatografía de gases [4];[5];[6]. Se manejo por triplicado cada uno de los procesos de fermentación y las muestras tomadas para cada análisis. De igual forma, se realizaron dos pruebas de evaluación sensorial: de aceptación y de preferencia para evaluar las características organolépticas del licor obtenido. El equivalente de dextrosa (ED) fue hallado según las recomendaciones de la A.O.A.C. [7].teniendo en cuenta los azúcares reductores (AR) y la cantidad de sustancia seca de cada uno de los jarabes: 3 RESULTADOS Y DISCUSIÓN Los resultados obtenidos en la hidrólisis enzimática fueron: Tabla 1. Caracterización de los jarabes obtenidos de cada proceso de hidrólisis (A y B). Parámetros Muestras Muestra Solución A Solución B Azúcares totales (%) 64.74±0.81 44,88±0.19 Azúcares reductores (%) 50,32±0,54 35,57±0,16 Humedad (%) 32,77±0,18 51,16±0,28 Eq. Dextrosa (%) 74,84±0,36 72,82±0,22 Sustancia seca (%) 67,23±0,18 48,84±0,28 Grados Brix 43,12±0,1 43,52±0,1 pH 6,1±0,1 5,0±0,1 Fuente. Elaboración propia (2011.) Acorde a lo anterior, los jarabes obtenidos pueden clasificarse como productos de alta conversión, se encuentran en el rango de 55-80% de ED [8],lo que le otorga al almidón de ñame espino (Dioscorea rotundata) en una fuente promisoria para la obtención de jarabes con alto contenido de ED. El extracto obtenido de la destilación de las soluciones A y B fueron incoloras y con un aroma característicos. Con un rendimiento del 30% de acuerdo al volumen que se colocó a destilar. El porcentaje de alcohol obtenido después de la destilación para la solución A fue del 24%V, estos grados alcohólicos fueron medidos con un alcoholímetro a 20°C. Mientras que el destilado de la solución B fue del 4%V en las mismas condiciones, motivo por el cual se descartó para la elaboración del licor, debido al bajo contenido de alcohol producido durante la fermentación. Esto puede ser porque en el proceso fermentativo de la solución B las levaduras solo lograron desdoblar las moléculas de glucosa mientras que las cadenas largas de dextrinas que no se pudieron fermentar. El resultado de los grados alcohólicos fue de 22,05° Gay- Lussac. Según el INVIMA (Decreto 365 de 1994)[9]; estas bebidas deben tener un mínimo de 20%V de alcohol (etanol), con lo cual la sustancia destilada de la solución A está dentro del parámetro exigido por la ley. La N.T.C. 620 para bebidas alcohólicas permite un máximo de 20 mg/dm3 de acidez total, y el extracto de la solución A produjo 17,28 mg/dm3 expresados como ácido acético. Por otro lado, los contenidos de metanol, alcoholes superiores y furfural no se detectaron. Estos análisis
  • indican que la bebida destilada se encuentra dentro de los requisitos exigidos por la legislación y la norma técnica colombiana. El rendimiento obtenido del licor obtenido fue del 22% con respecto al mosto que utilizado en la fermentación. Los resultados anteriores se pueden observar en: Tabla 2. Caracterización del licor obtenido Parámetro Valor obtenido Mínimo Máximo Acidez volátil (mg/dm3 ) como ácido acético 10±0,09 N.D. 80 Acidez total (mg/dm3 ) como ácido acético 17,28±0,21 N.D. 20 Furfural (mg/dm3 ) N.D. N.D. 80 Alcoholes superiores (mg/dm3 ) N.D. N.D. 10 Grado alcohólico (%V) 22,05±0,08 20** - Metanol (mg/dm3 ) N.D. N.D. 100 Fuente. Elaboración propia (2011.) La prueba de evaluación sensorial aplicada dio como resultado 9,1% de rechazo del producto, mientras que el 90,9 % indicó que si les gustó, lo cual indica la aceptación del producto por el público. A partir de los 100 panelistas encuestados para la prueba de preferencia de sabor y aroma, se produjeron los siguientes resultados: En cuanto al sabor del producto, el 18,1% de los panelistas consultados indicó que el sabor era muy agradable, mientras que el 72,7% dijo que el producto era agradable. Solo un 9,1% afirmó que el sabor del licor ni le agradaba ni le desagradaba. Para el caso del aroma, un 27,2% de los jueces afirmó que el aroma del producto era muy agradable y el 72,7% dijo que era agradable. De acuerdo a estos resultados se puede decir que las características organolépticas son positivas. 4 CONCLUSIONES Teniendo en cuenta los resultados del estudio se puede concluir lo siguiente: • El rendimiento obtenido en el proceso de extracción de almidón es del 15,1%. Este resultado está por debajo de los reportados en la literatura. • En la composición química del almidón obtenido el contenido de amilosa encontrado es de 30,46% lo que indica que fue superior al reportado por la bibliografía, mientras que la amilopectina disminuyó (67,62%). • Los jarabes obtenidos en la hidrólisis enzimática son de alta conversión, lo cual los hace aptos para ser utilizados en varios procesos de la industria agroalimentaria. • El equivalente de dextrosa, los azúcares reductores y totales son más significativos cuando se aplica la segunda enzima (Dextrozyme DX). • La actividad fermentativa en la solución A fue más efectiva que en la solución B, porque en la solución B no se alcanzó a hidrolizar todo el contenido de almidones en moléculas más sencillas como glucosa y maltosa las cuales si son ideales para que la levadura las desdoble coinvirtiéndolas en alcohol. • El almidón de Dioscórea rotundata es una fuente de materia prima para la obtención de jarabes edulcorantes a partir de un proceso de hidrólisis enzimática. • Los jarabes obtenidos de hidrólisis enzimática del almidón pueden ser utilizados para procesos de fermentación y obtención de bebidas alcohólicas destiladas. • El extracto obtenido en esta investigación es una bebida alcohólica de 22° Gay-Lussac, destilada de una solución fermentada de origen vegetal lo que la convierte en un licor. • El licor elaborado cumple con los parámetros legales exigidos por el ministerio de salud y la norma técnica colombiana. • El licor producido presenta unas características organolépticas aceptables y agradables como lo demuestra el análisis sensorial. 5 REFERENCIAS BIBLIOGRÁFICAS [1] DEMIAN A.L. 1980. The new biology: opportunities for the fermentation industry in annual report on fermentation process. Orlando academy press [2] CORPOICA. 2003. concepción de un modelo de agroindustria rural para la elaboración de harina y almidón a partir de raíces y tubérculos promisorios, con énfasis en los casos de achira (canna edulis), arracacha (arracacia xanthorriza) y ñame (Dioscórea sp.). Tibaitatá Colombia. [3] VIDAL TOVAR, Carlos. 2009. Producción de jarabes edulcorantes por hidrólisis enzimática de almidón de ñame variedad Dioscórea rotundata. Tesis de Maestría. Universidad del Zulia. Maracaibo- Venezuela. [4] ICONTEC, 2002. N.T.C. 620 bebidas alcohólicas, alcohol etílico. ICONTEC. Séptima actualización. Bogotá, Colombia. [5] ICONTEC, 2002. N.T.C. 411 bebidas alcohólicas, Anís o anisado. ICONTEC. Octava actualización. Bogotá, Colombia.
  • [6] ICONTEC, 2002. NTC 4118, Beb Determinación de metanol y de bebidas alcohólicas y en alcohol etíl su elaboración, mediante cromatog ICONTEC. Bogotá, Colombia. [7] AOAC, 2003. Métodos de análisis oficial de química analítica p humedad, fibra, cenizas, grasa Washington. U.S.A. [8] DIAZ GARCIA Armando, ZALDIV SUAREZ Gricel; (2003). Análisis de la glucosa cubana de la fábrica de almidón de Cienfuegos, TECNOLO Vol. XXIII, No. 2, Universidad de O Cuba. [9] DECRETO 365 de 1994. Min Protección Social. Por el cua parcialmente el Decreto 3192 de 1 otras disposiciones sobre la materia. idas alcohólicas. congéneres en lico empleado en grafía de gases. de la asociación para determinar a y proteína, VAR B Ricardo y de la viscosidad e hidrolizados de OGÍA QUÍMICA Oriente, Habana, nisterio De La al se modifica 1983 y se dictan Colombia. Ing. Carlos Ramón V Alimentos Universidad Nacio UNAD -(Colombia-1997).E procesos Industriales de (Colombia-2001). Magister Tecnologíade Alimentos (Venezuela-2009). Cursante Mención: Gerencia (URBE-2 programa de ingenieríade a Ciencias Básicas, Tecnolog UNAD. Docente Catedrático Industrial de laUniversidad d Cesar, Colombia. Correo electrónico:carlos.vid Celular: +57300-8039324 VidalTovarM.Sc,Ingenierode onal Abierta y a Distancia - Especialista Ingeniería de laUniversidad del Norte Scientiarum en Ciencia y Universidad del Zulia del Doctorado enCiencias 2012). Docente Ocasional del alimentos de la Escuela de gía e ingenierías –ECBTI-, del Programa de Ingeniería de Santander en Valledupar, dal@unad.edu.co
  • DISEÑO Y EVALUACIÓN DE UN EMPAQUE BIODEGRADABLE DE MORA EN FRESCO PARA LOS CULTIVADORES DEL DEPARTAMENTO DE RISARALDA. Carlos Cardona1 , Henao Natalia. Facultad de Ciencias e Ingeniería, Fundación Universitaria del Área Andina, Pereira, Colombia RESUMEN Se realizo el diseño y evaluación de un empaque biodegradable para la comercialización de mora en fresco por los cultivadores del departamento de Risaralda –Colombia, y así ayudar a prolongar la vida útil del producto. Esta fue una investigación cuasi experimental de tipo descriptiva y aplicada. Las pruebas realizadas fueron fisicoquímicas, microbiológicas y de vida útil necesarias para establecer cuáles fueron las variables que más influencia tienen en la conservación del producto, de la misma forma cual son los métodos de conservación que incrementan la vida útil en la etapa de Poscosecha. Para el diseño del prototipo del empaque para la comercialización de mora se uso la metodología propuesta por Gui Bonsiepe de Interfaces. Se desarrollo un prototipo de empaque con materiales reciclables bajo el concepto de producción limpia y bajo costo para la conservación de la mora en el mercado nacional e internacional. Con el diseño de empaque se aumentado la vida útil de 3 a 5 días a temperatura ambiente y a una temperatura de congelación se incrementa 15 días, se utilizo para la construcción del empaque un material biodegradable y reciclable que contribuya a la conservación de los recursos naturales disminuyendo el consumo de energía. Palabras claves: Mora, conservación, vida útil, diseño, empaque. 1 INTRODUCCIÓN La producción de mora en Colombia hasta el año 2008 fue 93.094 Toneladas según el Ministerio de Agricultura, esta producción se encuentra concentrada en los departamentos de Cundinamarca y Santander, quienes en conjunto aportaron el 52% de la producción total del país en el año 2008 seguidos por Antioquia con 12.06 %, Huila 9.12 % y Valle del Cauca 4.29 %, cuyos porcentajes suman 25,47% y por ultimo están departamentos como Cesar, Tolima, Boyacá, Caldas, Risaralda, entre otros que producen el porcentaje restante del total de la producción. En Risaralda se produce actualmente mora de castilla sin tuna en los municipios de: Santa Rosa de Cabal, Dosquebradas, Quinchía, Guática, Belén de Umbría y Santuario y Apia. La producción de mora mensual en Risaralda es de 271.000 kg mensuales y 54.200 kilos de descartes o pérdidas, El 80% es destinado a la agroindustria y el otro 20% de la producción total es destinada a ventas en supermercados y tiendas locales. Según datos del comité departamental de cafeteros del Risaralda. Podemos decir entonces que 217000 Kg son vendidos a empresas de jugos, mermeladas, bebidas, entre otros; y 54280 Kg se destinan a la venta del producto en fresco, que no tiene un empaque adecuado para aumentar la vida util o para evitar la contaminación del producto final. En el proceso de comercialización de mora en fresco en el departamento de Risaralda, actualmente en la etapa de poscosecha no hay un manejo adecuado que conlleve a la conservación del producto, la mora debe estar almacenada a temperaturas de refrigeración, para disminuir la tasa de respiración del fruto, los pequeños cultivadores de mora del departamento no cuentan con los equipos necesarios para lograr mantener la temperatura por debajo de 5 0 C, además los tiempos de almacenamiento de los productores con relación al transporte al sitio de comercialización o acopio son altos, también debemos considerar los tipos de empaques y recipientes que se utilizan para la recolección, almacenamiento y transporte de la fruta en fresco, podemos decir que no son los adecuados y las condiciones de limpieza y desinfección no son las optimas que permitan mantener el producto en buen estado.
  • Hoy en día, a nivel nacional y regional no se ha desarrollado un empaque adecuado para la conservación y embalaje de la mora cultivada en la región del eje cafetero, esto ocasiona desperdicios considerables en el momento del almacenamiento y otro en el empaque, durante el periodo que se encuentra en los lugares de distribución al consumidor final, ocasionando mala calidad en el producto lo que hace que sea menos apetecido por lo clientes. Los recipientes de cosecha y empaque para la comercialización de mora en fresco son elementos muy importantes ya que inciden en la calidad con la cual el producto llega al consumidor final. Los elementos de recolección más usados para la comercialización de la mora son recipientes de plástico tradicionales en los que se recolecta café con 54.5%, le siguen las canecas reutilizadas 10.6%, el galón 10.6% y el canasto 10.6% en menor cantidad usan bolsas plásticas, baldes o platones 0.3%. Actualmente, los empaques existentes no cumplen con los mínimos requisitos de un empaque propicio para la mora; se pretende entonces diseñar un empaque y establecer los métodos de conservación adecuados que solucionen todas las desventajas que los otros ocasionan, haciendo que el producto se deteriore por diferentes factores tales como: golpes y vibración durante el transporte, magulladuras por el apilamiento, deshidratación prematura, fermentación, derrames, y demás problemas ocasionados por un mal empaque. La mayoría de los comerciantes buscan las soluciones más fáciles poniendo en riesgo la calidad de sus productos, o buscando soluciones nocivas para el medio ambiente, como es el caso del poliestireno expandido, material muy usado en diferentes tipos de empaque como canastillas o bandejas; es un material no reciclable, ni biodegradable y su eliminación es más nociva aún. En este caso, es un empaque inapropiado y que conlleva a otros problemas de tipo ambiental. 2 METODOLOGIA Esta es una investigación de campo, casi experimental de tipo descriptiva y aplicada. Para el desarrollo de este proyecto se planteo el cumplimiento de cada uno de los objetivos específicos. 2.1 Materiales Las frutas fueron recolectadas de cultivos comerciales de mora, localizados en el Departamento de Risaralda, en los municipios de Guática, Quinchía, Belen de Umbria, Santa Rosa de Cabal, Santuario y Apia, en diferentes unidades productivas. El muestreo fue único completamente al azar, teniendo en cuenta los días de cosecha. 2.2 Métodos Los análisis fisicoquímicos y microbiológicos se realizarón en el laboratorio de Aguas y Alimentos de la Universidad Tecnológica de Pereira de acuerdo al cronograma de muestreo establecido para ello y mediante las técnicas y métodos que el laboratorio dispone en el Laboratorio, las cuales están validadas y cumpliendo toda la normatividad vigente en análisis de alimentos. Los análisis fisicoquímicos que se le realizarón a la mora son: • pH • Acidez Titulable. • Grados Brix • Humedad. • Índice de Madurez • Cenizas Los análisis bromatológicos fueron : • Proteína. • Carbohidratos Totales. • Grasa Total • Vitaminas. • Minerales. Los análisis Microbiológicos fueron : • Coliformes totales. • Coliformes Fecales. • Hongos y Levaduras. • Identificación de Salmonella. • El Indice de Respiración fue realizado en el Laboratorio de Poscosecha del SENA Regional Quindío, usando el respirometro y el estudio de vida util en el Laboratorio de Microbiologia de la Universidad Tecnologica de Pereira. Para el diseño del prototipo de empaque para la comercialización de Mora se utilizará la metodología de diseño de interfaces propuesto por Gui Bonsiepe.
  • El esquema está compuesto de tres ámbitos unidos, la primera el usuario o agente social que desea efectivamente cumplir una acción. La segunda la tarea que define lo que el usuario quiere ejecutar y la tercera el utensilio o artefacto para llevar a término la acción; la unión de estos tres campos se produce a través de una interface. La interface no es un objeto es el espacio en que se articula interacción entre el cuerpo, la herramienta, el artefacto como objeto comunicativo y el objeto de una acción como artefacto comunicativo este es justamente el dominio irrenunciable del diseño industrial y grafico. La interface es el ámbito central hacia el que se orienta el interés del diseñador. Gracias a la proyección de la interface se articula el campo de acción en la etapa de utilización de los productos, la interface vuelve accesible el carácter instrumental de los objetos y el contenido comunicativo de la información transformando los objetos en productos. 3 RESULTADOS Según lo observado en la Tabla 1. Las muestras se encuentran microbiolocamente aptas para el consumo humano por debajo del estándar y de acuerdo a la Norma ICONTEC 4106 [7]. Sin embargo el 11% de la muestras muestran aumento en el recuento de hongos y levaduras aspecto a tener en cuenta. Tabla 1. Resultados de los Análisis Microbiológicos. En el análisis bromatológico observado en la Tabla 2. Podemos ver que la humedad promedio es 87.4 % una cifra considerada alta, lo que aumenta el riesgo de deterioro, esta fruta por lo tanto es considerada un alimento perecedero donde los métodos de conservación desempeñan un papel importante en la vida útil del producto. También se recomienda no cortan la cadena de frio ya que las reacciones de fermentación de la Mora deterioran el producto. En cuanto a los macronutrientes como la proteína y la grasa su promedio oscila entre 0.08 y 0.85 % respectivamente cantidades muy bajas que no afectan el producto. Los Carbohidratos oscilan entre los 5 y 7 % y reaccionan con los ácidos de las frutas para producir fermentación de las mismas. Podemos decir que una mayor Humedad disminuye la vida útil del producto. Los demás parámetros como el Índice de Madurez, el pH y los grados Brix se encuentran dentro de los límites establecidos por la norma ICONTEC 4106[7]. 3.1 Efecto del empaque sobre la vida útil de la Mora La Tabla 3 muestra que para el tipo de material EMPET la vida útil del producto es más o menos 7 días y para el Bipack más o menos 3 días a temperatura ambiente, lo cual indica el aumento en la vida útil del producto. Tabla 2. Resultados del Análisis Bromatológico. TEST METHOD USED UNITS 296 301-1 301-2 301-3 310-1 310-2 310-3 321-1 321-2 TotalColiforms Most probable number NMP BACTERIA/g 4 4 4 9 <3 4 <3 4 9 FecalColiforms Most probable number NMP BACTERIA/g <3 <3 <3 <3 <3 <3 <3 <3 <3 Yeast and Mold Count Plate count UFC/g 85x10 3 15x10 4 31x10 3 15x10 3 92 x10 3 23 x10 3 22 x10 4 15x10 3 26 x10 3 Determinationof Salmonella sp en25 g of the food Enrichment Absence/Presence Absence Absence Absence Absence Absence Absence Absence Absence Absence TEST METHOD USED UNITS 332-1 332-2 332-3 332-4 332-5 332-6 341-1 341-2 341-3 TotalColiforms Most probable number NMP BACTERIA/g <3 3,6 43 <3 <3 <3 <3 <3 <3 FecalColiforms Most probable number NMP BACTERIA/g <3 <3 <3 <3 <3 <3 <3 <3 <3 Yeast and Mold Count Plate count UFC/g 17x103 12 x104 21x104 61x103 31x102 56 x103 52 x103 15x103 24 x103 Determinationof Salmonella sp en25 g of the food Enrichment Absence/Presence Absence Absence Absence Absence Absence Absence Absence Absence Absence M ETODO ENSAY O UTILIZADO UNIDADES % % % % % % % % % Fat ExtracciónSoxhlet g/100 g 0,06 0,08 0,07 0,07 0,104 0,062 0,085 0,06 0,06 Total phosphorus Fotométrico Cloruro Estañoso g deP/100 g 0,03 0,02 0,03 0,02 0,024 0,019 0,019 0,021 0,024 Protein Método Kjendahl g/100 g 0,81 1,05 0,89 0,86 0,87 0,86 0,71 N. D. N. D. Fiber Gravimétrico g/100 g 4,19 4,22 4,15 4,3 4,33 4,43 4,65 4,18 5,23 Ash Gravimétrico g/100 g 0,34 0,56 0,39 0,49 0,48 0,7 0,6 0,43 0,48 Humidity Gravimétrico g/100 g 87,85 88,2 86 88 87,63 88,39 89,98 86,14 87,73 Calcium AbsorciónAtómica LlamaOxido Nitroso-Acetileno g/100 g 0,0068 0,004 0,004 0,003 0,003 0,025 0,004 0,04 0,016 Magnesium AbsorciónAtómica LlamaAcetileno- Aire g/100 g 0,2 0,12 0,14 0,08 0,018 0,029 0,02 0,024 0,028 Fat ExtracciónSoxhlet g/100 g 0,1 0,085 0,1 0,12 0,067 0,05 0,149 0,145 0,11 Total phosphorus Fotométrico Cloruro Estañoso g deP/100 g 0,02 0,015 0,017 0,015 0,009 0,018 0,023 0,027 0,023 Protein Método Kjendahl g/100 g 1,2 1,28 N. D. N. D. N. D. 0,05 N. D. N. D. N. D. Fiber Gravimétrico g/100 g 4,24 5,04 4,02 4,62 4,42 4,51 4,56 4,44 4,57 Ash Gravimétrico g/100 g 0,52 0,52 0,51 0,61 0,77 0,51 0,55 0,52 0,51 Humidity Gravimétrico g/100 g 85,19 86,31 87,81 86,69 87,62 87,57 87,71 86,28 88,28 Calcium AbsorciónAtómica LlamaOxido Nitroso-Acetileno g/100 g 0,003 0,002 0,003 0,001 0,002 0,001 0,007 0,003 0,003 Magnesium AbsorciónAtómica LlamaAcetileno- Aire g/100 g 0,008 0,01 0,011 0,011 0,012 0,008 0,02 0,026 0,017 Total carbohydrate Azucares reductores y no reducores g/100 g 5,4 6 6,2 7 5,8 6,5 6,8 5,1 6
  • Tabla 3. Impacto del empaque en la vida útil de la mora a 40 C. Para determinar que la prueba de inferencia estadística es válida se realizo una prueba de bondad de Ajuste de Kolmogorov – Smirnov con un 95% de significancia por medio de la distribución de Weibull, esta prueba se utiliza teniendo en cuenta las frecuencias observadas y esperadas y se encontró que hay una diferencia significativa en comparación a la tabla de Kolmogorov – Smirnov. Se encontró que la diferencia máxima es menor que la comparada concluyendo que los datos se ajustan a esta distribución. 4 REFERENCIAS [1] Orrego, C., Castano, Jose., and Montes, Luz, 2006, Evaluación del sistema de congelación rápida para la conservación de la mora de castilla Colombia, Revista del Centro Nacional de Investigaciones – Cenicafé, 56(4), pp 365-381. [2] Gabas, Ana., Romero, Javier., Orrego, C., and Ferreira, Renato,2007, Rheological and Thermophysical propierties of Blackberry juice Brasil, Ciencia e Tecnología de Alimentos, 27(3), pp 589-596. [3] Sora, Dayron., Fischer, Angel, and Florez, Rafael,2006, Refrigerated storage of Mora de Castilla (Rubus glaucus Benth) fruits in modified atmosphere packaging, Agronomia Colombiana, 24(2), pp 306- 316. [4] Chica, M, 2004, Determinación de la altura permisible de la fruta en un empaque en condiciones estáticas que permita conservar la calidad de los productos de: mora de Castilla /Rubus glaucus/ Benth, lulo de Castilla /Solanumquitoense/ L., mangos criollos /Mangifera indica/ L., uchuva /Physalis peruviana/ L. y pitahaya amarilla /Selenicereusmegalanthus/ Haw, Universidad de Caldas, Facultad de Ingeniería, Tesis 114 p. [5] Ríos, German, 1996, Análisis del Diagnóstico Participativo en Mora en el Municipio de Quinchía, Risaralda, Colombia, Agrocambio, 2(5), pp 41-44. [6] Franco, German., Rodriguez, Jorge, and Guevara, Norman, 1996, Propagación de mora de castilla por estaca modificada. Colombia, Agrocambio, 2(5), pp 20-26. [7] Instituto Colombiano de Normas Técnicas – ICONTEC NTC 4106, Frutas Frescas, Mora de Castilla, Especificaciones, Bogotá, Colombia. Año 2006. [8] Instituto Colombiano de Normas Técnicas – ICONTEC NTC 5141, Frutas Frescas, Mora de Castilla, Especificaciones, Bogotá, Colombia. Año 2004 [9] Corpoica. Regional Nueve, Primer Seminario, Frutales de Clima Frio. Año 1996. [10] Cubides, Diana., Cardona, Carlos., and Lopez, Luis, 2004, Obtención de productos de alto valor agregado a partir de la mora de castilla (Rubus Glaucus), V Seminario nacional e internacional de frutales, Universidad Nacional Sede Manizales. [11] Orrego, Carlos, 2001, Comportamiento en almacenamiento de la mora de castilla (Rubus Glaucus Benth) sometida a diferentes procesos de congelación, 6º Congreso nacional de ciencia tecnología de alimentos Ponencia. [12] Federación Nacional de Cafeteros- Cenicafé-SENA. Caracterización y normalización de los recipientes en cosecha y empaques de comercialización de frutas en Colombia. Año 2006. http://huitoto.udea.edu.co/FrutasTropicales/mora_de_casti lla.html. Universidad de Antioquia Facultad de Química Farmacéutica mora DE CASTILLA (Rubus glaucus). Consultado Febrero 20 de 2011. 1 Correspondencia: ccardona@funandi.edu.co
  • EVALUACION DEL CONTENIDO DEL ÁCIDO ASCÓRBICO Y ACTIVIDAD PEROXIDASA SOBRE FLORETES DE BRÓCOLI (Brassica oleracea L, var. legacy), SOMETIDOS A PROCESO DE ESCALDADO Y LIOFILIZACIÓN Golda Meyer Torres1 , Dairo Gil2 , Julie Carolina Parra3 Resumen Se evaluó el contenido del ácido ascorbico (L-AA) y actividad peroxidasa (POD) sobre floretes de brócoli (Brassica oleracea L, var. legacy), sometidos a proceso de escaldado y liofilización. En esta experimentación se trabajó con brócoli fresco (BF), brócoli escaldado (BE), brócoli liofilizado (BL) y brócoli escaldado-liofilizado (BEL). Las muestras se sometieron a un escaldado a vapor durante 90±2ºC por 2 minutos y una liofilización con congelación previa (12 horas a -26ºC); la variables de trabajo del equipo fueron de -56ºC y 0.021mbar. La determinación de L-AA se realizó por el método espectrofotométrico con 2,2-biquinolína o cuproina y la POD mediante medición de tetraguayacol a 470 nm. El tratamiento BL registró los mayores valores para el contenido de L-AA (122. 618mg /100 gramos de producto) y una UPOD (34.291/ 100 gramos de producto) a un nivel de significancia del 95% (p £ 0.05). El escaldado también presento diferencias significativas (p £ 0.05), sobre el contenido de L-AA (115. 310mg /100 gramos de producto) y la UPOD (93.054/ 100 gramos de producto). No se encontraron diferencias significativas para determinar el efecto del BEL sobre el contenido de L-AA, pero si se pudo determinar que BEL causa una disminución del 97,7 % de la UPOD. De acuerdo al análisis de varianza ANOVA, se concluye que el mejor tratamiento para retener el L-AA e inactivar la POD es el liofilizado, pero éste se debe seguir evaluando para verificar que no se registran cambios significativos durante un almacenamiento prolongado que relacionen mayor pérdida de L-AA y reactivación de la POD, por lo tanto, a las condiciones de esta experimentación el tratamiento BE aporta mayor estabilidad sobre el contenido de L-AA y POD. Palabras claves: Brócoli, ácido ascórbico, ácido dehidroascórbico, peroxidasa, liofilización, escaldado. 1 INTRODUCCIÓN El brócoli es una planta de la familia de las Brasicáceas, antes llamadas Crucíferas, que se ha extendido por todo el mundo; es uno de los vegetales más consumidos debido a los diferentes beneficios sobre la salud humano y los efecto comprobados en la reducción de la incidencia de cáncer. Es un vegetal que durante el manejo postcosecha puede llegar a perder o reducir notablemente sus propiedades funcionales, por lo tanto, el interés actual es estandarizar protocolos convencionales y/o implementar tecnologías nuevas para asegurar la estabilidad de éste vegetal. Conocer el metabolismo en el eslabón de almacena- miento y procesamiento, es garantizar la no degradación de las sustancia bioactivas de brócoli, por ejemplo, el conocimiento de la influencia exacta de la temperatura de almacenamiento para cada verdura en estado congelado puede contribuir a determinar las condiciones adecuadas para mejorar la calidad y determinar su vida útil [1]. Otros autores presentan resultados relacionados con la retención de sustancias funcionales en estado fresco evaluando el efecto del empaque bajo condiciones de refrigeración [2]. De acuerdo a la revisión bibliográfica, se ha identificado que el brócoli posee los mayores contenido de ácido ascorbico L-AA, de 100 gramos comestibles presenta 100 mg, es el antioxidante hidrosoluble más abundante encontrado en plantas [3], por lo tanto, esta es una de la sustancias bioactivas de mayor interés en el contexto de las investigaciones de las crucíferas, tal es el caso que se ha determinado las condiciones óptimas de almacena- miento para evitar la degradación de L-AA en brócoli (- 3.02ºC con 9.43 dias y con 3.77% de área de intercambio gaseoso) [4], otros trabajos presentan resultados que relacionan el contenido de L-AA con la velocidad de respiración durante el almacenamiento ; la senescencia de floretes del brócoli, esta relacionadas con la cantidad de peróxidos formados por proceso de oxidación [5].
  • Evaluar la estabilidad de L-AA, implica modificar, evitar, inhibir o inactivar las rutas metabólicas implicadas en la degradación de este compuesto, por ejemplo, la oxidación enzimática y no enzimática del L-AA a ácido dehidroascorbico ADHA, aunque biológicamente activo puede seguir degradándose en ácido 2,3-cetogulónico, que es biológicamente inactivo , lo que conduce a rela- cionar que la medición del contenido de L-AA, ADHA y la suma de L-AA+ADHA ( vitamina C), debe emplear técnicas analíticas de alta sensibilidad como croma- tografía líquida de alta eficiencia (HPLC), método que ha sido optimizado mediante el uso de ácido metafosforico, para inactivar la ascorbato oxidasa [7] y obtener el L- AA total; en la determinación de ADHA se usa (TCEP) en vez DDT [8]. La HPLC es muy costosa, por lo que se emplean técnicas que relaciona métodos volumétricos como el 2,6-diclorofenolindol, espectrofotométricas, usando como agentes reductores 2,4dinitrofenilhidrazina y 2,2-biquinolína o cuproína, pero estos métodos solo dan el contenido de L-AA. [8]. La aplicación o el diseño de nuevas tecnología que involucren otras ramas de la ciencias biológicas podrían ayudar a mejorar los métodos de conservación para mantener las condiciones de frescura el contenido de L-AA, se sabe que en vegetales antes de la cosecha, el ADHA es nuevamente reducido a L-AA por acción de la enzima glutatión ascorbato[9]; para el caso específico del brócoli, se ha identificado que en 6 semanas de almacenamiento se reduce la acción de la glutatión ascorbato, encontrándose altos niveles de ADHA en muestras durante 4 dias a 20ºC. [10]. Las condiciones del cultivo también afecta el contenido de L-AA en brócoli (temperatura y radiación solar), Si la Tº ambiente y del cultivo es de 15-20ºC con radiación media, el contenido de AA decrece hasta un 38% comparado cuando crece a Tº entre 7-12ºC, hay un efecto predomínate de la Tº sobre el contenido de AA a bajas Tº (2-3ºC), en algunas variedades de brócoli el contenido de AA incrementó [11]. Los métodos tradicionales de conservación de vegetales están siendo optimizados, por ejemplo, el escaldado, procedimiento eficiente para inactivar enzimas que causan pardeamiento, pérdida de la textura y decoloración de pigmentos. Para el brócoli, la inactivación de enzimas con actividad peroxidasa POD como la ascorbato peroxidasa (APx), resulta de gran importancia, ya que esta APx degrada a L-AA. Aalgunos vegetales tienen POD termoresistentes, tal es el caso de la POD de la remolacha roja, para inactivarla se ha propuesto el escaldado en microondas, técnica en fase de experimentación [12], también sobre brócoli, se ha desarrollado esta técnica [13]. Las nuevas tecnología para la inactivación de la POD se relacionan con la combinación de escaldado y ultrasonido, este sistema se ha disminuido hasta un 50% la UPOD en el extracto de tomate [14], La eficacia del proceso de escaldado ha sido determinada experimentalmente por la desactivación parcial o total de las isoenzimas peroxidasa, trabajando HTST [15]. La eliminación del agua libre contribuye a retener el L- AA y a disminuir la actividad POD, por lo tanto, métodos como la liofilización no deben quedar por fuera del contexto actual de las investigaciones sobre la estabilidad química y nutricional de vegetales, para la preservación de sustancias biológicamente activas, por esto en este trabajo se evalúo la estabilidad del L-AA y la actividad enzimática de la peroxidasa POD del brócoli (Brassica oleracea L, var. legacy) cuando se sometieron a temperaturas de escaldado a 90±2ºC por 2 minutos, de y una liofilización con previa congelación por 12 horas a -26ºC. 2 METODOLOGÍA Las muestras de Brocóli (Brassica oleracea L, var. legacy), se obtuvieron directamente del cultivo ubicado en la Ciudad de Duitama (Colombia), con 132 días de crecimiento, en estado de maduración óptimo; se almacenaron a una tempratura de refrigeración (4-5ºC) por 18 horas. Se utilizaron floretes tomados de los ápices laterales externos con las siguientes especificaciones: longitud 3.0 cms desde la yemas flora- les hasta el tallo y 4.0 cms correspondiente al ancho del florete. La materia en fresco tuvo la siguiente carac- terización: acidez titulable total 0.183 % expresada en ácido cítrico mediante método adaptado de la A.O.A.C. 31.231/84.942.15 / 1990, pH 6.2 mediante método adaptado de la A.O.A.C.10.84 / 1984 y 84.14% de humedad, determinada mediante pérdida de peso a cápsula abierta. Una vez se acondicionó la materia prima, se procedió a realizar un escaldado al vapor a una temperatura de 90±2ºC por 2 minutos, de y una liofilización; en donde la muestras se sometieron a congelación por 12 horas a - 26ºC, la variables de trabajo del equipo fueron de -56ºC y 0.021mbar. En esta experimentación se trabajaron los siguientes tratamientos: tratamiento brócoli fresco (BF), tratamiento brócoli escaldado (BE), tratamiento brócoli liofilizado (BL) y tratamiento combinado escaldado-liofilizado (BEL). La determinación de L- ácido ascórbico (L-AA) en las muestras BF, BE, BL y BEL, se realizó por el método espectrofotométrico con 2,2-biquinolína o cuproina [16] [17] con algunas modificaciones, el cual se basa en la
  • reducción de iones cúpricos; todas realizaron por triplicado y el resultado mg/100 gramos de producto. El en determinación de la actividad de la perox realizó mediante medición de tetraguay [18] [19]; el resultado se expresó e actividad enzimática, UPOD/100 gramos Para medir el efecto de cada uno de sobre el contenido de L-AA se utilizó un 2x2x3 y un diseño factorial 2x2x2 para d la actividad de peroxidasa (POD), en d siguiente modelo [20]; Los resultados de L-AA y POD fu mediante análisis de varianza AN utilizando el paquete estadístico SPSS (St for the Social Sciences). 3 RESULTADOS El brócoli fresco se caracteriza por vegetales que mayor contenido de ácido- AA) y/o vitamina C (L-AA y ADH reportado en mg/100 gramos de product 197.7 [21]; 103±3.5 [22]; 13.37-110 para 131.35 para vitamina C [10]; 895 [ valores anteriroes se registraron en varie Los datos obtenidos en esta investigació que el tratamiento en fresco (BF) presenta L-AA entre el rango de 134. 637 -147-239 de producto, resultado similar a los en bibliográfica. El Brócoli fresco pres actividad peroxidasa de 326.432 UPOD producto, este resultado es superior por cada 100 gramos de producto fresco [ En el presente estudio se observó que el AA fue mayor para BF que en los tratam BEL En BE se obtuvo una diferen (p£0.05), en donde el proceso térmico minutos) causó un efecto altamente sign contenido de L-AA (Tabla I). Cuand proceso de liofilización (Tabla II), se ob altamente significativas en el conteni referencia al tratamiento BF (p£0.05). las muestras se se expresó en nsayo para la xidasa (POD), se yacol a 470 nm en unidades de de producto. los tratamientos n diseño factorial determinación de donde se siguió (1) ueron analizados NOVA al 95%, tatistical Package ser una de los -L-ascórbico (L- HA), asi lo han to: entre 123.3- a L-AA y 57.35- 13]; Todos los edades diferentes. ón, evidenciaron a un contenido de 9 mg/100 gramos ncontrados en la sentó una gran D/100 gramos de a 308 umol/min [23]. contenido de L- mientos BE, BL y ncia significativa o 90±2ºC por 2 ificativo sobre el do se aplicó el servó diferencias ido de L-AA en Tabla I: Análisis de Varianza ANOV AA. a Diferencia significativa p£0.05 El efecto del tratamiento BE AA, no registró diferencias lo tanto, combinar el escalda condiciones de la experim sobre la concentración de mencionar que en otros traba significancia; [24], cuando t (Brassica oleracea L, var. le congelación a -30ºC por liofilización. De esto se dedu escaldado y congelación a aplicados condicionan el efe Tabla II: Análisis de Varianza ANO L-A a Diferencia significativa p£0.0 A diferencia del contenido d escaldado y la liofilización enzimática de la peroxidasa ( % de UPOD residual (Tab combinar tratamientos térm minutos y liofilización ( cong a -26ºC por 12 horas), red actividad POD pero no resu retención de L-AA, lo que co y ajuste de las condicio determinar el efecto combin un sinergismo, si se tiene en (BEL) registró el 97.7% de de la POD y se analiza que d se incluye la actividad de iso como la ascorbato peroxidas reducción del H2O2 ce oxidación de L-AA [24] y POD responsable de color am almacenamiento [25] . VA para el efecto de BE sobre el L- 5 (n= 3). EL sobre el contenido de L- significativas (p³0.05), por ado y la liofilización en las mentación, no generó efectos L-AA, pero es importante ajos, sí se ha obtenido esta trataron muestras de brócoli egacy) a 95ºC por 3minutos, 2.5 horas y posterior ujo que la temperatura de al igual que los tiempos cto del tratamiento BEL. OVA para el efecto de BL sobre el AA. 05 (n=3). de L-AA, la interacción del (BEL), afectó la actividad (p³0.05), registrando un 3.3 bla IV). Esto significa que micos de 90±2ºC por 2 gelación previa de muestras duce significativamente la ulta práctico para evaluar la onlleva a sugerir la revisión ones de liofilización para nado, que podría resultar en cuenta que éste tratamiento reducción de la actividad dentro de este valor, también oenzimas asociadas a la POD sa (APx), responsable de la elular con la concominate la clorofilasa asociada a la marillo del brócoli durante el
  • Tabla III: Porcentaje de retención de L-AA p b Con un intervalo del 95% de confianza. El análisis de varianza, permitió identifica que retiene mayor cantidad (%) de L-AA 89.32% (Tabla III), el cual difiere d encontrados en otros estudios similares; brócoli congeladas a -30ºC por 2.5 hor registró un 16.8% de retención [26] .E puede señalar que la diferencia de valo relacionada con la eliminación del durante la liofilización, produciendo m fijación de L-AA en comparación cuando el producto. Las pérdidas de L-AA en fueron atribuidas a la etapa de ad muestras (corte) y en el congelamie liofilización (-26 ºC por 12 horas). En corte y trituración se degrada la matr favoreciendo el contacto de la AAO generando el ADHA [28], aumentando de la conversión a ácido dicetogulónic actividad vitamínica. Tabla IV: Análisis de varianza ANOVA p las tratamientos sobre UPO a Diferencia significativa p£0.05, (n=2) En la evaluación del efecto de BL so resultó ser altamente significativo (p £ 0 una valor residual de 10.50% de activ (tabla IV), lo que conlleva a deducir qu tiene un efecto significativo para modi enzimática de la POD. De acuerdo a lo aplicación de BL se considera una alte conservación del brócoli sin aplicación térmicos (escaldado) porque retiene un de L-AA y la UPOD disminuye a las c experimentación; pero se debe validar para Be y BL. ar el tratamiento A: el BL con un de los resultados en muestras de ras en donde se En tal sentido se ores puede estar agua libre [27] mayor retención y o sólo se congela este tratamiento ecuación de las ento previo a la n procesos como riz de alimentos O sobre L-AA, las posibilidades co que carece de para el efecto de OD. obre la UPOD, .05), se obtuvo vidad enzimática ue la liofilización ficar la actividad os resultados, la rnativa para la de tratamientos n alto porcentaje ondiciones de la y garantizar la estabilidad el producto dura prolongado, ya que puede perdida de L-AA hasta en u principalmente a la reactivaci con actividad peroxidasa [25] ascorbato peroxidasa (APx); isoenzimas ha sido evaluada El tratamiento BE registra retención de L-AA, pero al similares, en donde se obtuvo minutos [13] éste es superio alta retención de L-AA al minutos) [28], concluyendo puede considerar un buen mét además el contenido de 1 producto, es superior al re composición de alimentos Co Brócoli (100 mg/100 gramos Gráfica 1: efecto del tratamiento Los parámetros de tiempo y t dejan en la muestras una 28.5 POD; de acuerdo al anális presenta un efecto significati POD ((p £ 0.05) frente al val al obtenido por [30], en donde decrece con el aumentos de inferiores a 100 segundos en inactivación enzimática favor las muestras. 4 CONCLUSIONES El escaldado es uno de los m usados durante el procesamie en este trabajo, se evidenció retención de L-AA y la UPO que es el mejor tratamien estabilidad química ( activida L-AA) en floretes de Brocó legacy), (Gráfica 2). ante un almacenamiento presentarse durante éste la un 50% o más [1], debida ión de isoenzimas asociadas ], ascorbato oxidasa (AAO) y ; la reactivación de estas [29], el menor valor, 79,70%, en l compararlo con trabajos o un 51.37% a ±92ºC por 4 or, Se ha determinado una aplicar HTST ( 90ºC por 3 que el tratamiento BE se todo de retención de L-AA, 115.310 mg/100 gramos de egistrado en la tabla de olombiano del ICBF para el de parte comestible). BE y BL sobre el efecto de UPOD. temperatura aplicados en BE, 50% de actividad residual de is de datos, el escaldado ivo sobre la actividad de la lor de BF, resultado similar e se evidencio que la UPOD la temperatura a tiempos n floretes de Brocóli. Esta rece la retención de L-AA en métodos de conservación más ento industrial de vegetales, y ó el efecto que tiene sobre la OD, por lo tanto se consideró nto para mantener una ad peroxidasa) y nutricional ( li (Brassica oleracea L, var.
  • El tratamiento BL registró los mayores contenido de L-AA y UPOD, (figura 2 evaluar para verificar que no se re durante el almacenamiento prolongad considerado como otro método eficiente p estabilidad química ( actividad peroxidas L-AA) en floretes de Brocóli (Brassica legacy). El tratamiento BEL, es efectivo para UPOD pero no causa un efecto sobre el AA, por lo tanto se deben evaluar con de liofilización para considerarlo como conservación, combinando altas y bajas t mantener la estabilidad química( activid nutricional ( L-AA) en floretes de B oleracea L, var. legacy). Gráfica 2: comportamiento de los tratamient BEL sobre el efecto de L-AA y U Para los tratamiento BF, BL y BE, la AA están asociadas a una combinació por el baño de hielo usase en el escaldad expuesta) que pudieron permitir la formas biológicamente inactivas. 5 REFERENCIAS [1] Goncalves, E. Abreu, M. Brand (2011). Degradation kinetics of c and drip loss. Internationa Refirgeration, 34, 2136-2144. [2] Nath, A. Bagchi, B. Misra D.(2011). Changes in post-harve qualities of broccoli florets. F 127, 1510-1514. [3] Chacón T. (2010). Efecto de soluciones de Chorella Vulgari Obliquus sobre el Contenido s valores para el 2), pero se debe egistran cambios dos para ser para preservar la a) y nutricional ( oleracea L, var. la disminuir la contenido de L- otros parámetros o un método de emperaturas para dad peroxidasa) y Brocóli (Brassica tos BE, BE, BL y UPOD as pérdidas de L- ón de lixiviación do, el corte (área oxidación hacia dao, T. Silva. C. colour, vitamin C al Journal of a, LK. Bidyut, st phytochemical Food Chemistry, la aplicación de i y Scenedesmus de compuestos funcionales en germ Oleracea var, italic Diseño y Gestión de Sabana). [4] Zambrano, J. Maffe W. Quintero, I. (2 condiciones de a contenido de ácido Fac. Agron. (LUZ)., [5] Techavuthiporn, Ch (2008). Prediction o broccoli using a mo Postharvest Biology 381. [6] Chebrolu, K. Jayap (2012). An improved for quantification o Science and technolo [7] Pearson, D. (1986). T el análisis de alim Acribia S.A. [8] Robinson, D. (199 nutritivo de los ali S.A. [9] Espinal, M. (2010) ablandamiento de l (Psidium guajava), Ciencias Químicas, Colombia). [10]Koh, E. Wimalasiri, (2009). Content of kaempferol and tota broccoli. Journal analysis, 22, 637-643 [11]Schonhof, I. Kläring Effect of tempera radiation conditions ascorbic acid in g Science Direct Ag environment, 119, 10 [12]Latorre, M. Ronel Microwave inactiva vulgaris L. var. cond food Engineering, 10 [13]Chaparro, MP. Dia Evaluation of m blanching of brocco 1, 426-432. [14]Sahin, S. Soysal, C. and temperature Ultrasonics Sonochem minados de brócoli (Brassica ca) (Tesis de Magister en Procesos, Universidad de la ei, M. Valera, A. Materano, 2011). Optimizacion de las almacenamiento sobre el ascórbico en brócoli. Rev. 28 (1), 661-669. h. Nakano, K. Maezawa, S. of ascorbic acid content in odel equation of respiration. y and technology, 47, 373- prakasha, G. Sun Yoo, K. d sample preparation method of ascorbic acid and. Food ogy, 47, 443-449. Técnicas de laboratorio para mentos. Zaragoza: Editorial 1). Bioquímica y el valor imentos. Zaragoza: Acribia . Capacidad antioxidante y la guayaba Palmira ICA I , (Tesis de Maestría en Universidad Nacional de K. Chassy, A. Mitchell, A. f ascorbic acid, quercetin, al phenolics in commercial of food composition and 3. g, H. Krumbein, A. (2007). ature increase under low s on phytochemicals and greenhouse grown broccoli. griculture, Ecosystems and 03-111. lli, P. Rojas, A. (2012). ation of red beet (Beta ditiva) peroxidase. Journal of 09, 676-684. z, Y. Paredes, MJ. (2011). microwave technology in li. Procedia – Food Science, (2011). Effect of ultrasound on tomato peroxidase. mistry, 18, 689-695.
  • [15]Gallardo, M. (2004). Validación Experimental de un Software Asistido por Internet para describir el proceso combinado escaldado-hidroenfirado en floretes de Brocóli (Brassica oleracea L. var Italica). (Tesis de Licenciado en Ingenieria de alimentos, Universidad Austral de Chile). [16]Contreras, E. Strong, F. (1884). Determinacào de àcido ascàrbico (vitamina C) por reducào de àiones cùpricos. Nota Tècnica Química Nova, 60-64. [17]Borgues, R. Atzingen, M. (2004). Machado, M. Análisis Sensorial y ácido ascórbico de hortalizas en fresco y ultracongeladas. Ciencia y Tecnología Alimentaria. [18]Avollone, C. Cravzov, A. Montenegro, S. Pellizzare, E. (2000). Estudio de la actividad de polifeniloxidasa y proxidas en Carica papaya L. minimamente procesada. Comunicaciones científicas, Universidad nacional de Nordeste- Argentina. [19]Avollone, C. Cravzov, A. Montenegro, S. Pellizzare, E. (2000). Estudio de la actividad de la peroxidasa, pectinesterasa y polifeniloxidasa en extracto enzimático de sandía (Citrullus vulgaris Schard). Universidad nacional de Nordeste-Argentina. [20]Montgomery, D. (2002). Diseño y análisis de experimentos. México: Limusa Wiley. [21]Howard, L. Wong A. Perry, A. Klein, B. (1999). B-Carotene and Ascorbic Acid Retention in Fresh and Processed Vegetables. Journal of Food Science, 64(5), 929-936. [22]Zhang, D. Hamauzu, Y. (2004). Phenolics, ascorbic acid, carotenoids and antioxidant activity of broccoli and their changes during conventional and microwave cooking. Food Chemistry, 88, 503-509. [23]Murcia, Ma, Lopez, B, Martinez, Vera, M. García. (2000). Evolution of ascorbic acid and peroxidase during industrial processing of broccoli. Journal of the Science of Food and Agriculture, 80, 1882-1886. [24]Munyaka, A. Makule E. Oey I. Loey Hendrickx, M (2010). Thermal Stability of L-Ascorbic Acid and Ascorbic Acid Oxidase in Broccoli (Brassica oleracea var. italica). Journal of food science, 75 (4), 336-340. [25]Funamoto, Y. Yamauchi, N. Shigyo. (2003). Involvement of peroxidase in chlorophyll degradation in stored broccoli (Brassica oleracea L.) and inhibition of the activity by heat treatment. Postharvest Biology and Technology, 28, 39-46. [26]Patras, A. Tiwari, B. Brunton, N. (2011). Influence of blanching and low temperature preservation strategies. Food Science and Technology, 44, 299-306 [27]Fennema, O. (2006). Química de los alimentos, edición 2.. Zaragoza: Editorial Acribia S.A. [28] Munyaka, A. Oey, I. Van Loey, A (2010). Application of thermal inactivation of enzymes during vitamin C analysis to study the influence of acidifcation, crushing and blanching on vitamin C stability in Broccoli ( Brassica Oleracea L var Italica). Food Chemistry, 120, 591- 598. [29] Tipawan, T. Barrett, D. (2005). Heat Inactivación and Reactivation of Broccoli Peroxidase. Jornal of agricultural and Food chemistry, 53, 3215-322.. [30] Polata, H. Wilinska, A. Bryjak, J. Polakovic, M. (2009). Thermal inactivation kinetics of vegetable peroxidases. Journal of Food Engineering, 91, 387- 391. 1 golda.torres@unad.edu.co Universidad Nacional Abierta y a Distancia, Duitama- Colombia. 2 dgil_65@yahoo.es Universidad Pedagógica y Tecnológica y de Colombia. Duitama-Colombia. 3 julay411@hotmail.com Universidad Nacional Abierta y a Distancia, Duitama- Colombia.
  • PURIFICACION DE UNA DEXTRANSACARASA (DS) PRODUCIDA POR LEUCONOSTOC MESENTEROIDES IBUN 91.2.98 CEPA NATIVA COLOMBIANA Glaehter Y. Flórez1 , Sonia A. Ospina2 , Gustavo Buitrago Hurtado3, Instituto de Biotecnología IBUN, Universidad Nacional de Colombia, Bogotá, Colombia. Resumen La producción de un biopolímero microbiano de tipo glucano con potenciales aplicaciones en la industria de alimentos, farmacéutica y química, se realiza por vía enzimática utilizando una dextransacarasa (DS) extracelular. Esta enzima es producida por una cepa nativa de Leuconostoc mesenteroides catalogada como IBUN 91.2.98. Un nuevo proceso de purificación de la DS fue desarrollado en este estudio,el cual combina la inmovilización de la enzima en el biopolímero que se produce, una hidrólisis parcial mediante la acción de una dextranasa y la separación de las enzimas por cromatografía de intercambio aniónico. Tras purificar y caracterizar esta enzima presentó una actividad específica de 331 U/mg,ausencia de subunidades, un peso molecular de 180 kDa, Vmax de 15.1 U y un Km de 52 mM. Tanto la actividad hidrolítica como de transferencia fueron inhibidas por los cationes Fe+3 (96.5%) y Al+3 (99.1%), mientras que los cationes Mg+2 y K actuaron como activadores aumentando las actividades en un 36.7% y 27.2%, respectivamente. El producto de la reacción enzimática, fue un polímero de tipo dextrano con un peso molecular entre 800 a 1000 KDa, con un rendimiento del 43,4% con respecto al sustrato inicial y una relación enzima sustrato de 6,25 U/g. Palabras claves Dextransacarosa, Leuconostoc mesenteroides, Dextran, Glucano, Glucosiltransferasa, Exopolisacáridos. 1 INTRODUCCION Las glicosiltransferasas o transglicosidasas (GTs; E.C.2.4.x.y) constituye una larga familia de enzimas que involucra la biosíntesis de oligosacaridos, polisacáridos y oligoconjugados, las cuales están ampliamente distribuidas en todos los sistemas vivos desde bacterias hasta el hombre, por lo que sus funciones pueden considerarse fundamentales para la vida. La dextransacarasa (sacarosa: 1 ,6- -D-glucan 6- - glucosiltransferasa EC 2.4.1.5) es un enzima que cataliza la transferencia de unidades de glucosa de la sacarosa a un polímero llamado dextrano. Este polímero posee un mínimo de enlaces (1®6) glucopiranosa del 50%, además de estos puede contener en menor proporción enlaces (1®2), (1®3) y/o (1®4). (6, 14). Tanto la enzima como los polímeros se obtienen a partir de cultivos líquidos utilizando medios conteniendo sacarosa como principal fuente de carbono; las enzimas (DS) catalizan la transferencia de residuos -D glucopiranosa provenientes de la sacarosa (S) a moléculas aceptoras principalmente azucares resultando en la síntesis de glucooligosacáridos (GOS); junto con la liberación de fructosa (F) como producto residual, siguiendo la reacción: Sn ® Fn + Dextran (Glucosa)n (3). posee potenciales aplicaciones en la industria química, farmacéutica y de alimentos. Su producción se realiza mediante sintesis enzimática utilizando la dextransacarosa obtenida principalmente por los géneros Leuconostoc mesenteroides y Streptococus sp. En la actualidad el Instituto de Biotecnología de la Universidad Nacional de Colombia (IBUN) ha aislado una cepa de Leuconostoc mesenteroides catalogada como IBUN 91.2.98 la cual produce una enzima extracelular con actividad dextransacarasa, la cual produce un dextrano cuyo peso molecular se encuentra entre 800 y 1000 KDa, predominando los enlaces (1®6) (13) conjuntamente con las consideraciones asociadas al escalado de procesos relacionadas con factores geométricos, cinéticos, entre otros, surge la inquietud y necesidad de evaluar las caracteristicas moleculares y cinéticas de la enzima dextransacarasa con el objetivo de brindar información básica que repercuta en la toma de deciciones tecnológicas que implementen el proceso de obtención del dextrano. 2 MATERIALES Y MÉTODOS El microorganismo utilizado es una cepa nativa colombiana identificada como Leuconostoc mesenteroides y catalogada como: IBUN 91.2.98 [1], la fructosa ( 99%), glucosa ( 99.5%), sacarosa ( 99.5%) fueron marca Merck, el dextran marca Sigma, la enzima dextranasa Plus L de Novozymes (EC 3.2.1.11). El crecimiento del Leuconostoc mesenteroides IBUN 91.2.98
  • se llevó acabo en un fermentador marca Biolac, con un volumen de 2 l. El medio utilizado fue una modificación del propuesto por Tsuchiya y col.[2]; Ajustando el pH a 7.0 con una solución concentrada de KOH. La activación del microorganismo criopreservado (inóculo) se realizó a 30°C con una agitación orbital de 180 r.p.m. por un periodo 12 horas. La fermentación se detuvo al alcanzar una concentración de biomasa de 3.1 a 3.3 (g/l) lo cual se logra al final de la fase exponencial (entre 5-6 h). El extracto crudo fue obtenido por centrifugación a 5875 g por 20 min a 4°C. Al sobrenadante libre de células se le determinó actividad enzimática y proteína total, luego se almacenó a 10°C. La concentración del biopolímero en las soluciones de estudio se determinó mediante croma- tografía líquida de alta resolución (HPLC). El total del contenido de proteína en las muestras, fue determinado utilizando el método de Lowry et al [6]. Para la elaboración de la curva patrón se utilizó albúmina de suero bovino (BSA) como estándar en un rango de concentración entre 50 µg/ml a 300 µg/ml, medido a 650 nm. Ensayo de actividad enzimática: Se establecieron dos tipos de actividad enzimática: hidrolítica y de transferencia.Una unidad de actividad enzimática (U) hidrolítica fue definida como la cantidad de enzima necesaria para producir 1µmol de fructosa por minuto a una temperatura de 30°C, con 233 mM (8% p/v) de sacarosa como sustrato y a 50 mM de buffer fosfatos (pH: 5). Una unidad de actividad enzimática (U) de transferencia fue definida como la cantidad de enzima necesaria para transferir 1µmol de glucosa por minuto a una temperatura de 30°C, con 233 mM (8% p/v) de sacarosa como sustrato y a 50 mM de buffer fosfatos (pH: 5). La actividad enzimática fue medida estimando la concentración de azucares reductores por el método colorimétrico a partir del ácido 3,5 dinitrosalicílico (DNS) [3] a 540 nm y la producción de glucosa medida con el método enzimático (Kit GOD- POD) a 510 nm.. Purificación de dextransacarosa (DS): La dextransacarosa extracelular se purifica mediante un proceso combinado de la inmovilización en su producto polimerizado, seguida de una ultra-filtración con una membrana de 300 kDa y un proceso de hidrólisis con una dextranasa para liberar la enzima inmovilizada. El extracto libre de biopolímero fue sometido a una separación por cromatografía de intercambio iónico en unequipo de cromatografía para proteínas FPLC de Biorad Biologic Duo flow, con una columna de 150 X 7 mm de la resina aniónica UNOsphere Q de BioRad, la fase móvil fue Buffer Fosfatos 50 mM, pH: 5.0. Las muestras analizadas fueron previamente filtradas y mantenidas a una temperatura de 4°C. Las fracciones corres-pondientes a los picos de interés se unificaron y dializaron utilizando una membrana con un tamaño de poro de 10.000 Da en buffer fosfatos 50 mM, a pH: 5.0 durante 12 horas a una temperatura de 4°C. Posteriormente fueron liofilizadas y se determinó proteína y actividad enzimática. La enzima purificada se utilizó para determinar el pH, temperatura óptima concentración de sustrato, efectos de cationes y síntesis de biopolímeros. La actividad dextransacarosa fue detectada en gel de electroforesis SDS-PAGE en condiciones desnatura- lizantes no reductoras con una concentración de poliacrilamida en el gel separador y concentrador de 8% T, 2.4% C y 5% T, 1.3% C respectivamente; la electro- foresis fue corrida a 80 V constantes por 45 min a 10°C. Luego del corrido, la identificación de la actividad dextransacarosa se realizó mediante el método PAS Ravi et al. [4]. (periodicacid-Schiff) según lo descrito por Miller y Robyt [5]. 3 RESULTADOS Y ANÁLISIS Las fracciones de dextransacarosa obtenidos a partir de la ultrafiltración, confirmó la presencia de dextrano, cuando se realizó en geles no desnaturalizantes SDS-PAGE para la detección in situ de la actividad de ácido periódico de Schiff tinción (ver figura 1).Por otro lado, el paso de intercambio iónico proporcionó la mayor depuración y completar el proceso de purificación con 4,8% y el 24% de purificación de veces para hidrolítica y actividades transferasa, respectivamente. Las bandas de SDS-PAGE en geles no desnaturalizantes correspondieron a la forma nativa y activa de la dextransacarosa purificado de aproximadamente, el tamaño de 180 kDa molecular con subunidades no presencia. La enzima DS purificada presentó una actividad de transferencia de sacarosa de Vmax de 87 unidades (U) y Km del 62,5 mM y actividad hidrolítica con Vmax de 84 (U) y Km de 58 Mm. Las condiciones optimus de pH, temperatura y concentración de sustrato fueron 5, 30 ° C y 290 mM de sacarosa, respectivamente. Cualquiera de las actividades hidrolíticas o transferencia fueron inhibidos por los cationes Fe 3 (95%) y Al 3 (98%), mientras que los cationes Mg +2 y K un aumento de las actividades en un 30% y 40%, respectivamente. Un biopolímero, dextrano con el tamaño molecular entre 800 a KDa 1000, se alcanzó después de nueve horas de actividad dextransacarosa con un rendimiento del 43,4% con respecto a la inicial y restar una relación enzima: sustrato de 6,25 U / g.
  • 1 2 3 4 10 22 15 75 50 35 kD Figura 1.Electroforesis SDS PAGE análisis de purificación de la enzima dextransacarosa (DS) proveniente de la cepa Leuconostocmesenteroides IBUN 91.2.98. 1 – Marcadores de peso molecular (225 a 35 kDa), 2 – Sobrenadante de la fermentación (extracto crudo), 3 – Concentrado proveniente de la ultrafiltración con membrana de 300 kDa (retenido), 4 ¬– Dextransacarosa procedente de la fracción de la columna de intercambio aniónica (UNOsphere Q). 4 CONCLUSIONES Un novedoso procedimiento fue desarrollado para purificar un dextransacarosa de la cepa nativa colombiana L. mesenteroides IBUN 91.2.98, basado en la doble actividad (hidrólisis y transferencia) de esta enzima y, posteriormente, la obtención de un biopolímero del tipo dextrano, permitiendo generar unconocimiento básico sobre la caracterización físico química de la enzima DS, con el fin de mejorar la obtención del dextrano; así mismo proyectar posibilidades en la manipulación génica de la dextransacarasa que permita una mayor eficiencia y diversas clases de productos. 5 BIBLIOGRAFÍA [1]SaenzA.C., M.C.G. Prado,Facultad de ciencias de la salud, programa de bacteriologia., Universidad Colegio Mayor de Cundinamarca, Universidad Nacional de Colombia. , Bogotá 1998, p. 73. [2] TsuchiyaH.M., H. J. Koepsell, J. Corman, G. Bryant, M. O. Bogard, V. H. Feger, and R. Jackso, .W. The effect of certain cultural factors on the production of dextransacarosas by Leuconostocmesenteroides., J. Bacteriol. 1952(64), 521-527. [3] Miller,G.L., Use of Dinitrosalicylic Acid Reagent for Determination of. Reducing Sugar.Analytical Chemistry. 1959 (31), 426-428. [4] Ravi KiranPurama, Arun Goyal, Identification, effective purification and functional characterization of dextransacarosa from Leuconostocmesenteroides NRRL B-640, Bioresource Technology 2008 (99), 3635–3642. [5]Miller, A. W., and J. F. Robyt..Detection of dextransacarosa and levansucrase on polyacrylamide gels by the periodic acid-Schiff stain: staining artifacts and their prevention. Anal.Biochem. 1986 (156), 357–363. [6]Lowry, O.H., Rosebrough, N.J., Farr, A.L., Randall, R.J.Protein measurement with the Folin phenol reagent. J. Biol. Chem. 1951 (193), 265–275. 1 Universidad Nacional de Colombia, Instituto de Biotecnología, Laboratorio de Tecnología Enzimática, Santafé de Bogotá DC, Colombia. 2 Q.F, MSc, PhD, Directora grupo de Investigación Tecnología Enzimática. E-mail: saospinas@unal.edu.co 3 I.Q, MSc, Instituto de Biotecnología, Universidad Nacional de Colombia. E-mail: gbuitragoh@unal.edu.co Corresponsal: Fax: +5713165415, Correo electrónico: saospinas@unal.edu.co
  • POSTERS