Aplicaciones de las Tic en Medicina
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
No Downloads

Views

Total Views
30,575
On Slideshare
30,510
From Embeds
65
Number of Embeds
3

Actions

Shares
Downloads
288
Comments
0
Likes
5

Embeds 65

http://www.slideshare.net 58
http://a0.twimg.com 5
http://iconoticst.blogspot.com 2

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. TEMA: Aplicación de la informática en medicina y nanomedicina PROFESOR: Roberto Santi ALUMNOS: Romano Julieta, Sanzoni Gonzalo y Vecchio Gabriela. FECHA DE ENTREGA: 24/10/2007 Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 2. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. DEFINICIÓN DE INFORMÁTICA, MEDICINA Y NANOMEDICINA La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales; para ello estos sistemas computacionales deben realizar las siguientes tareas básicas: Entrada: Captación de información. Procesamiento o tratamiento de dicha información. Salida: Transmisión de resultados. El vocablo Informática proveniente del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, acrónimo de las palabras information y automatique. En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación. La informática se utiliza en diversidad de tareas, por ejemplo: elaboración de documentos, monitorización y control de procesos, robots industriales, telecomunicaciones, desarrollo de juegos, aplicaciones/herramientas multimedia, etc. En la informática convergen los fundamentos de las ciencias de la computación (hardware), la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos como Internet, la inteligencia artificial, así como determinados temas de electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. La Medicina (del latín medicina, de mederi que significa curar, medicar) es la ciencia dedicada al estudio de la vida, la salud, las enfermedades y la muerte del ser humano, y que implica el arte de ejercer tal conocimiento técnico para el mantenimiento y recuperación de la salud, aplicándolo al diagnóstico, tratamiento y prevención de las diferentes enfermedades. La Medicina como disciplina orientada al cuidado de la vida humana, forma parte del cuerpo de las Ciencias de la Salud. La Medicina es el arte de curar y prevenir enfermedades La Nanomedicina se puede definir como la rama de la medicina que aplica los conocimientos de nanotecnología (conjunto de técnicas que se utilizan para manipular la materia a la escala de átomos y moléculas) en las ciencias y procedimientos médicos. En teoría con la nanotecnología se podrían construir pequeños nanobots que serian un ejército a nivel manométrico en nuestro cuerpo, programados para realizar casi cualquier actividad. Por ejemplo, una de las aplicaciones más prometedoras seria la habilidad de programar estos nanobots para buscar y destruir las células responsables de la formación del cáncer. Los nano robots de la nanomedicina podrían producirse con la función de reestructurar o reparar tejidos musculosos u óseos. Las fracturas podrían ser cosa del pasado, los nanobots podrían programarse para identificar fisuras en los huesos y arreglar este de dos formas; realizando algún proceso para acelerar la recuperación del hueso roto o fundiéndose con el hueso roto o inclusive las dos. Y así con infinidad de enfermedades de varios tipos disolviendo sustancias de múltiples variedades según, en sangre o en la zona a tratar específicamente, inyectando pequeñas cantidades de antibióticos o antisépticos en caso de resfriados o inflamaciones, etc. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 3. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. EVOLUCIÓN DE LA INFORMÁTICA A LO LARGO DE LOS AÑOS Cronología: 1944 Se construyo el primer ordenador al cual se le llamo Eniac. Era un ordenador electrónico con el cual el proceso de datos, almacenamiento y control de operaciones se realizaban con dispositivos electrónicos, se utilizaban tubos de vació, que hacen posible el salto del calculo eléctrico al electrónico. 1946 John Von Neumann propuso una versión modificada del ENIAC; el EDVAC, que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar empleaba aritmética binaria, lo que simplificaba enormemente los circuitos electrónicos de cálculo. En segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba enchufando centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas. Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un control central. Además propuso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente. 1951 Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I. Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM. 1952 Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, primera red neural. 1953 IBM fabricó su primer computadora gran escala, el IBM 650. 1956 Darthmouth da una conferencia en donde nace la inteligencia artificial. 1958 Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío. Un transistor y una válvula cumplen funciones equivalentes, con lo que cada válvula puede ser reemplazada por un transistor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mucho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 4. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. 1962 El mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó “la Crisis de los misiles de Cuba”. A causa de esto, una de las preocupaciones de las ejército de los Estados Unidos era conseguir una manera de que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con armas nucleares. Como solución entró en consideración solamente el proceso de datos en forma electrónica. Los mismos datos se deberían disponer en diferentes computadores alejados unos de otros. Todos los computadores entrelazados deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno debería poder comunicarse de varias maneras con cada otro. Dicha red también debería funcionar si un computador individual o cierta línea fuera destruida por un ataque del enemigo. Joseph Carl Robnett Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Projects Agency), o Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 como contestación a la puesta en orbita por parte de los rusos del primer satélite conocido como Sputnik. 1963 Caracteres ASCII imprimibles, del 32 al 126. Un comité Industria-Gobierno desarrolla el código de caracteres ASCII, el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), lo cual permitió que máquinas de todo tipo y marca pudiesen intercambiar datos. 1964 La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Esto representa un gran avance en cuanto a velocidad y, en especial, en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen. Investigadores del Instituto Tecnológico de Massachusetts (MIT) y del Laboratorio Nacional de Física de la Gran Bretaña, presentaron simultáneamente soluciones a lo propuesto por las Fuerzas Armadas norteamericanas. Y ese mismo año la Fuerza Aérea le asignó un contrato a la Corporación RAND para la llamada quot;red descentralizadaquot;. Ese proyecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una red que no dependiese de un solo punto central y con la transferencia de datos por paquete se quedó anclada en la cabeza de muchas personas. Paul Baran, quien por ese entonces trabajaba con Rand Corporation, fue uno de los primeros en publicar en Data Communications Networks sus conclusiones en forma casi simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera. Diseñó una red de comunicaciones que utilizaba computadores y no tenía núcleo ni gobierno central. Además, asumía que todas las uniones que conectaban las redes eran altamente desconfiables. El sistema de Baran trabajaba con un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados quot;paquetesquot;, cada uno con la dirección del remitente y del destinatario. Los Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 5. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. paquetes se lanzaban al seno de una red de computadores interconectados, donde rebotaban de uno a otro hasta llegar a su punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar), no era problema, pues se volvían a enviar. 1966 La organización científica ARPA se decidió a conectar sus propios computadores a la red propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de 1969 ya estaban conectados a la red ARPA los primeros cuatro computadores, y tres años más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente militar. Ken Thompson y Dennis Ritchie Un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema operativo experimental llamado Multics (Información multiplexada y Sistema de Computación) para usar con un computador General Electric. Los laboratorios Bell abandonaron el proyecto, pero en 1969, Ken Thompson, uno de los investigadores del Multics, diseñó un juego para dicho computador, que simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para un computador DEC (Digital Equipment Corporation), aprovechando que, junto con Ritchie había creado también un sistema operativo multitarea, con sistema de archivos, intérprete de órdenes y algunas utilidades para el computador DEC. Se le llamó UNICS (Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios simultáneamente. En 1970 se renombró Unix. Su licencia de uso era muy costosa, lo cual lo ponía fuera del alcance de muchas personas. Esto motivaría luego la creación del Proyecto GNU para el desarrollo de software libre. 1968 Robert Noyce y Gordon Moore fundan la corporación Intel (Intel Corporation). 1969 La organización ARPA junto con la compañía Rand Corporation desarrolló una red sin nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul Baran. La información se dividía en paquetes y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una cierta información. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar a la información. Al viajar paquetes por la red, era más difícil perder datos ya que, si un paquete concreto no llegaba al destino o llegaba defectuoso, el computador que debía recibir la información sólo tenía que solicitar al computador emisor el paquete que le faltaba. El protocolo de comunicaciones se llamó NCP. Esta red también incluyó un gran nivel de redundancia (repetición) para hacerla más confiable. ARPANET conectó los ordenadores centrales vía ordenadores de pasarela pequeños, o quot;routersquot;, conocidos como Interface Message Processors (IMPs). El 1 de septiembre de 1969 el primer IMP llegó a UCLA. Un mes después el segundo fue instalado en Stanford. Después en UC Santa Barbara y después en la Universidad de Utah. 1971 Correo electrónico y FTP Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 6. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. Se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, del BBN, y combinaba un programa interno de correo electrónico y un programa de transferencia de ficheros. También en este año un grupo de investigadores del MIT presentaron la propuesta del primer “Protocolo para la transmisión de archivos en Internet”. Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de ficheros (FTP). Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF dio acceso a sus seis centros de supercomputación a otras universidades a través de la ARPANET. A partir de aquí se fueron conectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la escalabilidad. 1972 Aparecen los disquetes de 5.25 pulgadas. 1973 ARPA cambia su nombre por DARPA, inicia un programa para investigar técnicas y tecnologías para interconectar redes de tipos diferentes y se lanzan dos nuevas redes: ALOHANET, conectando siete computadores en cuatro islas, y SATNET, una red conectada vía satélite, enlazando dos naciones: Noruega e Inglaterra. Lawrence Roberts se propone interconectar a DARPA con otras redes, PRNET y SATNET, con diferentes interfaces, tamaños de paquetes, rotulados, convenciones y velocidades de transmisión. 1974 Vinton Cerf, conocido como el padre de Internet, junto con Bob Kahn, publican “Protocolo para Intercomunicación de Redes por paquetes”, donde especifican en detalle el diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de TCP permitió a las diversas redes conectarse en una verdadera red de redes alrededor del mundo. Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN). 1975 En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer computador personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de memoria RAM. El código de máquina se introducía por medio de interruptores montados en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en forma binaria. Costaba 400 dólares, y el monitor y el teclado había que comprarlos por separado. Se funda Microsoft al hacer un interpretador BASIC para esta máquina. 1976 Se funda Apple. Steve Wozniak desarrolla el Apple I para uso personal, a Steve Jobs se le ocurre comercializarlo. 1977 El Apple II Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje. 1978 Se ofrece la primera versión del procesador de texto WordStar. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 7. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. 1979 Hoja de cálculo Dan Bricklin crea la primera hoja de cálculo, más tarde denominada VisiCalc, la cual dio origen a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel. ARPA crea la primera comisión de control de la configuración de Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982, sustituyendo a NCP. Son las primeras referencias a Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. Internet es la abreviatura de Interconnected Networks, es decir, Redes interconectadas, o red de redes. 1980 En octubre, la IBM comenzó a buscar un sistema operativo para su nueva computadora personal que iba a lanzar al mercado, cosa de la cual se enteraron Bill Gates y su amigo Paul Allen, autores del lenguaje de programación Microsoft BASIC, basado en el ya existente lenguaje BASIC. Ellos compraron los derechos de QDOS (Quick and Dirty Operating System), un sistema operativo desarrollado por Tim Paterson y basado en CP/M, un sistema escrito por Gary Kildall, y lo negociaron con IBM como Microsoft DOS. 1981 IBM PC 5150 El 12 de Agosto, IBM presenta el primer computador personal, el IBM PC reconocido popularmente como tal, con sistema operativo PC DOS y procesador Intel 8088. IBM y Microsoft son coautores del sistema operativo PC-DOS/MS- DOS, ya que IBM ayudó a Microsoft a pulir los muchos errores que el MS DOS tenía originalmente. Sony crea disquetes de 3.5 pulgadas. 1983 Proyecto GNU IBM presenta un PC con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro de 10 MB, Microsoft ofrece la versión 1.0 del procesador de palabras Word para DOS y ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red. Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachusetts (MIT), decidió dedicarse al proyecto de software libre que denominó GNU. 1984 IBM presenta un PC con procesador Intel 286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía 512 KB de memoria RAM, un disco duro de 20 Mb y un monitor monocromático. Precio en ese momento: 5.795 dólares. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 8. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada por Xerox. Las compañías Philips y Sony crean los CD-Rom para los ordenadores. 1985 Microsoft presenta el sistema operativo Windows, demostrando que los computadores compatibles IBM podían manejar también el entorno gráfico, usual en los computadores Mac de Apple. 1986 Compaq lanza el primer computador basado en el procesador Intel 80386, adelantándose a IBM. 1990 WWW Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (WWW) una nueva manera de interactuar con Internet. Su sistema hizo mucho más fácil compartir y encontrar datos en Internet. Berners-Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL. 1991 Linux Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad de Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia). Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había iniciado hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux. A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente que buscaba alternativas al sistema Windows de Microsoft. 1992 Es introducida Arquitectura Alpha diseñada por DEC bajo el nombre AXP, como reemplazo a la serie VAX que comúnmente utilizaba el sistema operativo VMS y que luego originaría el openVMS. Cuenta con un set de instrucciones RISC de 64 bits especialmente orientada a cálculo de punto flotante. No se ha hecho muy popular pero si es reconocida su tecnología en el entorno corporativo. 1993 Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation). Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 9. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. 1995 Lanzamiento de Windows 95. Desde entonces Microsoft ha sacado al mercado varias versiones tales como Windows 98, 2000 (Server y Professional), NT Workstation, NT SMB (Small Business Server), ME, XP (Professional y Home Edition) y Vista. 1996 Se creó Internet2, más veloz que la Internet original, lo cual permite el manejo de archivos muy grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas imprácticas por Internet 1. 2000 Es presentado el prototipo de computador cuántico construido por el equipo de investigadores de IBM que constaba de 5 átomos, se programaba mediante pulsos de radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia magnética, similares a los empleados en hospitales y laboratorios de química. En este computador, cada uno de los átomos de flúor que lo componen actúa como un qubit; un qubit es similar a un bit en un computador electrónico tradicional, pero con las diferencias que comporta su naturaleza explícitamente cuántica (superposición de estados, entrelazamiento de los estados de dos qubits...). 2005 Los usuarios de Internet con conexión de banda ancha superan a los usuarios de Internet con conexión vía MODEM en la mayoría de países desarrollados. Sin duda alguna, la computación ha venido a revolucionar el mundo a nivel global. USO DE LA INFORMATICA EN LA MEDICINA Informática médica es la aplicación de la informática y las comunicaciones al área salud. El objetivo es prestar servicio, ayudar a los profesionales de la salud para mejorar la calidad de atención. Se aplica a la medicina, laboratorio de análisis clínicos, dispositivos electrónicos para hacer mediciones, archivos de imágenes, software de gestión hospitalaria, de manejo de turnos, de historias clínicas, bases de datos de pacientes y más. Por tal motivo, Informática Médica es un campo multidisciplinario que se reparte entre profesionales del área Salud, del área Informática y Sistemas, también sobre Nuevas Tecnologías. Es importante conocer nuevas tecnologías para diseñar un nuevo equipo de diagnóstico por imagen, hacer telemedicina o un programa que maneje el dispositivo para hacer un escaneo de determinado órgano. APLICACION DE LA TECNOLOGIA A LA MEDICINA Han pasando alrededor de 2,500 años desde que se fundó la primera Escuela de Medicina Occidental. Muchos han sido los médicos e investigadores que han ido desde la anestesia a la vacuna, pasando por el endoscopio y los antibióticos. Numerosos han sido los inventos y descubrimientos que se han producido en el último siglo y medio y que han permitido sentar las bases de la actual ciencia médica. Estos avances para muchos han pasado inadvertidos debido al ritmo tan acelerado que le ha dado la tecnología. Hace sólo unos ciento cincuenta años parecía casi un sueño realizar una operación quirúrgica sin que el paciente sufriera. Hoy en día estas intervenciones resultan menos traumáticas y los periodos postoperatorios se han reducido notablemente gracias a la presencia de la tecnología en el ejercicio de la medicina. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 10. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. Se han aplicado cada vez más y más tecnologías para lograr las condiciones óptimas para cualquier intervención quirúrgica. Finalmente, se llegó a utilizar los avances no sólo para curar sino también para prevenir las enfermedades; y posteriormente para todo tipo de investigación médica, la cual gracias a la tecnología ha realizado importantes descubrimientos. Los expertos se han ocupado de la incorporación de los avances tecnológicos en la práctica de la medicina, por lo que se prevé un cambio radical de la ciencia médica en el futuro. EVOLUCIÓN DE LA TECNOLOGÍA EN LA MEDICINA (y el impacto de ésta en la sociedad médica) En la línea del tiempo varios son los avances tecnológicos desde la medicina: 1895 W. C. Roenteng descubre los rayos X, los cuales luego fueron mejorados, como se mencionará posteriormente; 1921 por primera vez se utiliza un microscopio en una operación; actualmente en vez de microscopios, se utiliza la técnica “endoscopia” para realizar cualquier intervención quirúrgica demasiado pequeña para la vista humana. Esta técnica permite revisar tejidos por medio de una minúscula lamparita colocada al borde de un delgado alambre elaborado con fibra óptica. Gracias a la endoscopia se han podido realizar cirugías con la menor agresividad hacia el paciente, ya que antes se requería de una abertura grande y ahora solamente hay que realizar un pequeño corte. 1942 se utiliza por primera vez un riñón artificial para la diálisis; este sistema de órganos artificiales se ha desarrollado significativamente por todo el mundo y tiene un importante auge. Miles de personas en la actualidad reciben diariamente trasplantes artificiales. Sin embargo, la técnica aún está limitada, ya que no se han logrado crear, por ejemplo, intestinos, hígados, etcétera; 1952 P.M. Zoll implanta el primer marcapasos; son dispositivos eléctricos que hacen latir el corazón descargando impulsos eléctricos, que reemplazan el propio sistema de control del corazón. Consiste en una cajita de poco peso que se implanta debajo de la piel. La cajita lleva una batería de litio que dura más de 10 años. 1953 se obtiene el modelo de la doble hélice del ADN; se puede señalar que este descubrimiento revolucionó tanto la medicina como nuestra manera de pensar. En el año de 1991 se inició un programa, Análisis del Genoma Humano, que tiene como principal objetivo descifrar el código genético humano. Hasta la fecha se han identificado cerca de 18,000 genes. En un futuro, gracias a las nuevas computadoras, cada vez más especializadas, se identificará un gen cada hora. 1967 primer trasplante de corazón entre humanos. Hoy en día, estos trasplantes, gracias a la aplicación de la tecnología, es una operación relativamente sencilla. El riesgo ha disminuido notablemente. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 11. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. 1978 primer bebé concebido in Vitro, es decir: se unieron óvulos y espermatozoides en un medio de cultivo propiciado en probeta. Esta manera de concebir se ha comenzado a realizar con frecuencia. TOMOGRAFÍA COMPUTARIZADA (tomas con rayos X) Hace no demasiados años, el diagnóstico y la programación del tratamiento (cirugía, fármacos, etc.) para desórdenes en los tejidos blandos (cerebro, hígado, etc.) se hacía mediante procedimientos invasivos y técnicas de aplicación de rayos X, que brindan una imagen en dos dimensiones, donde los órganos aparecen comprimidos o aplastados en la placa. Actualmente, se aplican nuevos procedimientos: Scanner TAC (Tomografía Axial Computarizada): consiste básicamente en una parrilla de rayos X independientes que atraviesan al paciente. Su funcionamiento mecánico se realiza a través de emisores y detectores que giran simultáneamente y, al realizar una revolución completa, se envían los datos a una computadora que los analiza. De la cuadrícula formada, con los emisores y detectores, a cada una se le asigna un tono gris de tal manera que se logra la imagen de un corte en rebanadas del paciente. Mediante el avance del paciente en el tubo radiológico se realizan cortes sucesivos hasta obtener una imagen prácticamente tridimensional. Scanner volumétricos: realizan una obtención de datos constante. Para lograrlo, hacen que el paciente se mueva a lo largo del túnel y mediante la rotación continua del tubo se obtiene una imagen continua en forma de hélice, la cual es procesada por la computadora, obteniendo así una imagen tridimensional continua. Angiografías por sustracción digital: Se obtienen imágenes de los vasos sanguíneos por medio de técnicas numéricas. Para la técnica normal de rayos X, estos vasos son casi invisibles, sin embargo esta técnica realiza una primera toma radiográfica sin contraste de la zona bajo estudio, lo que ofrece una perspectiva de toda la estructura orgánica, que se almacena en la memoria de la computadora. Después se inyecta yodo al flujo sanguíneo del paciente y se hace una segunda imagen toma de contraste, que refleja el flujo sanguíneo. A esta toma se le restan las imágenes quedando solamente los vasos sanguíneos. Con esta técnica se llega a tener una resolución tal que se pueden ver vasos de un milímetro de diámetro. No hay duda que las técnicas desarrolladas alrededor de la TAC han revolucionado la forma de diagnóstico de muchas enfermedades y sobre todo de lesiones en tejidos blandos. No se podría imaginar tener en la actualidad un hospital sin éste tipo de equipos. RESONANCIA MAGNÉTICA NUCLEAR Esta técnica es ideal para la detección de tumores muy pequeños, que pueden resultar invisibles para la técnica tradicional por rayos X. La RMN está basada en las alteraciones magnéticas que sufren las moléculas de agua en el organismo. Las imágenes se obtienen de la siguiente manera: Se somete el cuerpo a un fuerte campo magnético; esto hace que las moléculas de hidrógeno del agua actúen como micro imanes, haciendo que éstos se alineen en una misma dirección. Al Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 12. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. mismo tiempo se les bombardea con impulsos de radiofrecuencia haciendo que los núcleos atómicos se desorienten. Sin embargo, si la radiofrecuencia se corta, los átomos vuelven a su alineación original, emitiendo una señal muy débil. Estas señales son colectadas en una computadora, que mide el tiempo que tardan los átomos de hidrógeno en retornar a su posición de estado de equilibrio, creando con esta información una imagen bidimensional del órgano o sección del cuerpo observada. Como este tiempo de retorno no es el mismo entre los núcleos atómicos de los diferentes tejidos se puede aprovechar este hecho para distinguir entre los tejidos. Una vez colectadas estas señales la computadora asigna un color o un tono gris a cada tipo de tejido para formar imágenes más nítidas de los diferentes órganos bajo observación. Esto sirve para la identificación de tejidos cancerosos, ya que el agua contenida en un tumor difiere totalmente de la de un tejido normal. ICONOGRAFÍA Esta técnica se ha ido popularizando y es también conocida como Diagnóstico por Ultrasonidos. Los ultrasonidos son vibraciones acústicas emitidas por un cristal piezoeléctrico que es capaz de transformar vibraciones en impulsos eléctricos y viceversa. Así, al estimularse eléctricamente al sensor, éste emite vibraciones que viajan hasta el órgano bajo estudio y rebotan del cuerpo hacia el sensor. Una computadora colecta estos ecos transformándolos en imágenes. Se utiliza un gel especial para asegurar un mejor contacto con la piel del paciente y así obtener imágenes más nítidas. La iconografía permite apreciar diferencias en la densidad de un órgano, a diferencia de los rayos X que sólo aportan datos sobre el contorno y forma del mismo. Una de las limitaciones de éste tipo de diagnóstico es que no puede ser utilizada en el diagnóstico pulmonar. En la forma tradicional de diagnóstico Iconográfico las imágenes son estáticas. Sin embargo, gracias al fenómeno Doppler, es posible obtener imágenes con movimiento. Este fenómeno es utilizado para detectar movimiento y es el mismo que utilizan muchos equipos de medición en la industria. Consiste en enviar una señal acústica sobre una partícula en movimiento y medir el tiempo del rebote de dicha señal para calcular la velocidad de dichos objetos. Esta técnica sirve incluso para crear imágenes vasculares completas. Un aspecto negativo de la econografía es que su interpretación es muy ardua, lo que a veces lleva a los médicos a cometer errores fatales, que luego conduce a funestas consecuencias. En la Obstetricia es donde más impacto ha tenido ésta tecnología ya que el líquido amniótico es un medio perfecto para la propagación de sonidos de altas frecuencias. CLASIFICACIÓN DE LAS TECNOLOGÍAS MÉDICAS Una forma común de clasificar a las tecnologías médicas es la siguiente: Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 13. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. Tecnologías de diagnóstico: permiten identificar y determinar los procesos patológicos por los que pasa un paciente. Ej.: TAC; Tecnologías preventivas: protegen al individuo contra la enfermedad. Ej.: mamografía; Tecnologías de terapia o rehabilitación: liberan al paciente de su enfermedad o corrigen sus efectos sobre las funciones del paciente. Ej. Láser de dióxido de carbono (en cáncer de piel, odontología, y cortes quirúrgicos); Tecnologías de administración y organización: permiten conducir el otorgamiento correcto y oportuno de los servicios de salud. Ejemplo: microprocesadores genéticos. LA APLICACIÓN DE LOS MICROPROCESADORES A LA MEDICINA El microprocesador, o micro, es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles y aviones; y para dispositivos médicos, etc. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados (chips) son circuitos electrónicos complejos integrados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material semiconductor. Los siguientes son ejemplos de como éstos han sido aplicados en la medicina: El quot;microprocesador de genesquot;: realiza pruebas para saber cómo reaccionan las personas a los fármacos. Incluye el perfil genético de una persona para determinar cómo reaccionará y si se beneficiará o no de un determinado tratamiento farmacológico. Un microprocesador de genes es una especie de placa de vidrio del tamaño de la uña del dedo pulgar que contiene secuencias de ADN que se pueden usar para revisar miles de fragmentos individuales de ADN de ciertos genes. El uso de los chips para la mejor aplicación de fármacos podría mejorar su valor terapéutico y reducir los costos de atención de la salud. Se calcula que 25 millones de personas en todo el mundo se beneficiarán de la prueba previa al tratamiento farmacológico, en un futuro cercano. Un microprocesador implantado bajo la retina permite a los ciegos percibir de nuevo la luz y distinguir formas. El implante está constituido por un microprocesador del tamaño de la cabeza de una aguja que comprende 3.500 fotopilas que convierten la luz en señales eléctricas enviadas al cerebro por el nervio óptico. Sin embargo, la duración y fiabilidad a largo plazo del método llamado 'Artificial Silicon Retina' todavía se desconoce. Según Papadopoulus, director del Sun (laboratorio de tecnología), la actual generación de procesadores será sustituida por computadoras basadas en un chip único; en vez de un microprocesador, un microsistema que contará con tres conexiones (para la memoria, para la red y para otros microsistemas). Con el paso del tiempo, cada chip no sólo podrá contener un sistema individual, sino varios sistemas que podrán funcionar de manera independiente, en una “microrred”. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 14. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. OTRAS IMPLEMENTACIONES DE LA TECNOLOGÍA EN LA MEDICINA Respirador Artificial Defibrilador Clonación genética AVANCES EN MEDICINA EN LA ARGENTINA Según un artículo de la BBC, una nueva vacuna contra el cáncer de piel ha sido desarrollada por científicos en Argentina. Los resultados de pruebas realizadas con animales han sido positivos, por lo que la vacuna ha entrado en fase de prueba con seres humanos y está siendo aplicada a pacientes de melanoma, uno de los tipos más agresivos de cáncer de piel. Durante los próximos 4 años se realizará la última etapa de ensayos sobre pacientes, de una vacuna con células dentríticas que tienen la característica de fagocitar las células tumorales, según el doctor José Mordoh, director del equipo de investigadores del Consejo Nacional de Investigaciones Científicas y Técnicas y la Fundación Instituto Leloir de Argentina. Los científicos esperan en el futuro inmediato poder aplicar esta nueva vacuna contra el melanoma a otros tipos de cáncer. En palabras del director ejecutivo de la Fundación Sales, los resultados de las pruebas realizadas en animales han sido quot;espectacularesquot;. Un 80% de ratones vacunados fueron curados, mientras que en el 100% de ratones que no fueron vacunados, el melanoma prendió. Los resultados de este nuevo avance en la medicina han sido publicados en la revista The Journal of Inmunology. EJEMPLO DE ROBOT QUE OPERA Un robot que opera en el interior del cuerpo. Es el sueño de Asimov, plasmado en Viaje alucinante. Se trata de un micro robot capaz de moverse por el interior del cuerpo humano y de explorar su intimidad. El invento, presentado recientemente en el Congreso Nacional de la Sociedad de Ortopedia Italiana, ha sido desarrollado por el ingeniero Paolo Dario, decano del departamento de robótica médica en la escuela superior Santa Ana de Pisa. El diminuto aparato, de 20 Mm. de largo por 10 de ancho, se introduce en el cuerpo humano mediante ingestión (se toma como una pastilla de medicamento) y utiliza sus patas plegables para moverse de una forma completamente autónoma, desde el esófago hasta el recto. La robótica aplicada a la cirugía es uno de los avances más recientes. En julio del 2005, medio centenar de médicos españoles y extranjeros asistieron en San Sebastián a la presentación, por primera vez en España, de una técnica quirúrgica que permite operar el corazón sin abrir el tórax, mediante un robot controlado por el cirujano con una consola. El robot quot;Da Vinciquot; es capaz de reproducir con unos brazos articulados y flexibles los movimientos que hace el cirujano a través de una consola, aunque perfecciona los gestos humanos, ya que evita los temblores y puede realizar movimientos que la muñeca no permite. Mediante los tres brazos articulados del robot, el cirujano accede al corazón sin necesidad de perforar el tórax, ya que lo hace a través de incisiones de no más de un centímetro de longitud. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.
  • 15. Trabajo Práctico: “La aplicación de la informática en la medicina y nanomedicina”. CONCLUSION Es evidente que la medicina ha sufrido una gran mejoría en el último siglo gracias a la implementación y modernización de la tecnología, ya sea maquinaria pesada, tales como un respirador artificial; o refinada, como los chips y la endoscopia. Esta modernización ha posibilitado que hoy en día se puedan realizar todo tipo de intervenciones quirúrgicas con el menor grado de invasión y molestia de parte del paciente; así como también las ha facilitado, reduciendo los riesgos. No cabe duda de que la calidad de vida ha progresado mucho a causa de la tecnología médica, no solo desde el punto de vista físico (el nivel de mortalidad, y mortalidad infantil ha diminuido marcadamente), sino también desde la manera de pensar del ser humano, puesto que muchos descubrimientos han dado explicación a dudas existenciales y enigmas tales como: ¿de dónde vienen las diferencias entre los seres y las similitudes entre familiares? Ha dado fin a numerosas enfermedades fatales, ha llevado esperanza a millones de personas en todo el mundo con necesidades urgentes, como el trasplante de un órgano. Personas que hace cincuenta años no tenían arma alguna contra enfermedades como el cáncer de mama, ahora pueden combatirlo abiertamente y poseen grandes probabilidades de triunfar. Posiblemente, en un futuro no tan lejano, la tecnología permita el descubrimiento de nuevos tratamientos contra enfermedades que en la actualidad son prácticamente incompatibles. Integrantes: Romano Julieta, Sanzoni Gonzalo, Vecchio Gabriela.