• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content

Loading…

Flash Player 9 (or above) is needed to view presentations.
We have detected that you do not have it on your computer. To install it, go here.

Like this document? Why not share!

Actividad de afianzamiento

on

  • 727 views

 

Statistics

Views

Total Views
727
Views on SlideShare
727
Embed Views
0

Actions

Likes
0
Downloads
1
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Actividad de afianzamiento Actividad de afianzamiento Document Transcript

    • Actividad de afianzamiento ¿Que hay hoy? Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993. Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo "pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma considerable. El nombre designado fue Pentium, representando la quinta generación de procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes. La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con objetivos específicos. El primer Pentium: ¡60 megahertz de puro poder! El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción, que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de 1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a 3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el profesor Thomas Nicely del Lynchburg Collage, mientras trabajaba con el procesador sobre la Constante de Brun.
    • El bug FDIV estuvo presente en una cantidad significativa de procesadores, pero fue la actitud de Intel la que hizo más daño Por otro lado, Intel debía ofrecer una opción de actualización para aquellos sistemas con zócalos antiguos, y así fue como se creó el Pentium OverDrive. De acuerdo a Intel, aquellos usuarios con un sistema 486 podían colocar un procesador OverDrive y alcanzar un rendimiento muy similar al de los procesadores Pentium. Lamentablemente, el diseño OverDrive fue víctima de múltiples problemas de compatibilidad, afectando su rendimiento final. Las alternativas presentadas por AMD y Cyrix ofrecían un rendimiento, y había circunstancias en las que incluso un 486DX4 podía vencer a un OverDrive. Tampoco debemos olvidar el precio, ya que si bien Intel había lanzado el OverDrive para que los usuarios evitaran cambiar todo el sistema, el dinero que se ahorraban en ese proceso prácticamente debían invertirlo sobre el OverDrive en sí. Los primeros OverDrive estuvieron disponibles para socket 2, 3, 4, 5, 7 y 8. Ninguna de las versiones OverDrive fue muy popular En poco más de tres años, Intel había logrado triplicar la velocidad de sus chips Pentium. Los P54C abrieron el camino para los P54CS, que elevaron las frecuencias a 133, 150, 166 y 200 megahertz respectivamente. Entre ambas estirpes apareció el P54CQS, representado únicamente por el Pentium 120. A partir de los diseños de 120 megahertz, los chips Pentium dejaron atrás al bug FDIV, pero el frente se abrió en dos. En primer lugar, aparecieron los P55C, más conocidos entre los usuarios como Pentium MMX. Y en segundo lugar, Intel lanzó al Pentium Pro en noviembre de 1995. Para cerrar con la quinta generación, los P55C introdujeron al mercado la extensión MMX, un conjunto de instrucciones adicionales que aumentaban el rendimiento de los chips en determinados procesos multimedia. Las versiones de escritorio poseían velocidades de 166, 200 y 233 megahertz, utilizando al socket 7 que ya existía desde los P54C. Los procesadores MMX también tuvieron su versión OverDrive para zócalos anteriores, pero su baja popularidad se mantuvo sin cambios.
    • Intel elevó la apuesta con las nuevas instrucciones MMX El siguiente en la línea fue el Pentium Pro. Desde su lanzamiento se lo conoce oficialmente como integrante de la sexta generación de procesadores, también llamado P6, o i686, un término que se utiliza incluso en estos días (puedes encontrarlo en los nombres de las imágenes de algunas distros Linux). El Pentium Pro rápidamente se presentó como un chip completamente diferente de la familia P5, a pesar de que compartían parte del nombre. No poseía instrucciones MMX, pero su rendimiento era masivo, gracias a velocidades de reloj aumentadas y diseños que contaban con una memoria caché L2 de hasta un megabyte. Uno de los puntos más destacables del Pentium Pro era su rendimiento con software de 32 bits. Como mínimo, su velocidad superaba a la de los Pentium en un 25 por ciento, pero al mismo tiempo esto fue una de las cosas que lo perjudicó. Con un excelente rendimiento en 32 bits, su velocidad en procesos de 16 bits era inferior, incluso a la que entregaban sus hermanos menores. Como si eso fuera poco, un alto precio (provocado por lo complejo de su diseño) y la necesidad de cambiar de zócalo una vez más (socket 8), hicieron del Pentium Pro un procesador muy poco popular entre los usuarios, aunque mantuvo cierta presencia entre servidores de alto rendimiento. Sus modelos eran de 150, 166, 180 y 200 megahertz, con variantes de 256 KB, 512 KB, y 1 MB de memoria caché L2. El Pentium Pro fue un adelantado a su época en varios aspectos A pesar de los problemas que debió enfrentar con el Pentium Pro, Intel tomó lo aprendido a la hora de diseñar este chip, creando la base para lo que serían los Pentium II, Pentium III, Celeron y Xeon. El primer Pentium II apareció en mayo de 1997, y contaba con un diseño radical: El "chip" se había convertido en "cartucho", presentando oficialmente al slot 1. También introdujo la extensión MMX, y corrigió los problemas de rendimiento en aplicaciones de 16 bits que habían plagado al Pentium Pro. Su memoria caché L2 era de 512 KB, aunque más lenta, utilizando la mitad del ancho de banda. Sin embargo, el hecho de que Intel integrara la memoria caché en el cartucho y no en el interior del núcleo permitió bajar los costos lo suficiente como para hacer del Pentium II una opción muy atractiva entre los consumidores, mucho más de lo que jamás fuera el Pentium Pro. Su primera versión fue conocida como Klamath, que utilizaba un bus de 66 megahertz, y contaba con velocidades de 233, 266 y 300 megahertz. Menos de un año después llegó la familia Deschutes, con modelos de 333, 350, 400, y 450 megahertz. El bus de los Deschutes fue elevado a cien megahertz (a excepción del modelo 333 que permaneció en 66), algo que se mantuvo en procesadores posteriores. Tres meses después de la aparición de los Deschutes, Intel lanzó al procesador Celeron, una versión económica y mucho menos poderosa del Pentium II. Su principal debilidad era la ausencia total de caché L2, algo que despertó muchos reclamos entre el público. Sin embargo, tanto este Celeron como su posterior versión con 128 KB de caché L2 demostraron un potencial sin precedentes para realizar overclocking. El Celeron 300A se convirtió en uno de los procesadores más codiciados, ya que con una configuración adecuada se lo podía llevar a unos impresionantes 450 megahertz, un rendimiento que poco tenía que envidiarle al Pentium II 450, mucho más caro. En cuanto al Xeon, desde el comienzo fue posicionado como un procesador para servidores. Una ranura diferente a la de los Pentium II y una mayor cantidad de caché fueron apenas dos de los tantos factores que determinaron esto.
    • El Pentium II cambió zócalo por ranura: El slot 1 estaba entre nosotros Los Pentium III estuvieron claramente definidos en tres sub.-generaciones. La primera fue Katmai, que ofreció un aumento en la velocidad de reloj, y la incorporación de las nuevas instrucciones SSE de aceleración multimedia. Sus modelos fueron de 450, 500, 533, 550 y 600 megahertz. Mientras que los Xeon también habían adquirido las características de los Pentium III a través de nuevas versiones, ocho meses después, en octubre de 1999, llegaron los modelos Coppermine. Los Coppermine marcaron la reintroducción de los zócalos entre los chips de Intel, con la llegada del socket 370. Muchos usuarios han cruzado en su camino a los famosos "adaptadores" de socket 370 a slot 1 para utilizar los nuevos chips en placas madre con ranura slot 1, y de los problemas de compatibilidad que podían surgir con ello. Los Coppermine estuvieron entre los primeros en ofrecer a los usuarios "regulares" la posibilidad de contar con un procesador de 1 Ghz, barrera que no se esperaba alcanzar hasta dentro de varios años. Algunos detalles adicionales se encontraron en la inclusión del bus de 133 megahertz, el uso completo del bus en la memoria caché L2 y la actualización de la línea Celeron, incorporando las mejoras de los Coppermine. Finalmente, llegaron los Tualatin. Por sí mismos, estos Pentium III eran muy poderosos, ya que los modelos superiores contaban con un reloj de 1.4 Ghz, y 512 KB de caché L2. Pero resultaron extremadamente difíciles de conseguir, sin mencionar su alto costo, y el detalle de que muchas placas madre resultaron incompatibles con estos procesadores, debido a limitaciones de diseño en sus chipsets. Quien contara con una placa madre compatible y un Tualatin cerca, tenía a un verdadero monstruo como ordenador. El Pentium III rápidamente volvió al zócalo, y se mantuvo así hasta el último modelo Tualatin Hasta aquí llegamos a lo que se puede considerar como "historia antigua", porque ahora entramos en la época de los primeros Pentium 4, que a falta de otras palabras, fueron demasiados para el gusto y la comprensión de los usuarios. Los primeros P4 correspondían a la familia Willamette, comenzando con una velocidad de reloj de 1.3 Ghz, nuevo zócalo (423), y la introducción de las instrucciones SSE2. Luego vinieron los Northwood, los Gallatin (más conocidos como Extreme Edition), los Prescott, los Prescott 2M, y finalmente los Cedar Mill. Todas estas familias presentaron múltiples cambios: El abandono del socket 423 en favor del 478, la introducción del Hyper-Threading, buses de 533 megahertz, instrucciones SSE3, buses de 800 megahertz, virtualización, el socket 775, y fundamentalmente, la llegada de la micro arquitectura NetBurst. La velocidad máxima de los Pentium 4 alcanzó unos impresionantes 3.8 Ghz, pero esto resultó ser más una limitación que un logro. Intel no podía ir más allá de esta velocidad sin seguir aumentando el voltaje y el diseño térmico, algo que además de ser problemático, también resultaría excesivamente caro. Intel necesitaba hacer las cosas más simples, en varios sentidos.
    • El socket 423 fue abandonado en un tiempo Aún es posible encontrar ordenadores con un bastante breve Pentium 4 como este en su interior El último y más moderno de la estirpe: Pentium G6950 La solución llegó a través de algo ya cotidiano para nosotros: Los núcleos múltiples. Aunque el primer Pentium de dos núcleos apareció en mayo de 2005 (el llamado Pentium D), todavía se los puede encontrar funcionando como si fuera el primer día. Los primeros intentos de Intel fueron algo toscos, ya que los Pentium D resultaron ser muy ineficientes, especialmente en el aspecto de temperatura. Smithfield y Presler, junto con sus variaciones XE, fueron las que le dieron forma a esta serie D de procesadores Pentium. La arquitectura NetBurst necesitaba un reemplazo, y este llegó con algo que ya es muy familiar para todos nosotros: Los procesadores Core 2 Duo. Mientras que los modelos Core pasaron a la vanguardia, representando a los modelos de media y alta gama, los Pentium fueron relegados a un rol mucho más humilde, identificando procesadores con lo que hoy consideramos como "capacidades básicas". Sin embargo, eso no quiere decir que el nombre Pentium en sí mismo esté destinado a desaparecer. Hoy en día, Intel mantiene activos tres zócalos: El 775, el 1156 y el 1366. El primero está prácticamente desplazado, mientras que los otros dos concentran todos los nuevos modelos de procesadores, incluyendo al Pentium G6950, lanzado en enero pasado. Por lo tanto, que no te preocupe si el presupuesto te alcanza sólo para este nuevo Pentium. En cualquier momento podrás dar el salto a un CPU más completo, pero tampoco debes dejar de recordar que el nombre Pentium ha sabido dejar su huella en el mundo de la informática, con novedades, intentos, fracasos, y éxitos rotundos. Si no fuera por el nombre Pentium, probablemente Intel no estaría donde se encuentra ahora. Intel Core Duo es un microprocesador de sexta generación lanzado en enero del 2006 por Intel, posterior al Pentium D y antecesor al Core 2 Dúo. Dispone de dos núcleos de ejecución lo cual hace de este procesador especial para las aplicaciones de subprocesos múltiples y para multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que permite descargar música o analizar el PC con un antivirus en segundo plano, por ejemplo. Este microprocesador implementa 2 MB de caché compartida para ambos núcleos más un bus frontal de 667 ó 553 MHz; además implementa el juego de instrucciones SSE3 y mejoras en las unidades de ejecución de SSE y SSE2. Sin embargo, el desempeño con enteros es ligeramente inferior debido a su caché con mayor latencia, además no es compatible con EM64T por lo que solo trabaja a 32 bits. Intel Core Duo fue el primer microprocesador de Intel usado en las computadoras Apple Macintosh.
    • Existe también una versión con sólo un nucleo denominada Core Solo. Historia y evolución de las memorias Un dispositivo de almacenamiento es cualquier instrumento computacional que es capaz de almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel como método más común, pero actualmente es posible almacenar digitalmente en un CD por ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha buscado el camino de encontrar el sistema más pequeño físicamente y con más capacidad para almacenar más datos y tratarlos rápidamente. Microchip También conocido como circuito integrado. Se desarrolló por primera vez en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información. Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistencia o capacitores. Su área puede ser de 1cm2 o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etc. El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio. El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips. El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360. Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron por completo a las de segunda generación, introduciendo una manera de programar que aún se mantiene en grandes computadoras de IBM. Memoria RAM (Random Access Memory) La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad. La memoria RAM es el componente de almacenamiento más importante de un computador actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128... hasta los Pentium 4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en día lo normal es que usen 1 gigabyte o más. Disco duro Es el medio de almacenamiento por excelencia. Desde que en 1.955 saliera el primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros
    • se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de manejo más complejo (Ej.: CEL<editar esto!). El disco duro es el componente que se encarga de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como memoria "de apoyo" (como variable que almacena y pierde información según se van procesando datos), el disco duro almacena permanentemente la información que le metemos, hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema operativo en el disco duro, podemos usar todos los programas que queramos que hayan instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas, vídeos, ficheros, etc. Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo ampliando su capacidad El disco duro esta compuesto básicamente de:- Varios discos de metal magnetizado, que es donde se guardan los datos.- Un motor que hace girar los discos.- Un conjunto de cabezales, que son los que leen la información guardada en los discos.- Un electroimán que mueve los cabezales.- Un circuito electrónico de control, que incluye el interface con el ordenador y la memoria caché.- Una caja hermética (aunque no al vacío), que protege el conjunto. Normalmente usan un sistema de grabación magnética analógica. El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales). Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de PCS y de 2.5' para los discos de ordenadores portátiles. Dispositivos portátiles Además de los dispositivos fijos que existen como componentes en una computadora, hay otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son realmente útiles para transportar información entre dos o más computadoras. Disquete También llamado disco flexible (floppy disk en inglés). A simple vista es una pieza cuadrada de plástico, en cuyo interior se encuentra el disco. Es un disco circular flexible y magnético, bastante frágil. Los disquetes se introducen en el computador mediante la disquetera. En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en algunos casos se necesitaban varios disquetes para completar una instalación. El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son obsoletos. De hecho, algunos computadores ya salen de fábrica sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos documentos de texto, imágenes y presentaciones. CD-ROM Es un disco compacto (del inglés: Compact Disc - Read Only Memory). Se trata de un disco compacto (no flexible como los disquetes) óptico utilizado para almacenar información no volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, Read Only Memory). Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde el centro hasta el borde. Fueron lanzados a mediados de los 80 por compañías de prestigio como Sony y Philips. Microsoft y Apple fueron dos de las grandes compañías informáticas que la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados.
    • De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para almacenar otro tipo de datos. Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo. También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de periféricos o similares, aunque también se usan para transportar datos normalmente como los CD normales. La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales, pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una tarjeta perforada es claramente visible sus agujeros, en un CD también se incluyen micro perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y unos). DVD El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado pequeños. Si hace 10 años los disquetes se habían quedado pequeño y parecía que un CD era algo demasiado "grande", algo ha cambiado, pues todas las aplicaciones, ya sean programas, sistemas operativos o videojuegos, ocupan mucha más memoria. De los tradicionales 700 MB de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de DVDs aparecieron para formato vídeo, para sustituir a los clásicos VHS. Las ventajas de los DVD eran claras, a más capacidad, mejor calidad se puede almacenar. Y mejor se conservan los datos, ya que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido. Las películas en DVD comenzaron a popularizarse a finales de los años 90. Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD. Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita. Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar seis CD. También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero con la lección aprendida de los CD, se diseñaron los DVD regrabables. Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la capacidad llega a los 17 GB. Sin embargo aún estos sistemas se utilizan mínimamente, son muy caros, pero seguramente algún día sustituirán a los actuales CD. Memoria USB La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del tamaño de un mechero que actúan prácitamente igual que un disquete, pero con una capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por
    • una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido que los disquetes. Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por ejemplo, y lo más importante, con el sistema operativo Windows XP, sólo hay que conectarlo al computador y usarlo sin más complicaciones. Además existen otros aparatos como los reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y wma sobre todo, son reconocidos y procesados para ser escuchados a través de unos auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser visualizados. HISTORIA Y EVOLUCION DE LAS IMPRESORAS La impresora es un periférico que le permite realizar una impresión (en papel) de datos electrónicos. Existen varias tecnologías de impresoras, siendo las más comunes: • la impresora margarita • la impresora matriz de punto (también llamada impresora matriz de impacto). • la impresora de inyección de tinta y la impresora Bubble Jet</a> • la impresora láser Actualmente, las impresoras margarita y las de matriz ya casi no se utilizan. Características La impresora generalmente se caracteriza por los siguientes elementos: Velocidad de impresión: expresada en páginas por minuto (ppm), la velocidad de impresión representa la capacidad de la impresora para imprimir un gran número de páginas por minuto. Para impresoras a color, generalmente se realiza la distinción entre la velocidad de impresión monocromática y a color. Resolución: expresada en puntos por pulgada (abreviado dpi), resolución significa la nitidez del texto impreso. A veces, la resolución resulta diferente para una impresión monocromática, a color o de foto. Tiempo de calentamiento: el tiempo de espera necesario antes de realizar la primera impresión. Efectivamente, una impresora no puede imprimir cuando está "fría". Debe alcanzar una cierta temperatura para que funcione en forma óptima. Memoria integrada: la cantidad de memoria que le permite a la impresora almacenar trabajos de impresión. Cuanto más grande sea la memoria, más larga podrá ser la cola de la impresora. Formato de papel: según su tamaño, las impresoras pueden aceptar documentos de diferentes tamaños, por lo general aquellos en formato A4 (21 x 29,7 cm.), y con menos frecuencia, A3 (29,7 x 42 cm.). Algunas impresoras permiten imprimir en diferentes tipos de medio, tales como CD o DVD. Carga de papel: el método para cargar papel en la impresora y que se caracteriza por el modo en que se almacena el papel en blanco. La carga de papel suele variar según el lugar donde se ubique la impresora (se aconseja la carga posterior para impresoras que estarán contra una pared).* Los principales modos de carga de papel son: La bandeja de alimentación, que utiliza una fuente interna de alimentación de papel. Su capacidad es igual a la cantidad máxima de hojas de papel que la bandeja puede contener.
    • El alimentador de papel es un método de alimentación manual que permite insertar hojas de papel en pequeñas cantidades (aproximadamente 100). El alimentador de papel en la parte posterior de la impresora puede ser horizontal o vertical. Cartuchos: los cartuchos raramente son estándar y dependen en gran medida de la marca y del modelo de la impresora. Algunos fabricantes prefieren los cartuchos de colores múltiples mientras que otros ofrecen cartuchos de tinta separados. Los cartuchos de tinta separados son más económicos porque a menudo se utiliza un color más que otro. Resulta interesante examinar el costo de impresión por hoja. El tamaño de gota de tinta es especialmente importante. Cuanto más pequeña sea la gota de tinta, más bajo será el costo de impresión y mejor la calidad de la imagen. Algunas impresoras pueden producir gotas que son de 1 ó 2 picolitros. Interfaz: cómo se conecta la impresora al equipo. Las principales interfaces son: USB Paralelo Red: este tipo de interfaz permite que varios equipos compartan una misma impresora. También existen impresoras WiFi disponibles a través de una red inalámbrica. Impresora margarita Las impresoras margarita se basan en el principio de las máquinas de escribir. Una matriz en forma de margarita contiene "pétalos" y cada uno de éstos posee un carácter en relieve. Para imprimir el texto, se ubica una cinta impregnado de tinta entre la margarita y la hoja de papel. Cuando la matriz golpea la cinta, ésta deposita tinta sobre el papel con la forma del carácter en el pétalo. Estas impresoras se han vuelto obsoletas porque son extremadamente ruidosas y lentas. Impresora matriz de punto La impresora matriz de punto (llamada algunas veces impresora de matriz o impresora de impacto) permite la impresión de documentos sobre papel gracias al movimiento "hacia atrás y hacia adelante" de un carro que contiene un cabezal de impresión. El cabezal se compone de pequeñas agujas metálicas, accionadas por electroimanes, que golpean una cinta de carbón llamada "cinta entintada", ubicada entre el cabezal y el papel. La cinta de carbón se desenrolla para que siempre haya tinta sobre ella. Al finalizar cada línea, un rodillo permite que la hoja avance.
    • Las impresoras matriz de punto más recientes está equipadas con cabezales de 24 agujas, que permiten imprimir con una resolución de 216 dpi (puntos por pulgada). Impresora a chorro de tinta y Bubble Jet La tecnología de impresora a chorro de tinta fue inventada originalmente por Canon. Se basa en el principio de que un fluido caliente produce burbujas. El investigador que descubrió esto había puesto accidentalmente en contacto una jeringa llena de tinta con un soldador eléctrico. Esto creó una burbuja en la jeringa que hizo que la tinta saliera despedida de la jeringa. Actualmente, los cabezales de impresoras están hechos de varios inyectores (hasta 256), equivalentes a varias jeringas, calentadas a una temperatura de entre 300 y 400°C varias veces por segundo. Cada inyector produce una pequeña burbuja que sale eyectada como una gota muy fina. El vacío causado por la disminución de la presión crea a su vez una nueva burbuja. Generalmente, se efectúa una distinción entre las dos tecnologías diferentes: • Las impresoras a chorro de tinta utilizan inyectores que poseen su propio elemento de calentamiento incorporado. En este caso se utiliza tecnología térmica. • Las impresoras Bubble Jet utilizan inyectores que tienen tecnología piezoeléctrica. Cada inyector trabaja con un cristal piezoeléctrico que se deforma al ser estimulado por su frecuencia de resonancia y termina eyectando una burbuja de tinta. Impresora láser La impresora láser permite obtener impresiones de calidad a bajo costo y a una velocidad de impresión relativamente alta. Sin embargo, estas impresoras suelen utilizarse mayormente en ambientes profesionales y semiprofesionales ya que su costo resulta elevado. Las impresoras láser utilizan una tecnología similar a la de las fotocopiadoras. Una impresora láser está compuesta principalmente por un tambor fotosensible con carga electrostática mediante la cual atrae la tinta para hacer una forma que se depositará luego en la hoja de papel. Cómo funciona: un rodillo de carga principal carga positivamente las hojas. El láser carga positivamente ciertos puntos del tambor gracias a un espejo giratorio. Luego se deposita la
    • tinta con carga negativa en forma de polvo (tóner) en las distintas partes del tambor que el láser cargó previamente. Al girar, el tambor deposita la tinta sobre el papel. Un alambre calentado (llamado corona de transferencia) permite finalmente la adhesión de la tinta en el papel. Dado que la impresora láser no tiene cabezales mecánicos, resulta rápida y silenciosa. Existen dos tipos diferentes de tecnología de impresora láser: "carrusel" (cuatro pasadas) o "tándem" (una pasada). Carrusel: con la tecnología de carrusel, la impresora efectúa cuatro pasadas sobre el papel para imprimir un documento (una por cada color primario y una para el negro, lo que en teoría hace que la impresión a color sea cuatro veces más lenta que en negro). Tándem: una impresora láser que utiliza tecnología "tándem" deposita cada color en una sola pasada. Los tóners se depositan simultáneamente. La salida es igual de rápida cuando se imprime a color como cuando se imprime en negro. Sin embargo, esta tecnología resulta más costosa ya que los mecanismos son más complejos. Por lo tanto, se suele utilizar en impresoras láser a color de mediana o alta calidad. Impresora LED Otra tecnología de impresión compite con las impresoras láser: la tecnología LED (diodo emisor de luz). Con esta tecnología, un cabezal de impresión con diodos electroluminiscentes polariza el tambor con un rayo de luz muy fino, permitiendo la obtención de puntos muy diminutos. Esta tecnología es particularmente útil para obtener una alta resolución (600, 1.200 ó 2.400 dpi). Teniendo en cuenta que cada diodo representa un punto, la velocidad de impresión termina afectando mínimamente la resolución. Además, esta tecnología carece de piezas móviles, lo que permite el diseño de impresoras menos costosas, más sólidas y más fiables. Lenguaje de comandos de la impresora El lenguaje de descripción de páginas es el lenguaje estándar que utilizan los equipos para comunicarse con las impresoras. En efecto, una impresora debe poder interpretar la información que un equipo le está enviando. Los dos lenguajes de descripción de página principales son: Lenguaje de comandos de la impresora (PCL): un lenguaje conformado por secuencias binarias. Los caracteres se transmiten según su código ASCII. Lenguaje PostScript: este lenguaje, utilizado inicialmente por Apple LaserWriters, se ha convertido en el estándar de los lenguajes de descripción de páginas. Es un lenguaje en sí mismo que se basa en un conjunto de instrucciones El teclado
    • Un teclado es un periférico o dispositivo que permite ingresar información, tiene entre 99 y 108 teclas aproximadamente, esta dividido en 4 bloques: 1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que este abierto. Ej. al presionar la tecla F1 permite en los programas de Microsoft acceder a la ayuda. 2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales. 3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, Repag, Avpag y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones. 4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa cuando al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitacion de cifras, además contiene los signos de las cuatro operaciones básicas como suma +, resta -, multiplicación * y division /, también contiene una tecla de Intro o enter para ingresar las cifras. Teclado de un terminal CT-1024 Teclado integrado de un Apple Inc Plus Teclado integrado de un Sinclair ZX Spectrum.
    • Terminal de computadora TeleVideo 925 Teclado ajustable de Apple. Teclado PC inalámbrico Disposición de las teclas [editar] La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida]. Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés, portugués o en catalán. Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.
    • Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos Primeros teclado Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control. La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del Apple II y el TRS-80 seguirán el diseño del clonado. Uno de los teclados más modernos, fue diseñado por una ama de casa llamada Diamea Stuart Medrid Aflory, de Rusia. Ella empezó a dibujar muchos tipos de teclados en un cuaderno de dibujo que tenía. Un día cuando unos inspectores investigaban su casa en contraron estos dibujos y los mandaron a USA. Este fue el teclado ajustable de Apple. Generación 16 bits Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados extendidos AT, sobre todo para los modelos con emulación PC por hardware. Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de "indestructibles", pues tras más de 10 años de uso continuo en entornos como las aseguradoras o la administración pública seguían funcionando como el primer día. [Cita requerida] Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora.
    • Teclados con USB Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI) Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas. Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak. Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúscula, etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt.-Gr. Teclas inertes Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A, obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la "t" acentuada. Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio. Tipos de teclado [editar] Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II. El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto. Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines. En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102. Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo. Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado físico.
    • Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos. Estructura Un teclado realiza sus funciones mediante un microcontrolador. Estos microcontroladores tienen un programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas. Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física.El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos.Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII. Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no es más que un programa de labios y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal. En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc. Disposición del teclado La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar. Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado Dvorak. Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control. Existen programas como Microsoft Keyboard Layout Creator1 y KbdEdit,2 que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido3 o el gaélico4 ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,5 o el panibérico6 ). A primera vista en un teclado podemos notar una división de teclas, tanto por la
    • diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos: Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución. Teclas de edición: sirven para mover el cursor por la pantalla. Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos. Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloc num., que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división). Clasificación de teclados de computadoras En el mercado hay una gran variedad de teclados. A la hora de estudiarlos podemos clasificarlos en dos grupos: Según su forma física: Teclado XT de 83 teclas: se usaba en el PC XT (8086/88). Teclado AT de 83 teclas: usado con los PC AT (286/386). Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas. Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en Windows. Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a tener una posición más relajada de los brazos. Teclado multimedia: añade teclas especiales que llaman a algunos programas en el computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia… Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth. Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser desinfectados.7 Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma, teclados de membrana: teclados capacitativos y teclados de contacto metálico. CLASIFICACION SEGÚN ESTANDARES DE MONITORES
    • Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes. Monitores MDA: Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos. Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios. Características: Sin modo gráfico. Resolución 720_350 píxeles. Soporte de texto monocromático. No soporta gráfico ni colores. La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB. Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos. Monitor CGA: Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM. A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color. Características:
    • • Resoluciones 160_200, 320×200, 640×200 píxeles. • Soporte de gráfico a color. • Diseñado principalmente para juegos de computadoras. • La tarjeta gráfica contenía 16 KB de memoria de vídeo. Monitor EGA: Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución. EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características. Características: • Resolución de 640_350 píxeles. • Soporte para 16 colores. • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo. Monitor VGA: Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas. Características: Soporte de 720×400 píxeles en modo texto.
    • Soporte de 640×480 píxeles en modo gráfico con 16 colores. Soporte de 320×200 píxeles en modo gráfico con 256 colores. Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo. Monitor SVGA: SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA. SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones. Características: Resolución de 800×600, 1024_768 píxeles y superiores. Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros. Clasificación según tecnología de monitores En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado. Monitores CRT: Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun. Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes
    • modificaciones y que en la actualidad también se realizan. Funcionamiento: Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla. Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo. Ventajas: Excelente calidad de imagen (definición, contraste, luminosidad). Económico. Tecnología robusta. Resolución de alta calidad. Desventajas: Presenta parpadeo por el refrescado de imagen. Consumo de energía. Generación de calor. Generación de radiaciones eléctricas y magnéticas. Alto peso y tamaño. Pantallas LCD: A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning. Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros. Funcionamiento: El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez. Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no. Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y
    • azul. Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros. Ventajas: Poco peso y tamaño. Buena calidad de colores. No contiene parpadeo. Poco consume de energía. Poca generación de calor. No genera radiaciones eléctricas y magnéticas. Desventajas: • Alto costo. • Angulo limitado de visibilidad. • Brillo limitado. • Bajo tiempo de respuesta de píxeles. • Contiene mercurio. Pantallas Plasma: La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow. Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad. Funcionamiento: El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado. Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos
    • de la celda, dicho gas pasa al estado de plasma. El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible. Ventajas: • Excelente brillo. • Alta resolución. • Amplio ángulo de visión. • No contiene mercurio. • Tamaño de pantalla elevado. Desventajas: • Vida útil corta. • Coste de fabricación elevado, superior a los LCD. • Consumo de electricidad elevado. • Poca pureza del color. • Consumo energético y emisión de calor elevada. ¿Qué es la resolución de pantalla? Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (”X”), el cual se coloca al principio y el número de filas (”Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar: Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo. Ratón
    • Ratón con cable y rueda. Ratón para videojugadores. El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz. El nombre La forma del dispositivo originó su nombre. Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón. En América predomina el término inglés mouse mientras que en España se utiliza prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el anglicismo es innecesario.1 El DRAE únicamente acepta la entrada ratón para este dispositivo informático, pero indica que es un españolismo.2 Hoy en día Habitualmente se compone de al menos dos botones y otros dispositivos opcionales como una «rueda», más otros botones secundarios o de distintas tecnologías como sensores del movimiento que pueden mejorar o hacer más cómodo su uso. Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones.
    • En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus gustos o tareas. Historia Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario. La primera maqueta Copia del primer prototipo. La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System". A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior. Por primera vez se lograba un intermediario directo entre una persona y la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación. Presentación ¿Cómo se captura el movimiento de un ratón mecánico estándar? 1: Al arrastrarlo sobre la superficie gira la bola, 2: ésta a su vez mueve los rodillos ortogonales, 3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados, 4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un diodo LED. 5: Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de la velocidad vertical y horizontal actual para trasmitirse finalmente al ordenador.
    • En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para navegar por Internet y usar videoconferencia. Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio correo electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center (Centro para la investigación del incremento) en la Universidad de Stanford. Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un cheque de unos 10000 dólares. El éxito de Apple El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible además con las primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un sistema operativo que realmente lo aprovechara, hizo que pasara completamente desapercibido. No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en 1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400 dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs, quería un precio entre los 10 y los 35 dólares. Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo LED, ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un láser no visible del fabricante Logitech. En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple. Funcionamiento Imagen habitual de un puntero movido por la pantalla usando un ratón. Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir
    • esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias. El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas. Con el avance de los nuevos ordenadores, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comunmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario. Tipos o modelos Por mecanismo Mecánicos Tienen una gran bola de plástico, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una bola. La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta. Parte inferior de un ratón con cable y sensor óptico. Ópticos Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta. Láser Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad.
    • Un modelo trackball de Logitech. Trackball El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima. Por conexión Por cable Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular usar el puerto serie. Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón y el ordenador es óptima en juegos que requieren de una gran precisión. Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal. Inalámbrico En este caso el dispositivo carece de un cable que lo comunique con el ordenador o computadora, en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que produce, mediante baterías, el ratón. El receptor normalmente se conecta al ordenador a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades: • Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros. • Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.
    • • Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth). El controlador Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos los sistemas operativos modernos suelen incluir de serie un software controlador (driver) básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal encontrar software propio del fabricante que puede añadir una serie de funciones opcionales, o propiamente los controladores si son necesarios. Modelo Mighty Mouse de Apple. Uno, dos o tres botones Hasta mediados de 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un ratón de un sólo botón, pensado para facilitar y simplificar al usuario las distintas tareas posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con sensores debajo de la cubierta plástica, dos botones laterales programables, y una bola para mover el puntero, llamado Mighty Mouse. Modelo inalámbrico con cuatro botones. En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal manera que además de poder girarse, puede pulsarse. Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos tres botones distintos e incluso reconocer más botones extra a los que el software reconoce, y puede añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la operación de copiar y pegar texto. La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech, lanzado en septiembre de 2005. Preparado anatómicamente para diestros, dispone de hasta 10 botones. Problemas frecuentes • Puntero que se atasca en la pantalla: Es el fallo más frecuente, se origina a causa de la acumulación de suciedad, frenando o dificultando el movimiento del puntero en la pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras. Para retardar la aparición de suciedad en el interior del ratón es recomendable usar una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales motivos de su éxito.
    • • Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una vez un botón y la computadora lo recibe como ninguno, dos o más clics consecutivos, de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el pulsador electrónico. Para solucionarlo normalmente debe desmontarse completamente y colocar varias capas de papel adhesivo sobre la posible zona desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil. • Dolores musculares causados por el uso del ratón: Si el uso de la computadora es frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición totalmente plana que adopta la mano, que puede resultar forzada, o puede también producirse un fuerte desgaste del huesecillo que sobresale de la muñeca, hasta el punto de considerarse una enfermedad profesional. Existen alfombrillas especialmente diseñadas para mejorar la comodidad al usar el ratón. ¿Qué PROYECCION Y QUE ESPECTATIVAS OFRECE EL FUTURO? INTRODUCCIÓN En las últimas décadas del siglo XX asistimos a un conjunto de transformaciones económicas- sociales y culturales cuya vertiginosidad y complejidad no admite precedente y nuestro país no se encuentra ajeno a ello. Caen rápidamente todo tipo de muros y barreras entre las naciones al mismo tiempo que se amplía la brecha en el nivel de desarrollo humano al que acceden los distintos pueblos. El mundo de hoy, esta inmerso en una nueva revolución tecnológica basada en la informática, que encuentra su principal impulso en el acceso y en la capacidad de procesamiento de información sobre todos los temas y sectores de la actividad humana. Ha contribuido a que culturas y sociedadesse transformen aceleradamente tanto económica, como social y políticamente, con el objetivo fundamental de alcanzar con plenitud sus potencialidades. El conjunto de tecnologías que se concentran alrededor de las computadoras personales, de las tecnologías de la información y de la comunicación, es sin duda la innovación que más ha influido en el desarrollo de la vida social de fines del siglo XX y comienzo del XXI. Esta última centuria ha sido extraordinariamente rica en avances técnicos y científicos, ha visto el crecimiento pleno de otras tecnologías decisivas, como la electricidad y la electrónica, los medios audiovisuales – en particular la televisión– y ha culminado con la implantación de estas nuevas tecnologías (que ya no son tan nuevas), que han revolucionado el uso y la manipulación de la información y se han constituido, a la vez, en vehículos de comunicación. El desarrollo de las tecnologías está teniendo una gran influencia en el ámbito educativo, ya que constituyen una nueva herramienta de trabajo que da acceso a una gran cantidad de información y que acerca y agiliza la labor de personas e instituciones distantes entre si. Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de ellas hay también emociones. Es por ello que intentaremos a través del presente trabajo plasmar un análisis integral de un tema en particular: LA COMPUTADORA COMO MEDIO EDUCATIVO Y SUSU PELIGROS EN LA FORMACIÓN DEL EDUCANDO, para lo cual tendremos que apoyarnos en investigaciones y conjeturas propias, tratando de mantener una visión de la realidad como un todo. Para ello hemos estructurado nuestra investigación en tres capítulos: Primer Capítulo : "La Computadora y la Sociedad" , en el cual se describe a la computadora como factor para el aprendizaje y desarrollo de los pueblos y su influencia en el ámbito
    • laboral, así como sus efectos en la sociedad en general, desde sus origenes hasta nuestros días. Segundo Capítulo: "La Computadora como Medio Educativo", a través del cual intentamos establecer la relación de la computadora con la educación de la persona y la labor del docente, para lograr la interacción en el aula y el desarrollo de la escuela. Así mismo se podrá observar loas distintas formas o modelos de uso de la computadora en el la enseñanza aprendizaje, entre otros. Tercer Capítulo : " Peligros de la Computadora para la Formación del Educando", en este plano se intenta clarificar de cómo el ordenador como medio para la enseñanza aprendizaje, es ventajoso; pero al mismo tiempo de cómo puede convertirse en una amenaza que atente contra la salud del educando y de su capacidad cognitiva; por otro lado de cómo se puede convertir en un peligro para el docente desde el punto de vista laboral, al sentirse desplazado por su vertiginoso empleo y gran capacidad de almacenamiento de datos. Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de ellas hay también emociones. A mediados de la década del 1970 las computadoras eran usadas por pocas personas, pero ya en la actualidad han tenido un mayor impacto en la sociedad que cualquier otro invento. Esta acogida se debe a sus características, las mismas que son aprovechadas en los diferentes ámbitos laborales, en particular el educativo, por ello vemos que las escuelas o instituciones educativas de hoy en día cada vez más apuestan por implementar un centro de cómputo dentro de su infraestructura y así mantenerse acorde con los adelantos de la informática y alcanzar el anhelado sueño de mejorar la enseñanza aprendizaje a través de un mejor medio para concretar tal fin: La computadora Esperamos que el presente trabajo de investigación colme las expectativas del docente así mismo de que contribuya en el quehacer educativo de los estudiantes y la tarea por alcanzar nuevos conocimientos, solo así diremos ¡Tarea cumplida¡ LOS ESTUDIANTES OBJETIVOS • Identificar los efectos educativos, culturales y laborales de la computadora dentro de la sociedad. • Analizar el uso de la computadora como medio didáctico en el ambiente escolarizado y el uso de nueva metodología para el proceso enseñanza-aprendizaje. • Reconocer los peligros del uso de la computadora para la formación del educando y para su salud. • Determinar las ventajas y desventajas de la computadora como medio didáctico en el proceso docente educativo.
    • FUTURO Y PROSPECTIVA Internet potenciará inteligencia, pero degradará la privacidad Internet siempre a la mano evita tener que recordar mucha información ‘Inteligente’ será quien sepa buscar y relacionar gran cantidad de datos El uso intensivo de Internet en la búsqueda de información para la vida cotidiana cambiará por completo lo que entendemos por inteligencia durante la próxima década, potenciando nuestro cerebro, pero también degradará nuestra privacidad. Así lo señala el informe El futuro de Internet, publicado recientemente por el Pew Research Center de Estados Unidos. La exposición permanente a gran cantidad de información y la interacción con buscadores que cada vez entienden mejor lo que necesitamos, hará superfluo manejar gran cantidad de datos en la memoria humana y más bien obligará a las personas a desarrollar sus capacidades para relacionar, rápidamente, distintas fuentes de conocimiento, se explica en el estudio. Las conclusiones de El futuro de Internet están basadas en una encuesta y entrevistas realizadas a 371 expertos y 524 usuarios intensivos de Internet sobre cómo imaginan Internet en el 2020. El 50% de los consultados ha estado utilizando Internet al menos desde el año 1992. Nueva inteligencia. El 81% de los expertos y el 76% de los usuarios encuestados se declararon a favor de la idea de que Internet provocará una mejora significativa de la inteligencia humana para 2020.
    • La mayoría acepta que el ser humano ya no tendrá que recordar mucho ni guardar en su cerebro detalles, pero sí pensar más y de una forma mucho más crítica. “La tecnología no es el problema, sino los rasgos de carácter inherente a las personas. Internet y los buscadores solo permiten a las personas ser más de lo que ya son. Si están motivados y son astutos, utilizarán las nuevas herramientas para explorar en nuevas e interesantes maneras de aprender. Si son perezosos o incapaces de concentrarse, encontrarán nuevas maneras de ser distraídos y perder el tiempo”, dice el informe. En el 2020 buena parte de la vida humana se desarrollará dentro en un ambiente de completa conexión a Internet. Distintos dispositivos –desde el reloj de pulsera hasta el servidor que manejará los electrodomésticos– estarán permanentemente recibiendo y enviando información y tomando las decisiones más lógicas automáticamente. El ser humano, por lo tanto, tendrá menos asuntos “sin trascendencia” a los cuales atender. “Tenemos que pensar que en diez años nuestra definición de inteligencia será muy diferente. Será ‘inteligente’ aquello que funciona en red y permite unir y dar un nuevo sentido a aquello que no son más que bits de información separados”, explicó Christine Greenhow, de la Universidad de Minesota y quien participó en el estudio. La evolución que plantea Internet, recuerda el estudio, en el fondo no es diferente a otras revoluciones ya vividas por la humanidad. Platón, por ejemplo, llegó a criticar en sus inicios la escritura porque consideraba que el pensamiento solo podía existir dentro de él mismo; es decir, en la mente de los humanos y no en lo escrito. También hubo críticas de algunos sectores conservadores tras la invención de la imprenta de caracteres móviles en Occidente. Esos sucesos cambiaron la forma de pensar de los humanos y ayudaron a crear la sociedad actual. Ahora, Internet cambiará la forma de pensar de los humanos actuales y ayudará a formar la sociedad del futuro, se afirma. Poca privacidad. La popularización de Internet plantea para los expertos un escenario donde la idea de privacidad también cambiará. En este apartado será clave el concepto de autenticación; es decir, el estar seguro de que una persona que ingresa a un sitio web y pide un servicio es quien dice ser. “La presión para autenticación de los usuarios de Internet está creciendo y muchas solicitudes son legítimas. Nuevos métodos para lograrla están siendo explorados pero aún no está claro cuáles prevalecerán en el mercado”, dice el informe del Pew Research Center. “Conforme crezca el e-comercio, el e-gobierno, la e-democracia y la e-educación, sistemas de identificación robustos serán más y más comunes en la vida cotidiana”, comentó Ismael Peña López, de la Universidad Abierta de Cataluña y quien participó en el estudio. No obstante, el informe asume que nuevas regulaciones legales les darán a las personas cierto nivel de privacidad, por debajo del actual, pero lo suficiente como para que utilizar un pseudónimo y no el nombre real no sea mal visto en el mundo de Internet.
    • La confidencialidad de datos muy calificados no solo se mantendrá, sino que también se crearán sistemas para asegurarla. Mención aparte recibieron las redes sociales, responsables desde ahora –pero más en el futuro– de que las personas olviden el sentido de decir algo o comportarse en Internet anónimamente. Las redes sociales dejan constancia pública de pensamientos, opiniones y actuar. Pronto se potenciará el concepto de “responsabilidad informativa”, tratando de captar a más usuarios de edad adulta, quienes crecieron en un mundo donde no informaban a todo el planeta (literalmente) cuál película irían a ver al cine, cómo les fue de vacaciones o si su matrimonio está en crisis. Para Stewart Baker, abogado especialista de la firma Stepteo & Johnson, en el 2020 el anonimato en Internet será como el anonimato en la vida real de nuestro días: cuando nos encontramos a alguien que no conocemos en una calle solitaria apuramos el paso, cambiamos de acera y salimos de ahí lo antes posible. Pablo Fonseca Después de 15 años, profecías de Gates muestran aciertos y errores Muchas personas intentaron adivinar como sería la vida después del surgimiento de internet. Una de ellas fue Bill Gates, quien lanzó hace 15 años el libro The Road Ahead (El camino por recorrer). Repleto de previsiones del fundador de Microsoft para el futuro, el libro erra en adivinar el impacto de la web, cuyo papel - estimaba - sería menor del que es. Gates se equivocó al imaginar que el e-mail disminuiría las reuniones de trabajo, el impacto de las redes inalámbricas y el comercio electrónico, por ejemplo. Pero, sin contar factores sociales, enfocado sólo en el avance de la tecnología, el ex-jefe de la Microsoft hizo afirmaciones que actualmente parecen obvias, pero 15 años atrás sonaban proféticas. El sitio web estadounidense The Atlantic comparó algunas de ellas y lo que aconteció. E-mail Previsión: Gates escribió: "El email y las pantallas compartidas eliminarán la necesidad de muchos encuentros. Cuando exista alguna reunión presencial, esta será más eficiente porque los participantes ya intercambiaron informaciones básicas por e-mail. Veredicto: Se equivocó. La visión de Gates sobre el e-mail ahora parece ingenuamente utópica por no contar con algunas cuestiones inesperadas. Antes de cualquier cosa, el email
    • hizo que las reuniones se volvieran más frecuentes y menos eficientes. "¿Usted no leyó ese email?" es probablemente la pregunta más común en las reuniones de trabajo, que normalmente lleva a... otra reunión. Por algunas estimaticiones, cerca de un 40% de los trabajadores gastan por lo menos dos horas de trabajo leyendo y respondiendo e-mails. Redes Sociales Previsión: "La información no sólo hará más fácil mantener el contacto con amigos distantes, pero también nos permitirá hacer nuevos amigos. Amistades formadas a través de la red conducirán naturalmente a un encuentro en persona". Veredicto: Acertó y erró. La red social acabó haciéndose uno de los aplicativos más importantes de los últimos tiempos. Facebook tiene más de 400 millones de usuarios registrados en todo el mundo e incontables otras redes sociales están creando nuevas conexiones entre las personas. Pero las amistades formadas online no llevan, normalmente, a encuentros cara a cara. Videoconferencia Previsión: "Los ordenadores personales tendrán cámaras integradas o aparatos de televisión que permitirán estar presentes en reuniones a través de imágenes y calidad de sonido muy superiores y con precios más bajos". Veredicto: Acertó. Las webcams están integradas en casi todos los notebooks y también pueden ser compradas a precios accesibles. Las videoconferencias permiten la economía en viajes y mejoran la disponibilidad para reuniones virtuales. Red inalámbrica Previsión: "Las redes inalámbricas del futuro serán más rápidas, pero a menos que haya un gran avance, las redes con cable tendrán un ancho de banda mayor. Los dispositivos móviles serán capaces de enviar y recibir mensajes, pero va a ser caro, además de ser raro su uso para el envío de video". Veredicto: Se equivocó. Hoy, recibir un video por conexión inalámbrica no es caro ni raro, en la realidad, es tan normal que el común de la gente lo hacen sin pensar. Gates no previó que la red inalámbrica se volvería más barata y más rápida, pero su error principal fue asumir que las nuevas tecnologías son adoptadas principalmente en función de la superioridad tecnológica, en vez de factores sociales. Compras online Previsión: "Por la posibilidad de acceder a videos, muchas veces usted va a ser capaz de ver exactamente lo que usted encomendó. Usted no tendrá que preguntarse si las flores que usted mandó a su madre por teléfono eran realmente tan impresionantes como usted esperaba. Usted va a poder observar al florista haciendo el ramo e intercambiar el tipo de flor o de arreglo, si quisiera. Veredicto: Erró. Gates estaba en lo cierto sobre las transmisiones en video, pero olvidó algunos factores sociales y económicos que determinan su utilización en el comercio online. ¿Cómo un florista encuentra tiempo para realizar una videoconferencia con todos los clientes que encomiendan flores para el Día de las Madres? ¿Cuál empresa podría absorber los gastos creados por el cambio de pedidos de último minuto? Este futuro es tecnológicamente posible, pero socialmente y económicamente inviable. PC de bolsillo Previsión: "Usted va a ser capaz de llevar la PC en el bolsillo o, para las mujeres, en la cartera. Éste mostrará mensajes y horarios. También permitirá que usted lea y envíe email y
    • fax. Será posible leer la previsión del tiempo, operar juegos o escoger entre las miles de fotos de sus hijos". Veredicto: Acertó. El PC de Gates es, actualmente, el smartphone. co.terra.com Publicado por INNGENIAR GROUP en 23:07 0 comentarios sábado 22 de mayo de 2010 Siete tendencias que marcarán el futuro próximo de las tecnologías, según estudio de Google Designer Callum Peden . Internet evoluciona rápidamente y en distintas direcciones, prever qué puede pasar con la red es una labor constante de quienes interactúan en ella. Internet ha cambiado muchas cosas: la forma de trabajar, de comunicarse, de relacionarse, de aprender, de investigar, de estudiar, de jugar, de entretenerse... mejor dicho se metió en la vida y en la cotidianidad de millones de personas. Como toda tecnología, en la actualidad, evoluciona rápidamente y cada nuevo paso que da permite que más personas accedan a ella, al tiempo que sus usuarios se vuelven más exigentes con los servicios y consultas que quieren encontrar en la red. De ahí que aquellas empresas que viven de esta red universal estén siempre pendientes de las posibilidades de desarrollo que tiene para así ofrecer más opciones y servicios. Eso hace Google: plantearse para dónde va Internet, qué quieren los usuarios y qué les puede ofrecer. Por ello ha establecido siete tendencias que marcarán el futuro próximo: Internet móvil, siempre conectados a través de dispositivos como los celulares y los portátiles; la red omnipresente; las ciudades tendrán cada vez más facilidades de acceso; mayor velocidad, a través de la banda ancha en cualquier lugar; computación en la nube, con acceso a más y más aplicaciones; publicidad en línea, para llegar a públicos objetivos con mayor precisión; el tiempo real, saber ya que están diciendo en Internet, y la web social, cada vez hay más usuarios de estas redes. Estas tendencias plantean retos para los operadores de buscadores, así como para los publicistas, los empresarios, los servicios de entretenimiento y todos aquellos que quieren participar de la red como usuarios o como oferentes, e incluso para aquellos, como los productores de teléfonos móviles para quienes Internet les ha fijado nuevas metas. Internet móvil: el PC dejó de ser el rey Expertos como Vint Cerf -uno de los padres de Internet y vicepresidente de Google- señalan que, si bien el computador personal no morirá y seguirá siendo un equipo muy
    • importante para los usuarios y para el desarrollo de Internet, dejará de ser el medio de conexión por excelencia. "Históricamente, Internet ha sido conectividad entre computadores y personas. (...) Internet continúa su desarrollo: nuevos dispositivos encontrarán su camino en la red y nuevas formas de acceder a ella surgirán y evolucionarán", escribió Cerf en su artículo The Next Internet, incluido en su blog corporativo. La posibilidad del acceso a Internet desde muchos dispositivos -teléfonos inteligentes, celulares de gama media, tablets, computadores de mano, netbooks, consolas de videojuegos e incluso los celulares económicos- ayudará que se cumpla la promesa de que sea una red para todos. Hoy, 1.800 millones de personas, sólo el 27 por ciento de la población mundial, tienen acceso a Internet, y se prevé que gran parte de los próximos 1.000 millones llegarán a través de dispositivos móviles. En Japón esto ya es una realidad, y más personas se conectan desde su teléfono que desde un computador. Por otra parte, los dispositivos móviles se están convirtiendo en el aliado perfecto para quienes necesitan estar conectados permanentemente a Internet por medio de su correo, las redes sociales o las redes corporativas. Además, los equipos más avanzados están logrando un alto grado de 'inteligencia' gracias a que, junto a la conexión a Internet, incorporan varios sensores capaces de detectar y enviar datos en tiempo real, tales como la ubicación geográfica. Otra gran ventaja que tendrá la Internet móvil es su velocidad: las conexiones 3G se remplazarán por la cuarta generación, con tecnologías como LTE, que brindarán más velocidad que las actuales conexiones fijas. Un estudio del Pew Internet Project predice que "Internet móvil será dominante. Hacia el 2020, la mayoría de las redes celulares proveerán un gigabit por segundo como mínimo, desde cualquier lugar y en cualquier momento". Esto implica un reto para las empresas productoras de este tipo de dispositivos, que tienden a ser cada vez más sofisticados. Red omnipresente En el futuro, las personas no sólo se podrán conectar a Internet desde el hogar, las empresas, las oficinas, los cafés Internet, algunos sitios públicos y los teléfonos móviles con servicio de 3G ó 4G. Aunque hoy ya parece que Internet está en todas partes, todavía no está al alcance del grueso de la población ni llega a todos los rincones. Sin embargo, en el futuro las ciudades y poblaciones enteras tendrán Internet en el aire, por medio de redes con tecnologías Wi-Fi y WiMax, y sus ciudadanos podrán conectarse desde cualquier lugar, gratuitamente o con costos cada vez más razonables para sus usuarios. Y no sólo los computadores y los dispositivos móviles aprovecharán la omnipresencia de Internet, sino también una nueva generación de aparatos, desde electrodomésticos hasta automóviles, que podrán estar en línea constantemente. El ejemplo clásico de la nevera que se conecta a la tienda de la esquina cuando falta la leche o la carne, o uno más futurista del carro que por correo avisará cuando le falte la gasolina o cuando tenga una pieza desgastada, podrían ser realidad en unos pocos años. Navegar a toda velocidad
    • Actualmente, en territorios como Hong Kong, Francia y Japón la velocidad promedio para los usuarios de banda ancha es superior a los 10 Mbps. Otros países, como Estados Unidos, poco a poco llegan a estas velocidades, mientras que en Latinoamérica sólo los más privilegiados cuentan con conexiones superiores a los 4 Mbps. Sin embargo, la velocidad en Internet no sólo proviene de la rapidez de las conexiones, sino también de la optimización de los sitios web, las aplicaciones, las tecnologías multimedia y otros aspectos aparentemente imperceptibles pero que aceleran y mejoran la experiencia en línea. Estudios de Google muestran que las personas quieren sitios y aplicaciones más rápidas y estables. Esto implica que los buscadores estén investigando constantemente para desarrollar nuevas tecnologías, y mejorar permanentemente las que ya tienen, para lograr que la web sea más rápida para todos, así no se tengan conexiones de alta velocidad. La computación en la nube será más popular 'Cloud computing', o computación en la nube, despegó en el 2008 y el año pasado creció notablemente, con el surgimiento de numerosas aplicaciones en la nube o Web 2.0 -alojadas en Internet y accesibles desde computadores y dispositivos móviles, y creadas para colaborar y compartir contenidos-. En el futuro se prevé que cada vez más aplicaciones y servicios que hoy funcionan desde los equipos se trasladen a la nube, aprovechando las ventajas en seguridad, accesibilidad y colaboración. Publicidad en línea está viviendo crecimiento exponencial La publicidad en Internet evoluciona a grandes pasos y crece como la espuma en los países más desarrollados. En Inglaterra, hace pocos meses la inversión en publicidad en línea alcanzó el 25 por ciento del total, y desde ese momento la red superó a la televisión como el medio predilecto de los anunciantes. En España, Estados Unidos y otros países la tendencia va hacia allá, y ya Internet supera a algunos medios tradicionales. El promedio mundial de inversión de publicidad en línea, según la firma PriceWaterhouseCoopers, es del 10 por ciento del total de la inversión publicitaria, y en el 2011 será del 21 por ciento. ¿Se trata de una moda? No, es una tendencia cada vez más fuerte apoyada en ventajas de la publicidad en línea sobre la tradicional, tales como la posibilidad de segmentar los anuncios, modificar las campañas publicitarias fácilmente y en tiempo real, administrar de manera flexible los costos, pautar sin límites geográficos y, por todo lo anterior, ayudar a los anunciantes a encontrar más fácilmente a sus clientes potenciales, incrementar sus ventas y reducir los costos de mercadeo, publicidad y comercialización. La publicidad contextual (que tiene que ver con el contenido de las páginas web donde se coloca) es el formato publicitario de mayor crecimiento, gracias a su efectividad y mayor retorno a la inversión, y a que no es intrusiva. El porcentaje de inversión en Inglaterra (25 por ciento) tiene sentido: estudios internacionales no solo señalan que el uso de Internet va en aumento por un mayor número de personas, sino que los internautas pasan cada vez más horas al día en línea que expuestos a medios tradicionales como la radio, la prensa y la televisión, por lo que los anunciantes entienden mejor que deben estar donde se encuentran sus audiencias.
    • En Latinoamérica, la tendencia está despegando lentamente, y la publicidad en línea representa un 5 por ciento del total de inversión publicitaria en la región. En Colombia, en el 2009 creció un 30 por ciento y alcanzó una inversión de 53.000 millones de pesos, según la organización IAB Colombia. Adicionalmente, los formatos continúan evolucionando, y los anuncios de texto contextuales y los banners ahora están acompañados por avisos de video, multimedia, interactivos y gráficos contextuales. El tiempo real ahora sí es real Hoy, la participación de las personas en Internet es cada vez más activa: millones de ellas comparten a diario fotografías, videos, opiniones, documentos y toda clase de contenidos. Por ello, las búsquedas en tiempo real llegan al rescate de los usuarios cuando éstos quieren saber qué se está diciendo en Internet en ese preciso momento, sobre algo de su interés. En la web se está haciendo gran parte de la vida social La web social, también denominada 'Social Media', es tan significativa, que ha transformado la forma como se usa Internet para la vida personal, la información y los negocios. Según el estudio Tribalization of Business, de Deloitte, 94 por ciento de los negocios aumentarán sus inversiones en redes sociales, publicidad y comunidades en línea, y esto no es gratuito. Facebook hoy tiene más de 450 millones de usuarios, Twitter supera los 115 millones, Google Buzz está disponible para más de 175 millones de usuarios del servicio de correo Gmail, y en el sitio de videos YouTube se publican más de 24 horas de video por minuto y se ven más de 100 millones de videos cada día. Estos espacios, más una gran cantidad y variedad que está surgiendo, aún tienen un amplio potencial de crecimiento. portafolio.com.co Publicado por INNGENIAR GROUP en 05:05 0 comentarios martes 18 de mayo de 2010 Michio Kaku, físico: "Nuestros hijos tendrán Internet en sus gafas y lentes de contacto" • Es el ponente estrella del BDigital Global Congress de Barcelona. • Dice que podremos hacernos controles de salud desde nuestro baño. • Cree que la regeneración de órganos en laboratorios será una realidad. • Ha probado un coche que conduce por sí mismo, sin tocar el volante. El físico conocido como 'popularizador de la ciencia', Michio Kaku, explica que las generaciones futuras podrán acceder a Internet a través de unas lentes de contacto. De visita en Barcelona como ponente estrella del BDigital Global Congress, Kaku ha hablado de cómo será el Internet del futuro. Según él, de aquí a unos años podremos conectarnos a la red a través de pantallas gigantes que tendremos en las paredes de nuestras casas. Ha explicado también que gracias a la tecnología podremos hacernos controles de salud desde nuestro propio baño y que la regeneración de órganos será una realidad. Con el libro Visiones, en 1998 adivinó muchas cosas de cómo sería Internet hoy en día, 12 años más tarde. ¿Le han preguntado alguna vez si tiene poderes para prever el futuro?
    • Muchas, pero soy físico y no puedo leerlo. He entrevistado a 300 de los científicos más destacados del mundo. Cuando hablo, no hablo por mí. Soy la voz de estos científicos, que están inventando el futuro en sus laboratorios. Usted habla de lentes de contacto con acceso a la red, grandes pantallas en las paredes de nuestra casa... ¿Necesitamos toda esta tecnología en nuestro día a día? No necesariamente, pero la gente joven querrá estos inventos porque son la vanguardia de la sociedad. Querrán esta tecnología porque sus amigos la tendrán. Estos jóvenes crecerán y, en el futuro, todo esto formará parte de la normalidad. Todo el mundo tendrá Internet en sus lentes de contacto y todo el mundo podrá tener órganos nuevos creciendo dentro su cuerpo y pantallas gigantes, en las paredes de su casa. Todo esto formará parte de la realidad diaria de nuestros hijos. Adelantos como la generación de órganos nuevos para sustituir a los enfermos y unos chips, que según ha anunciado, eliminarán las células cancerígenas dentro de nuestro cuerpo son más de vida o muerte... Exacto. La vida y la muerte se decidirá en los baños de nuestras casas. Tendrán más potencia que un hospital de los de hoy en día. Aparatos que tendremos en nuestro baño, por ejemplo en un espejo, nos dirán si tenemos células cancerígenas o no muchos años antes de que se empiece a formar un tumor. También comenta que tendremos la posibilidad de conseguir crear órganos en los laboratorios. Si lo podemos arreglar todo, ¿podremos vivir eternamente? No viviremos para siempre jamás, pero viviremos más tiempo. Siempre ha habido enfermedades y siempre las habrá. Pero si alguno de nuestros órganos enferma, tendremos la posibilidad de hacer crecer uno nuevo. Además, actualmente ya se han identificado 60 genes que contribuyen al envejecimiento de la especie humana. De aquí a unos años, nuestros hijos o nuestros nietos podrán vivir muchos más años porque podremos controlar genéticamente los genes de nuestro cuerpo. ¿Qué me dice de los coches que se conducirán automáticamente? Originariamente la gente pensaba que un coche que se conduce automáticamente no era factible. Entonces, llegaron los GPS que pueden localizar los coches con menos de un metro de error. Hay vehículos que hoy en día ya están capacitados para circular solos en las carreteras y autopistas, pero todavía no en las ciudades. Yo he probado uno para la BBC. Entré en el coche e iba sentado en el asiento del conductor con los brazos cruzados. Normalmente la tecnología va acompañada de errores. ¿Cree que podremos confiar en estas máquinas? Los sistemas deberán ser redundantes. Si sólo vamos con un GPS, podremos tener muchos problemas porque en las ciudades hay calles cortadas por obras o niños jugando en la calle, y hace falta que haya algún otro elemento de control. Hará falta colocar también radares en los parachoques de los coches para detectar los obstáculos y poner chips en las carreteras. De este modo, el concepto de accidente de tráfico quedará obsoleto. Todo esto que explica cambiará el mundo completamente. ¿No cree que da un poco de respeto? La gente se asusta cuando se entera de estos grandes descubrimientos, pero es normal. Entonces empiezan a ver que los inventos son útiles y, más tarde, pasan a formar parte de su día a día. Con tanta tecnología controlando el mundo, ¿qué me dice de la privacidad que nos restará todo esto? La privacidad es un problema porque los gobiernos, como es obvio, quieren saber quiénes somos, pero no debemos tener miedo. Internet es tan poderoso que los gobiernos no lo podrán controlar del todo. El problema real son los criminales o los vecinos cotillas que querrán acceder a información confidencial. Es decir, no el gran hermano sino el pequeño hermano. ¿Y como se evitará que puedan cotillear nuestros datos? Tendremos que crear un software que proteja quienes somos. En el futuro las gafas nos permitirán ver la biografía de la persona con quien estamos hablando, pero podremos proteger ciertas partes. Comenta que estas gafas y algunos otros inventos de los que ha hablado ya son una realidad... Sí, pero la gente no lo sabe y son muy caros. En el futuro todo el mundo dispondrá de esta tecnología. Estas gafas ya existen y de aquí a cinco o diez años su versión en lentillas también será una realidad. ¿Tal y como ha dicho en la inauguración del congreso, los ordenadores serán más baratos que el papel? De aquí a 2020 el precio de los chips de los ordenadores se irá reduciendo a la mitad cada 18 meses. De aquí a 10 años algunos sólo costarán un céntimo de dólar. Por lo tanto, serán más baratos que el papel, más baratos que la basura o que el envoltorio de los productos que podemos encontrar hoy en día en las tiendas 20minutos.es
    • Publicado por INNGENIAR GROUP en 19:28 1 comentarios lunes 10 de mayo de 2010 PROSPECTIVA PARA EL DESARROLLO TECNOLÓGICO Argentina Organizado por la Subsecretaría de Estudios y Prospectiva del Ministerio de Ciencia, Tecnología e Innovación Productiva, se realizó el taller “Prospectiva de la innovación tecnológica como instrumento de respuesta a la crisis global” dictado por el Dr. Jorge Beinstein. Doctor en Ciencias Económicas de la Universidad de Franche Comté-Besancon de Francia, Beinstein es actualmente profesor titular de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires y en el Doctorado en Ciencias Económicas de la Universidad Nacional de La Matanza. . Durante la presentación el subsecretario de Estudios y Prospectiva, Ing. Guillermo Venturuzzi, destacó la importancia de este taller en el marco de estudios sobre prospectiva, vigilancia e indicadores de innovación en los campos de agroindustria, biotecnología, nanotecnología y TICs que ya se están llevando a cabo desde la subsecretaria a su cargo. Por su parte, la secretaria de Planeamiento y Políticas del Ministerio, Dra. Ruth Ladenheim, hizo hincapié en el rol de la prospectiva en la toma de decisiones a la hora de establecer políticas públicas. . “Hoy en día campos tradicionalmente estables están atravesando momentos de incertidumbre, debemos contar con estudios prospectivos que nos permitan tomar las decisiones más adecuadas a nuestro contexto local y global. . El enfoque del Dr. Beinstein presenta la estrecha relación entre los cambios tecnológicos y los procesos de innovación y su relación con los cambios sociales y económicos”,resaltó Ladenheim. La presentación del Dr. Beinstein constó de una exposición del panorama global de la crisis de 2009, el desarrollo de la disciplina prospectiva y sus métodos y especialmente de la prospectiva de la innovación . “Es necesario tener en cuenta que para encontrar una salida a la crisis global, debemos tener en cuenta los cambios tecnológicos que esta coyuntura mundial nos plantea. Para eso debemos ser sujetos del cambio y no objetos de él”dijo Beinstein. . Prensa Mincyt Publicado por INNGENIAR GROUP en 06:34 0 comentarios Esteben Hawking predice viajes al futuro La conjetura de protección cronológica es una hipótesis formulada por Stephen Hawking en 1992 que sostiene que las leyes de la física son tales que impiden el viaje en el tiempo en
    • cualquier escala que no sea submicroscópica, una forma de prevenir las paradojas temporales. Incluso Hawking sugería que la ausencia de turistas del futuro constituye un fuerte argumento en contra de la existencia de los viajes en el tiempo (similar a la paradoja de Fermi), pero ahora como parte del documental “El Universo de Stephen Hawking” (transmitido en Discovery Channel anoche) ha manifestado que un día los humanos podrán construir naves capaces de alcanzar velocidades tan altas que sería posible viajar en el tiempo, apoyándose sobre la teoría especial de la relatividad de Albert Einstein con la dilatación temporal. nota completa clickear link http://innovacionfutura.blogspot.com/2010/05/stephen-hawking-predice-viajes-al.html Publicado por INNGENIAR GROUP en 10:51 1 comentarios viernes 16 de abril de 2010 Las increíbles profesiones del futuro Foto: granjeros verticales Cirujanos de aumento de memoria, policías del clima, granjeros verticales, o pilotos, guías y arquitectos... ¡espaciales! Ésas son algunas de las opciones en las que habrá de formarse si quiere un trabajo en el futuro. Según el estudio The shape of jobs to come (Los trabajos que se vienen) realizado por FastFuture, una consultora especializada en tendencias y previsiones del futuro, ésas serán algunas de las profesiones más demandadas de aquí al 2030. Se calcula que en 20 años el planeta tendrá más de 8.300 millones de personas, habrá que lidiar a diario con el cambio climático, y la escasez de agua corriente y de comida será uno de los rompecabezas más difíciles de solucionar para la comunidad internacional. FastFuture consultó a más de 486 especialistas de entre 58 países distintos y procedentes de cinco continentes. Partiendo de un ejercicio de intercambio de ideas acerca de una serie de tendencias en temas económicos, políticos, sociales, demográficos, medioambientales y científicos, se elaboró una lista que se dividía básicamente entre "trabajos que no existen todavía" (por ejemplo, policía del clima) y trabajos que ya existen pero que serán mucho más predominantes (nanomédicos). Como muestra la selección de los 20 trabajos más importantes, ser experto en una sóla materia ya no tiene futuro. La combinación de cualificaciones y de habilidades en disciplinas diferentes es una de las tónicas. El Top 20
    • -Fabricantes de partes del cuerpo. La medicina regenerativa ya está dando sus primeros pasos. En el futuro necesitará personas que combinen cualificaciones médicas, de robótica y de ingeniería. -Nanomédicos. Permitirá una medicina mucho más personalizada, donde los fármacos se administran al lugar dónde se produce la enfermedad. Se necesitarán personas con formación en biomedicina, biotecnología, física o robótica que sean capaces de administrar los tratamientos en el pequeñísimo nivel subatómico de la "nanoescala". -Farmagranjeros. Conocimientos farmacéuticos que permitan modificar genéticamente las plantas, de forma que los cultivos puedan producir más cantidad de alimentos con mayores cantidades terapéuticas y proteínas. Las posibilidades del futuro incluyen tomates que sirven como vacunas o leches terapéuticas. -Especialistas médicos en la tercera edad. Quienes sepan cómo tratar a la tercera edad y prolongar su vida activa durante más tiempo tienen el futuro asegurado. No sólo en cuestiones médicas, sino también en temas como la salud mental, psicología o ejercicio físico natural. -Cirujanos para el aumento de la memoria. Parece ser que en el futuro se podrá implantar un chip que haga las veces de disco duro del ordenador humano y almacenar allí todas las memorias que el ser humano no es capaz de retener. Serán necesarios cirujanos que sepan llevar a cabo la operación. -Experto en ética científica. A medida que la tecnología y la ciencia se integran más en el día a día a través de la nanotecnología, la protoneomica (estudio de todas las proteínas del cuerpo humano) o la genómica, muchos más debates sobre el posible uso maléfico de las tecnologías coparán los debates sociales. Serán necesarias personas que conozcan todas las ciencias. El futuro no planteará tanto la cuestión de "¿Se puede hacer?" como la de "¿Está bien que se haga?". -Arquitectos, pilotos o guías turísticos... espaciales. Se necesitarán pilotos capaces de dirigir las naves espaciales y diseñadores que permitan ajustar el espacio fuera del planeta Tierra. -Granjeros verticales. El futuro de la producción agrícola es vertical. Cada vez se escucha más la idea de una ciudad contenida en un solo edificio, probablemente un rascacielos de pisos ilimitados, donde la comida se cultiva en las distintas plantas de un edificio. Es más económico y más ecológico. -Especialista en reversión de cambio climático. Habrá cada vez más demanda de profesionales que sean capaces de revertir los efectos más devastadores del fenómeno : personas con capacidad de aplicar soluciones multidisciplinares, como construir paraguas gigantes para desviar los rayos del sol. -Vigilantes de cuarentenas. Las amenazas incumplidas que trajo consigo la gripe porcina dan cuenta de la importancia de tener más profesionales capacitados para luchar contra las epidemias. Si un virus se esparce de forma fulminante habrá pocos países, enfermeras y personas preparadas -Policía del clima. Con cada vez más países tratando de "provocar" ciertos fenómenos meteorológicos, serán necesarias figuras que salvaguarden internacionalmente la cantidad de cohetes con yoduro de plata que se envían a la atmósfera. -Abogados y profesores virtuales. Se espera que crezcan los conflictos sobre derechos de propiedad y descargas de internet, y la educación a distancia a través de la red. -Ingeniero de vehículos alternativos. Coches eléctricos o de hidrógeno, pero quizá la posibilidad de los coches que vuelan o que van por debajo del agua también requieran de cualidades técnicas y profesionales formados en distintos ámbitos de la ingeniería. -Periodistas de audiencias segmentadas. Se acabaron las audiencias globales y los programas dirigidos a millones de personas. El futuro está en la especialización y los periodistas se dirigirán a audiencias pequeñas.
    • -Desechador de datos personales. Personas especializadas se dedicarán a destruir los datos e información altamente sensibles que se deben desechar de forma segura para que no sean objeto de ciberataques. -Organizadores de vidas electrónicas. La cantidad de información será tan desbordante que serán necesarios especialistas en organizar la vida electrónica: leer y archivar el correo electrónico, asegurar que la maraña ingente de datos estén ordenados de forma coherente, manejar tarjetas de crédito y e identificación electrónica. -Inversor/agente de tiempo. El tiempo más que nunca será un valor en alza. Será necesario alguien que sepa administrarlo de forma efectiva y sacarle beneficio. Ya existen bancos de tiempo, de ahí a que existan inversores o brokers que lo comercien, sólo hay un paso. -Agentes de redes sociales. Para que nadie se sienta excluido de las redes sociales se formarán personas dentro del ámbito de trabajo social, cuya función será facilitar la integración de los individuos en las redes. -Gestores personales de marca. Ya vivimos en una sociedad obsesionada con las marcas. La del futuro enfatiza su necesidad creando una figura que se dedica a gestionarlas. ¿Qué personalidad proyectas en Facebook, Twitter y tu blog? ¿Qué valores personales quieres añadir a tu imagen? ¿Son consistentes con tu verdadero yo? CAPITULO I LA COMPUTADORA Y LA SOCIEDAD 1.1. ¿QUÉ ES UNA COMPUTADORA? Una computadora (Hispanoamérica) u ordenador (España) es un dispositivo electrónico compuesto básicamente de un procesador, una memoria y los dispositivos de entrada/salida (E/S). Por otro lado se dice que una computadora u ordenador es un sistemadigital con tecnología microelectrónica capaz de procesar información a partir de un grupo de instrucciones denominado programa. La estructura básica de una computadora incluye microprocesador (CPU), memoria y dispositivos de entrada/salida (E/S), junto a los buses que permiten la comunicación entre ellos. 1.2. EVOLUCIÓN DEL TÉRMINO COMPUTADORA EN LA SOCIEDAD Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un procedimiento bien definido. En un principio, la palabra era usada para describir a las
    • personas que hacían cálculos aritméticos, con o sin ayuda mecánica, pero luego se trasladó a las propias máquinas. Dentro de la definición que acabamos de dar, entraría el uso de dispositivos mecánicos como la regla de cálculo, toda la gama de calculadoras mecánicas desde el ábaco hacia adelante, además de todas las computadoras electrónicas contemporáneas. Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo pueden realizar una función o un número determinado de funciones. Si pensamos en las computadoras modernas, la característica más importante que los distingue de los aparatos anteriores es que tienen una programación adecuada. Con cualquier computadora se puede emular el funcionamiento de otra (únicamente limitado por la capacidad de almacenamiento de datos y las diferentes velocidades) y, de hecho, se cree que con las actuales se puede emular a cualquier computadora que se invente en el futuro (aunque sean mucho más lentos). Por lo tanto, en cierto sentido, esta capacidad crítica es una prueba muy útil, para identificar las computadoras de uso general de los aparatos destinados a usos específicos (como las macrocomputadoras). Esta característica de poderse emplear para un uso general se puede formalizar en una regla según la cual con una máquina de estas características se debe poder emular el funcionamiento de una máquina de Turing universal. Las máquinas que cumplan con esta definición son homologables a la máquina de Turing. Originariamente, el procesamiento de la información estaba relacionado de manera casi exclusiva con problemas aritméticos, pero las computadoras modernas son usadas para muchas tareas diferentes normalmente sin ninguna Sin embargo, en los últimos 20 años aproximadamente muchos aparatos domésticos, sobre todo las consolas para videojuegos, a las que hay que añadir los teléfonos móviles, los vídeos, los asistentes personales digitales (PDA) y un sinfín de aparatos caseros, industriales, para coches y electrónicos, tienen circuitos homologables a la máquina de Turing (con la limitación de que la programación de estos aparatos está instalada en un chip de memoria ROM que hay que remplazar cada vez que queremos cambiar la programación). Esta especie de computadoras que se encuentran dentro de otras computadoras de uso general son conocidos como microcontroladores o computadores integrados. Por lo tanto, muchas personas han restringido la definición de computadora a aquellas máquinas cuyo propósito principal sea el procesamiento de información y que puedan adaptarse a una gran variedad de tareas, sin ninguna modificación física, excluyendo a aquellos dispositivos que forman parte de un sistema más grande como los teléfonos, microondaso aviones 1.3. USO DE LA COMPUTADORA EN LA SOCIEDAD A mediados de la década del 1970 las computadoras eran usadas por pocas personas, pero ya en la actualidad han tenido un mayor impacto en la sociedad que cualquier otro invento. Esta acogida se debe a sus características. • En el comercio la computadora ayuda en el diseño y manufactura de productos, a dar forma en las campañas de mercadeo y a dar seguimiento y procesar inventarios, cuentas a cobrar y a pagar, y nóminas. • La recepcionista utiliza la computadora para grabar mensajes, localizar empleados y para tareas administrativas. • El departamento de ventas coteja la disponibilidad del producto y el crédito del cliente. Recomienda materiales para complementar el producto ordenado. • El departamento de mercadeo utiliza la computadora para producir el material de promoción, utilizan programas de gráficas, dibujos y Desktop publishing. Utilizan calendarios electrónicos para planificar las promociones. • En envío y recibo utilizan la computadora para entrar transacciones manteniendo actualizados los record de inventario y venta.
    • • En el área de manufactura la utilizan para hacer el itinerario de producción y registrar los costos de los artículos producidos. • El departamento de contabilidad resume las transacciones financieras. • El departamento de recursos humanos mantiene la pista de los empleados pasados o actuales, además de los adiestramientos y destrezas de los empleados. En la educación la computadora es un medio que fortalece el proceso enseñanza - aprendizaje. Se están utilizando los programas de aplicaciones como, por ejemplo: procesadores de palabras (para crear documentos, periódicos), hojas electrónicas (registro de notas, estadísticas) y base de datos (record de estudiantes). • También, se ha hecho popular el uso de Internet. El uso de multimedios, simulaciones y correo electrónico han sido integrados en el diseño del CAI ("Computer Assisted Instruction"). Otro componente que está tomando mucha popularidad es el de educación a distancia. • La profesión médica utiliza la computadora en el diagnósticoy monitoreo de los pacientes y para regular los tratamientos. Está utilizando bases de datos médicos (Medline) de investigaciones recientes con hallazgos y tratamientos. También está utilizando las redes de telemedicina para diagnosticar a larga distancia a través de las videoconferencias. • En los hospitales utilizan la computadora para recopilar datos de pacientes y monitorear signos vitales. La tomografía axial computadorizada (CAT o "CT scanner") son utilizados para detectar cáncer en el cerebro, en otras partes corporales y si hay recurrencia después de la cirugía o quimioterapia. Otro método parecido es la imagen de resonancia magnética ("MRI scanning"), utiliza ondas de radiopara obtener una imagen que muestre los órganos internos del cuerpo, y estudiar cada órgano detalladamente. • Los científicos usan la computadora para analizar el sistema solar, seguir los patrones del tiempo y llevar a cabo experimentos. Los científicos formulan las hipótesis y luego las prueban a través de la observación y colección de datos. En ocasiones tienen que simular el comportamiento del mundo real y su medio ambiente para comprobar la veracidad de sus teorías. Para ello utilizan computadoras con gran capacidad de almacenamiento y velocidadde procesamiento (supercomputadoras), ya que la cantidad de datos es inmensa y pueden tener presentaciones gráficas de alta resolución. • En el área de publicaciones la computadora se está utilizando en los medios de impresión, tales como: revistas, magazines y periódicos. Están utilizando programas de "desktop publishing" para agilizar sus trabajos. Las páginas son creadas en la computadora, se pueden añadir gráficas o fotosde diferentes medios, que son guardadas en disco flexible, y luego se imprimen en una impresora láser a color. • En el gobiernola computadora es usada en todos los niveles. La utilizan para un funcionamiento más eficiente, efectivo y democrático. Se utiliza en los departamentos de la Defensa, Energía, Justicia, Tesoro, Educación, Salud y Servicios Sociales. • En los deportes el uso de las telecomunicacionesnos permite el disfrute de los deportes en el momento en que estén ocurriendo no importa el lugar del mundo. Los atletas pueden mejorar su actuación mediante el uso de sensores, cámaras, estadísticas computadorizadas de datos precisos sobre su cuerpo, según practica. También, mediante el uso de imágenesen 3D. Con la ayuda de CAD ("Computer Aided Design") los fabricantes de equipo deportivo están produciendo artículos de mejor calidad y efectivos. • En nuestra cultura las computadoras han afectado casi todos los aspectos de nuestra cultura contemporánea:
    • • En el arte han provisto al artista de menos herramientas para crear arte tradicional como nuevas formas de crear arte. Ejemplo: fractales e imágenes definidas matemáticamente (X fórmulas). • En la fotografía el uso de cámaras digitales y sus programas han permitido al fotógrafo digitalizar, almacenar y presentar las fotos en una computadora. Ejemplo: Photoshop, que permite manipular los elementos de la foto. • En la músicala grabación digitalizada ha sustituido la grabación análoga de cintas (tapes). Se están utilizando los sintetizadores que pueden reproducir los tonos complejos de cualquier instrumento musical. • En el baile programas como "Life Forms" han ayudado a los coreógrafos a crear pasos de baile en 3D, y luego son guardados para el futuro. También permite el diseñar, montar, editar y manipular secuencias de los movimientos del cuerpo en el monitor. • En el teatro las computadoras juegan un papel importante en el diseño de los escenarios, control de luces y efectos especiales. • En la producción de películas, comerciales y programas de TV las computadoras han revolucionado la creación de éstos. Las computadoras generan gráficas, animación y efectos especiales. Ejemplo: Toy Story, Jurassic Park, ID4, Twister, etc. • El estudio PISA asegura que los alumnos rinden más si pasan mucho tiempo con la computadora. Los investigadores, Wößmann y Fuchs, de Munich, opinan lo contrario. • Desde su creación, la computadora es objeto de análisis en cuanto a sus ventajas y desventajas. Aclaremos que se trata del PC ( personalcomputer) porque en la época de los ordenadores inmensos que abarcaban toda una habitación, cada científico estaba en la gloria por tener acceso a esa tecnología y poder desarrollar programas propios. 1.4. LA COMPUTADORA Y APRENDIZAJE EN LA SOCIEDAD El estudio de evaluación PISApublicó que las personas que tienen computadora en su casa y acceso de estas en la escuela registran un nivel más alto. PISA es la abreviatura de Programms for International Student Assessment que realiza la Organizaciónpara la Cooperación Económica y Desarrollo, OECD, que analiza la calidad y equidad del nivel de aprendizaje de los adolescentesde 15 años comparativamente en 28 países. Hasta ahora los estudios se concentraron en lectura, ciencias naturales y matemáticas. Los alumnos alemanes se ubican alrededor del lugar 18 al 24. La OECD simplemente ve una relación directa entre el acceso a una computadora y el rendimiento. Los expertos en educación del Instituto de Investigación Económica (Ifo) de Múnich, Ludger Wößmann y Thomas Fuchs, piensan que este criterio es insuficiente. Fuchs señala que la computadora en la casa significa que la familia está en una posición social mejor. Los hijos cuyos padres son profesionales, tienen de por sí mejor nivel. Como instrumento o medio para educarse, informarse, investigar, comparar, entrenar el cerebro, la memoria, la rapidez mental y, en general, las capacidades mentales, la computadora es excelente. Lo importante es saber usarla adecuadamente. Y para eso necesitamos maestros que nos indiquen el mejor camino. Si los maestros se oponen de un principio, como sucede en Alemania, los niños y jóvenes le darán el uso que suelen darle los de su generación: juegos virtuales, conversaciones instantáneas. Si los chicos trabajaran con la computadora para la escuela y aprender, supuestamente se evitaría el efecto negativo, dicen los investigadores de Ifo. El 82% de los evaluados en PISA tienen una computadora en su casa. El 65% aseguró poseer un software de aprendizaje. Pero apenas la mitad de ellos usa la computadora para investigar o para mandar correo electrónico. Norbert Holz, profesor y consejero de ciencias mediales en la UniversidadTécnica de Berlín, asegura que algunos juegos son excelentes para entrenar la confrontación con la realidad y la solución de problemas. Son, por ejemplo, los juegos de estrategia que simulan la realidad y
    • ofrecen varias tácticas para llegar a una meta determinada. En esos juegos no se trata del bien y del mal. En la estrategia no hay aumento de moral pero sí, de inteligencia. El autor Steven Johnson, profesor del Computer Cience Department de la Universidad de Indiana, va aún más lejos: afirma que los juegos de computadora llevan a un aumento de inteligencia y entrenan la capacidad cognitiva más que los libros. "La lectura de libros lleva a una falta de estímulo crónica de los sentidos. Frente a un mundo complejo lleno de imágenes móviles y paisajes musicales, los libros son un alineación aburrida de palabras en un camino lineal establecido". Las opiniones son encontradas. Algunos defienden la computadora con sus posibilidades de comunicación con el mundo entero, la facilidad de crear lazos sociales complejos e investigar mundos virtuales. Por supuesto que esta teoríano considera el aspecto de aislamiento frente a una máquina, incluso recalca que a menudo los niños se agrupan frente a una pantalla o que se produce comunicación a través de los juegos virtuales interactivos. Y, al mismo tiempo, considera que la actitud de leer obliga al niño a recluirse en una habitación, aislado y consumiendo pasivamente. 1.5. LA RELACIÓN CIENCIA TÉCNICA Y DESARROLLO SOCIAL Desde sus inicios el hombre ha buscado la forma de mejorar su calidad de vida y su forma de trabajo, para ello ha buscado métodos adecuados tales como la tecnología que ha desarrollado a través de la ciencia. Esto ha permitido llegar a grandes inventoscientíficos desde la calculadora hasta la computadora y el Internet, este gran avance ha llevado a la humanidad a tener un enorme desarrollo social. En el desarrollado social de la humanidad la computadora se ha convertido en pocos años en parte integrante de la vida cotidiana. En un mundo en constante cambio cada persona se siente implicada en formar parte del mundo de la información. Los continuos avances en otras ramas de la ciencia como la robótica o de la inteligencia artificial han permitido hacer realidad muchos proyectos que hace años parecían solo fantasías futuristas. La computadora es una máquina que nos permite realizar muchas tareas diferentes, por esta razón ha influido en muchos aspectos de nuestra vida. 1.6. COMPUTADORAS: EFECTOS EN LA SOCIEDAD En los últimos años, el fuerte incremento que se ha venido dando en la utilización de las computadoras, es fácilmente observable en profesiones tan diversas como la medicina, la educación, la ingeniería, la arquitectura, la administración, etc. o en sectores como el gobierno, la industria, la banca, el comercio, etc., lo cual se debe a que estos cada vez más pequeños y novedosos artículos tienen como virtud principal procesar con mucha facilidad y a gran velocidad enormes volúmenes de información.
    • En este capítulo, el interés radica en reflexionar sobre las repercusiones de las computadoras personales en el contexto de la sociedad; sin embargo, creemos conveniente comenzar con algunos comentarios sobre el impacto de la toda la nueva tecnología en la sociedad. Existe una seria preocupación en diferentes sectores de la sociedad sobre los problemas que las computadoras personales -de acuerdo a su criterio- están ocasionando en la sociedad. Por mencionar algunos de ellos: la posibilidad de crear desigualdades sociales, desempleo, orientación del empleo hacia áreas técnicas, el considerar a la máquina como el sustituto del cerebro humano, la deshumanización de los usuarios, la dependencia del ser humano respecto de una máquina ó la limitación de la evolución normal del conocimiento cuando se utiliza en la educación. Estas opiniones resultan gratamente provechosas , en función de que me ayudan a definir con una mayor claridad nuestra posición respecto al tema: a nuestro parecer, la computadora tiene una característica muy importante generadora de sus efectos positivos y negativos: su constante evolución. Esta evolución, genera a su vez, dos serios problemas los cuales debemos considerar cuando se trata de reflexionar seriamente, me refiero al COSTO y al DESCONOCIMIENTO sobre el tema por parte de la mayoría en nuestro medio socioeconómico. A pesar de que aún es costoso para algunos sectores de la sociedad la adquisición de computadoras personales, es innegable que el costo de HARDWARE o componentes físicos del computador (monitor, teclado, gabinete, etc), tiende a disminuir y a modificar cada vez más sus características físicas de tamaño, capacidad de procesamiento, almacenamiento, peso, etc., sin embargo, el costo de los programas o SOFTWARE que hacen que las máquinas funcionen y puedan realizar la manipulación de datos con eficacia, tienden cada vez más a aumentar, lo que también es aplicable a los costos de mantenimiento e insumos que requiere el computador. Por tanto, si bien puede ser verdad que la adquisición de computadoras personales se dará probablemente en sectores con la capacidad económica suficiente para el mantenimiento y actualización o mejora del equipo; esto no quiere decir que el no contar con un computador, significará que el individuo interesado en conocer a mayor profundidad esta herramienta no se encuentre en posibilidades de establecer relación con ella o no pueda desempeñar su función; es aquí donde el sector educativo juega un papel muy importante, que lo ha llevado a adquirir un número cada vez mayor de computadoras personales a las cuales puedan fácilmente tener acceso los alumnos. En el caso de la Universidades de nuestra nación, esta tendencia se demostró a través de una investigación realizada por una servidora, la cual, confirmó que el equipo de cómputo para usos administrativos se ha adquirido durante los últimos tres años, período en que el Perú. Actualmente, nuestras universidades ya cuenta con computadoras personales cabe ahora preguntarse ¿Quién y para qué serán utilizadas? Esto nos lleva al segundo problema que postulo: el hombre y su desconocimiento del elemento han creado problemas como la necesidad artificial de este tipo de máquinas, sobrevaluar o subvaluar las aplicaciones reales del computador, pensar que los robots serán independientes o que los docentes serán eliminados por las computadoras cuando, en realidad, temas tan novedosos como la inteligencia artificial postulan como uno de sus objetivos la reproducciónautomática del razonamiento humano ; esto no quiere decir que no se requiera del elemento humano para el manejo de la computadora que realizará tal función.
    • Han generado gran inquietud en los miembros de la organización .Se han adquirido en algunos casos porque "es la moda".En general la capacitación que se otorga en el área no toma en cuenta las funciones que realiza el elemento humano. El desconocimiento de su tecnología provoca adquirir el equipo sin considerar sus requerimientos de instalación, puesta en marcha y mantenimiento. Consideramos que la falta de conocimiento de la máquina ha creado dos corrientes radicales de comportamiento en los individuos: una, que induye a quienes consideran que la computadora será capaz de resolverlo TODO y en la otra, los que temen conocerlas y prefieren evadirlas. II. LA COMPUTADORA COMO MEDIO EDUCATIVO 2.1 ANTECEDENTES HISTORICOS DE LA ENSEÑANZA CON EL AUXILIO DE LA COMPUTADORA Los primeros esfuerzos por automatizar en parte el proceso enseñanza-aprendizaje se pueden encontrar en el uso de las máquinas de enseñanza de Sydney Pressey, profesor de un curso introductorio masivo de psicología educativa en la Universidad de Ohio quien, en la década de los 20, aplicaba a sus alumnos pruebas semanales que estimó le tomaban, para calificarlas, cinco mese de tiempo completo cada semestre. Motivado por el posible ahorrode tiempo diseñó una máquina que se parecía al carro de una máquina de escribir, con cuatro teclas y una ventana larga por la cual se podría ver un marco con una pregunta y cuatro posibles respuestas. Después de leer las preguntas los estudiantes seleccionaban la respuesta más adecuada por medio de una de las teclas. Una prueba típica tenía 30 preguntas. Pressey se dio cuenta que con ciertas modificaciones la máquina no sólo examinaba a los alumnos sino que también tenía algunas propiedades para su instrucción puesto que, como las preguntas socráticas, los marcos podían enseñar. Pressey presentó una de sus máquinas en una reunión anual de la Asociación Psicológica Americana en 1934 y posteriormente publicó artículos sobre ellas. En 1932 Pressey confiaba tanto en sus máquinas que predijo una revolución industrial en la educación, la cual no se llevó a cabo, entre otras cosas, por la gran depresión económica por la que atravesaba Estados Unidos. El interés no volvió a surgir sino hasta la Segunda Guerra Mundial, al presentarse la necesidad de entrenar rápidamente a muchos operarios civiles y militares para labores, como operación de máquinas, armamento y electrónica; e interés que continuó después de terminado el conflicto. En 1957, Simon Ramo, un ingeniero eléctrico y exitoso industrial, publicó un plan visionario que describía el papel de la computadora en la educación. Por medio de esta máquina se automatizaría la enseñanza y también la administración de la misma. Para la mitad de la década de los 60, ya se había establecido firmemente en el mundo empresarial el control administrativo que muchos de los procesos de negocios utilizando computadoras, y éstos habían emigrado a escuelas que contaban con computadoras como en el caso de las universidades importantes. No obstante quedaba pendiente la administración detallada de la instrucción, así como la instrucción misma que hacen los maestros en clase. Los dos procesos dieron lugar a dos ramas del cómputo educativo: la Instrucción Administrada por Computadora (CMI del inglés
    • Computer Managed Instruction) y la Instrucción Auxiliada por Computadora (CAI por sus siglas en inglés, Computer Aided Instruction). En este artículo solamente nos ocuparemos de esta última que ha sido desarrollada por educadores. Entre los actores pioneros en CAI se encuentran las universidades de Illinois, Stanford, la National Science Foundation y las empresas Control Data Corporation e IBM. Tres proyectos destacan entre los esfuerzos iniciales: El ProyectoCCC, el Proyecto Plato y el Proyecto TICCIT. Posteriormente entre el Institute for Mathematical Studies, la Universidad de Stanford e IBM se llevó a cabo uno de los primeros grandes proyectos de CAI que desarrolló un currículum completo para la escuela primaria implantado en 1963, y cuyos materiales fueron mercadeados desde 1967 por la Computer Curriculum Corporation (CCC). El proyecto fue dirigido por el Prof. Patrick Suppes de la Universidad de Stanford. Los materiales han sido probados exhaustivamente y han tenido un gran impacto, al grado que se estima que la mitad de las evaluaciones empíricas del uso de CAI en educación primaria, han sido hechas utilizando los materiales desarrollados en este proyecto. Ya es un número considerable el de los países que han introducido la computación en la enseñanza en varios niveles educativos (Refs. 1-3). México no es la excepción y desde 1985 inició un proyecto federal al respecto para introducir las computadoras en los niveles secundario y primario (Refs. 4-5). La Academia de la InvestigaciónCientífica (AIC) y la Academia Nacional de Ingeniería (ANIAC) organizaron actividades de nivel internacional en México, que inspiraron la fundación de la Sociedad Mexicana de Computación en la Educación (SOMECE) (Refs. 6-7) y, posteriormente, la Asociación Latinoamericana de Informática en la Educación (ALIE), SOMECE y AIC han organizado nueve simposios internacionales sobre la computación en la educación (Refs. 8-9); otras instituciones como la Fundación Arturo Rosenblueth, la Universidad Nacional Autónoma de México y la Secretaría de Educación Pública han organizado también actividades nacionales e internacionales para discutir el tema (Refs. 10-12). Instituciones como la UNESCO e IFIP, así como sociedades y redes internacionales, han organizado acciones y proyectos de investigación, en los que ha participado México para intercambiar experiencias a nivel internacional sobre diversos aspectos de la utilización de la informática en la educación (Refs. 13-16). 2.2. LA INFORMÁTICA. LA COMPUTADORA Y LA EDUCACIÓN Informática no puede ser una asignatura más, sino la herramienta que pueda ser útil a todas las materias, a todos los docentes y a la escuela misma, en cuanto institución que necesita una organización y poder comunicarse con la comunidad en que se encuentra. Entre las aplicaciones más destacadas que ofrecen las nuevas tecnologías se encuentra la multimediaque se inserta rápidamente en el proceso de la educación y ello es así, porque refleja cabalmente la manera en que el alumno piensa, aprende y recuerda, permitiendo explorar fácilmente palabras, imágenes, sonidos, animaciones y videos, intercalando pausas para estudiar, analizar, reflexionar e interpretar en profundidad la información utilizada buscando de esa manera el deseado equilibrio entre la estimulación sensorial y la capacidad de lograr el pensamiento abstracto. En consecuencia, la tecnología de la informática se convierte en una poderosa y versátil herramienta que transforma a los alumnos, de receptores pasivos de la información en participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña un papel primordial la facilidad de relacionar sucesivamente distintos tipos de información, personalizando la educación, al permitir a cada alumno avanzar según su propia capacidad. No obstante, la mera aplicación de la multimedia en la educación no asegura la formación de mejores alumnos y futuros ciudadanos, si entre otros requisitos dichos procesos no van guiados y acompañados por el docente.
    • El docente debe seleccionar criteriosamente el material a estudiar a través del computador; será necesario que establezca una metodología de estudio, de aprendizaje y evaluación, que no convierta por ejemplo a la información brindada a través de un CD-ROM en un simple libroanimado, en el que el alumno consuma grandes cantidades de información que no aporten demasiado a su formación personal. Por sobre todo el docente tendrá la precaución no sólo de examinar cuidadosamente los contenidos de cada material a utilizar para detectar posibles errores, omisiones, ideas o conceptos equívocos, sino que también deberá fomentar entre los alumnos una actitud de atento juicio crítico frente a ello. A la luzde tantos beneficios resulta imprudente prescindir de un medio tan valioso como lo es la Informática, que puede conducirnos a un mejor accionar dentro del campo de la educación. Pero para alcanzar ese objetivo, la enseñanza debe tener en cuenta no sólo la psicología de cada alumno, sino también las teorías del aprendizaje, aunque se desconozca aún elementos fundamentales de esos campos. Sin embargo, la educación en general y la Informática Educativa en particular, carecen aún de estima en influyentes núcleos de la población, creándose entonces serios problemas educativos que resultan difíciles de resolver y que finalmente condicionan el desarrollo global de la sociedad. La mejora del aprendizaje resulta ser uno de los anhelos más importante de todos los docentes; de allí que la enseñanza individualizada y el aumento de productividad de los mismos son los problemas críticos que se plantean en educación; el aprendizaje se logra mejor cuando es activo, es decir cuando cada estudiante crea sus conocimientos en un ambiente dinámico de descubrimiento. La duración de las clases y la metodología empleada en la actualidad, son factores que conducen fundamentalmente a un aprendizaje pasivo. Dado que la adquisición de los conocimientos no es activa para la mayoría de los estudiantes la personalización se hace difícil. Sería loable que los docentes dedicasen más tiempo a los estudiantes en forma individual o en grupos pequeños; solamente cuando cada estudiante se esfuerza en realizar tareas, podemos prestarle atención como individuo. La incorporación de nuevos avances tecnológicos al proceso educativo necesita estar subordinada a una concepción pedagógica global que valorice las libertades individuales, la serena reflexión de las personas y la igualdad de oportunidades, hitos trascendentes en la formación de las personas, con vistas a preservar en la comunidad los valores de la verdad y la justicia. La computadora es entonces una herramienta, un medio didáctico eficaz que sirve como instrumento para formar personas libres y solidarias, amantes de la verdad y la justicia. En consecuencia toda evaluación de un proyecto de Informática Educativa debería tener en consideración en qué medida se han logrado esos objetivos. La revolución informática iniciada hace cincuenta años e intensificada en la última década mediante el incesante progreso de las nuevas tecnologías multimediales y las redes de datos en los distintos ambientes en los que se desenvuelven las actividades humanas, juntamente con la creciente globalización de la economía y el conocimiento, conducen a profundos cambios estructurales en todas las naciones, de los que la RepúblicaArgentina no puede permanecer ajeno y en consecuencia a una impostergable modernización de los medios y herramientas con que se planifican, desarrollan y evalúan las diferentes actividades, entre otras, las que se llevan a cabo en los institutos de enseñanza del país. El análisis sobre las computadoras y la escuela, tema reservado inicialmente a los especialistas en educación e informática, se ha convertido en un debate público sobre la informática en la escuela y sus consecuencias sociales. Variada resulta en la actualidad el abanico de las diversas realidades en que se desenvuelven los establecimientos educacionales, desde los que realizan denodados esfuerzos por mantener sus puertas abiertas brindando un irremplazable servicio, hasta aquellos otros que han logrado evolucionar a tono con los modernos avances tecnológicos, sin olvidar una significativa mayoría de los que diariamente llevan a cabo una silenciosa e invalorable tarea en el seno de la comunidad de la que se nutren y a la que sirven.
    • Esas realidades comprenden también -en muchos casos- la escasezde docentes debidamente capacitados, las dificultades relacionadas con la estabilidad del personal disponible, la persistencia de diversos problemas de infraestructura edilicia, la discontinuidad en los proyectos emprendidos y las estrecheces económicas siempre vigente, sin olvidar las inevitables consecuencias en la implementación de la Ley Federal de Educación de reciente aprobación.La Informática incide a través de múltiples facetas en el proceso de formación de las personas y del desenvolvimiento de la sociedad; puede ser observado desde diversos ángulos, entre los que cabe destacar:a.- La informática como tema propio de enseñanza en todos los niveles del sistema educativo, debido a su importancia en la cultura actual; se la denomina también "Educación Informática".b.- La informática como herramienta para resolver problemas en la enseñanza práctica de muchas materias; es un nuevo medio para impartir enseñanza y opera como factor que modifica en mayor o menor grado el contenido de cualquier currícula educativa; se la conoce como "Informática Educativa".c- La informática como medio de apoyo administrativo en el ámbito educativo, por lo que se la denomina "Informática de Gestión". De manera que frente al desafío de encarar proyectos de informática en la escuela resulta fundamental no solo ponderar la importancia relativa que el mismo representa respecto de otros emprendimientos a promover, sino también evaluar la mencionada problemática en la que se desenvuelve el establecimiento. La función de la escuela es la de educar a las nuevas generaciones mediante la transmisión del bagaje cultural de la sociedad, posibilitando la inserción social y laboral de los educandos; un medio facilitador de nuevos aprendizajes y descubrimientos, permitiendo la recreación de los conocimientos. Como espejo que refleja la sociedad, las escuelas no crean el futuro, pero pueden proyectar la cultura a medida que cambia y preparar a los alumnos para que participen más eficazmente en un esfuerzo continuado por lograr mejores maneras de vida. Cada sujeto aprende de una manera particular, única, y esto es así porque en el aprendizaje intervienen los cuatro niveles constitutivos de la persona: organismo, cuerpo, inteligencia y deseo. Podemos afirmar que la computadora facilita el proceso de aprendizaje en estos aspectos. Desde lo cognitivo, su importancia radica fundamentalmente en que es un recurso didáctico más al igual que los restantes de los que dispone el docente en el aula, el cual permite plantear tareas según los distintos niveles de los educandos, sin comprometer el ritmo general de la clase. Existe una gran variedad de software educativo que permite un amplio trabajo de las operacioneslógico-matemáticas (seriación, correspondencia, clasificación, que son las base para la construcción de la noción de número) y también de las operaciones infralógicas (espacio representativo, secuencias temporales, conservaciones del objeto) colaborando así con la reconstrucción de la realidad que realizan los alumnos, estimulándolos y consolidando su desarrollo cognitivo. La computadora favorece la flexibilidad del pensamiento de los alumnos, porque estimula la búsqueda de distintas solucionespara un mismo problema, permitiendo un mayor despliegue de los recursos cognitivos de los alumnos. La utilización de la computadora en el aula implica un mayor grado de abstracción de las acciones, una toma de conciencia y anticipación de lo que muchas veces hacemos "automáticamente", estimulando el pasaje de conductas sensorio-motoras a conductas operatorias, generalizando la reversibilidad a todos los planos del pensamiento. Desde los planos afectivo y social, el manejo de la computadora permite el trabajoen equipo, apareciendo así la cooperación entre sus miembros y la posibilidad de intercambiar puntos de vista, lo cual favorece también sus procesos de aprendizaje. Manejar una computadora permite a los alumnos mejorar su autoestima, sintiéndose capaces de "lograr cosas", realizar proyectos, crecer, entre otros. Aparece también la importancia constructiva del error que permite revisar las propias equivocaciones para poder aprender de ellas. Así el alumno es un sujeto activo y participante de su propio aprendizaje que puede desarrollar usos y aplicaciones de la técnica a través de la inserción de las nuevas tecnologías. El método de razonar informático es concretamente el método de diseño descendente de algoritmosque es positivamente enriquecedor como método sistemático y riguroso de resolución de problemas y de razonamiento. De tal manera
    • que el docente, debe dominar una forma de trabajar metódica, que enseña a pensar y que permite el aprendizaje por descubrimiento, el desarrollo inteligente y la adquisición sólida de los patrones del conocimiento. El alumno, estará preparado entonces para distinguir claramente cual es el problema y cual es el método más adecuado de resolución. La computadora es además, para el docente, un instrumento capaz de revelar, paso a paso 2.3. DEFINICIÓN DE SOFTWARE COMO MEDIO EDUCATIVO En este trabajo se utilizará las expresiones software educativo, programas educativos y programas didácticos como sinónimos para designar genéricamente los programas para ordenador creados con la finalidad específica de ser utilizados como medio didáctico, es decir, para facilitar los procesos de enseñanza y de aprendizaje. Esta definición engloba todos los programas que han estado elaborados con fin didáctico, desde los tradicionales programas basados en los modelos conductistas de la enseñanza, los programas de Enseñanza Asistida por Ordenador (EAO), hasta los aun programas experimentales de Enseñanza Inteligente Asistida por Ordenador (EIAO), que, utilizando técnicas propias del campo de los SistemasExpertos y de la Inteligencia Artificial en general, pretenden imitar la labor tutorial personalizada que realizan los profesores y presentan modelos de representación del conocimiento en consonancia con los procesos cognitivos que desarrollan los alumnos. No obstante según esta definición, más basada en un criterio de finalidad que de funcionalidad, se excluyen del software educativo todos los programas de uso general en el mundo empresarial que también se utilizan en los centros educativos con funciones didácticas o instrumentales como por ejemplo: procesadores de textos, gestores de bases de datos, hojas de cálculo, editores gráficos. Estos programas, aunque puedan desarrollar una función didáctica, no han estado elaborados específicamente con esta finalidad. 2.3. LA COMPUTADORA EN EL AULA COMO RECURSO COGNITIVO Sin duda alguna, las nuevas tecnologías están y van a seguir cambiando nuestra manera de vivir. Entonces, por qué no entrar de lleno a indagar las virtudes de esa herramienta llamada computadora, que potencia nuestra capacidad de aprender y nos facilita el conocimiento. Las escuelas con sus escasos recursos, hacen esfuerzos por dotar de equipo de cómputo a sus estudiantes para que éstos puedan acceder a un conocimiento más vasto, almacenado en millones de servidores en todo el orbe por la redmundial de Internet. Lo importante, desde nuestro punto de vista, es buscar nuevas metodologías para el aprendizaje, que también están cambiando. ¿Cómo encontrar esas metodologías, si seguimos atados a antiguos esquemas para entender el proceso enseñanza-aprendizaje? Ofrezco un aporte para la innovación metodológica de la enseñanza a través de un estudio experimental, con alumnos de primero de secundaria, en 16 grupos mixtos de 50 alumnos, aproximadamente, cada uno. El estudio no es cerrado para un determinado lugar, un solo tipo de alumnos y un determinado nivel; es un estudio abierto a primarias, secundarias, bachilleratos, etc. Solo es preciso ajustar los parámetros que se manejan y aplicar la metodología de enseñanza- aprendizaje que se propone, en cualquier nivel escolar o socioeconómico en el que nos desempeñemos La investigación es de corte cualitativo o interpretativo. Argumentamos, con hechos, la siguiente pregunta: ¿Cómo influye en el aprendizaje del uso de la computadora la experiencia en el manejo de la misma y la reflexión sobre los procesos que realiza? Para responder la pregunta anterior, establecímos una propuesta didáctico metodológica, centrada en el alumno, y con un fuerte soporte referencial basado en la teoría sociocultural de Lev Semionovich Vygotsky. Además en el constructivismo que éste y otros autores proponen. 2.4.1 ¿Cómo se da el aprendizaje con la PC?
    • Es recíproco, ya que el proceso de la PC ayuda al proceso cognitivo y éste último a la operación de la PC, se obtiene así, un doble y complejo aprendizaje; es doble por la interacción entre los pares, el novato o novato avanzado aprende: primero, del proceso interpsicológico que le es ofrecido en la interacción con el experto o más capaz; segundo, cuando el aprendiz internaliza ese aprendizaje y ocurre el proceso intrapsicológico, vuelve aprender de sí mismo aquello que observó e internalizó mediante la ZDP con el experto; hay además otro aprendizaje, cuando opera la PC por cuenta propia y reafirma el proceso de internalización, que había obtenido previamente, porque la misma PC, le "enseña" y "corrige" aquello que el alumno desea aprender, con el uso adecuado de las herramientas y los mensajes de retroalimentación que aparecen en la pantalla de la computadora, cuando algún proceso no funciona en la PC, por error del que la maneja. 3. Relación de dos procesos Proceso cognitivo del alumno Proceso de la computadora Aspecto educativo: – Es mecánico, ejecuta comandos. Funciona mediante procesos ordenados – Es intencionado. Internalizado progresivamente. Funciona mediante progresivamente. herramientas y signos. – Asociado a la PC. Mediante la interacción por pares, entre el experto y el novato. – Ejecuta las órdenes del estudiante. Propicia un aprendizaje determinado. Requiere de experiencia para el manejo de sus – Es reflexivo, pues da sentido a la experiencia herramientas. y a los significados. – Algo se procesa en el estudiante y se auxilia – Los proceos de la PC, contribuyen con el de las herramientas. proceso cognitivo. 2.5. LA COMPUTADORA UN MEDIO PARA LA ENSEÑANZA -APRENDIZAJE La computadora se convierte en una poderosa y versátil herramienta que transforma a los alumnos, de receptores pasivos de la información en participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña un papel primordial la facilidad de relacionar sucesivamente distintos tipos de información, personalizando la educación, al permitir a cada alumno avanzar según su propia capacidad. No obstante, la mera aplicación de la computadora en la educación no asegura la formación de mejores alumnos y futuros ciudadanos, si entre otros requisitos dichos procesos no van guiados y acompañados por el docente. El porfesor debe seleccionar criteriosamente el material a estudiar a través del computador; será necesario que establezca una metodología de estudio, de aprendizaje y evaluación, que no convierta por ejemplo a la información brindada a través de un CD-ROM en un simple libro animado, en el que el alumno consuma grandes cantidades de información que no aporten demasiado a su formación personal.
    • Por sobre todo el docente tendrá la precaución no sólo de examinar cuidadosamente los contenidos de cada material a utilizar para detectar posibles errores, omisiones, ideas o conceptos equívocos, sino que también deberá fomentar entre los alumnos una actitud de atento juicio crítico frente a ello. A la luz de tantos beneficios resulta imprudente prescindir de un medio tan valioso como lo es la Informática, que puede conducirnos a un mejor accionar dentro del campo de la educación. Pero para alcanzar ese objetivo, la enseñanza debe tener en cuenta no sólo la psicología de cada alumno, sino también las teorías del aprendizaje, aunque se desconozca aún elementos fundamentales de esos campos. Sin embargo, la educación en general y la Informática Educativa en particular, carecen aún de estima en influyentes núcleos de la población, creándose entonces serios problemas educativos que resultan difíciles de resolver y que finalmente condicionan el desarrollo global de la sociedad. La mejora del aprendizaje resulta ser uno de los anhelos más importante de todos los docentes; de allí que la enseñanza individualizada y el aumento de productividad de los mismos son los problemas críticos que se plantean en educación; el aprendizaje se logra mejor cuando es activo, es decir cuando cada estudiante crea sus conocimientos en un ambiente dinámico de descubrimiento. La duración de las clases y la metodología empleada en la actualidad, son factores que conducen fundamentalmente a un aprendizaje pasivo. Dado que la adquisición de los conocimientos no es activa para la mayoría de los estudiantes la personalización se hace difícil. Sería loable que los docentes dedicasen más tiempo a los estudiantes en forma individual o en grupos pequeños; solamente cuando cada estudiante se esfuerza en realizar tareas, podemos prestarle atención como individuo. En este marco, la nueva tecnología intercativa, fruto de la asociación de la informática, las comunicaciones, la robótica y el manejo de las imágenes, revolucionará el aprendizaje resolviendo dichos interrogantes, los que en la actualidad limitan la evolución del sistema educativo. El componente principal para el progreso será el desarrollo de cursos y de currículas de estudio enteramente nuevos. Los puntos esenciales de la reforma educativa pasan entonces por la capacitación de los docentes y el desarrollo de nuevos materiales de aprendizaje, utilizando en lo posible tecnología informática interactiva. Es necesario reconocer que no hay una sola filosofía que abarque toda la temática, pero ciertamente si disponemos de variados materiales podremos realizar evaluaciones conjuntas de los productos y analizar otras técnicas de aprendizaje. Todo proyecto de informática educativa deberá entonces tener en consideración que lo más importante de la educación no consiste en instruir sobre diversos temas, lo cual es siempre necesario, sino en transmitir y hacer encarnar en la conducta de los alumnos los valoresy creencias que dan sustento al estilo de vida que ha elegido la sociedad para lograr su vigencia. La incorporación de nuevos avances tecnológicos al proceso educativo necesita estar subordinada a una concepción pedagógica global que valorice las libertades individuales, la serena reflexión de las personas y la igualdad de oportunidades, hitos trascendentes en la formación de las personas, con vistas a preservar en la comunidad los valores de la verdad y la justicia. La computadora es entonces una herramienta, un medio didáctico eficaz que sirve como instrumento para formar personas libres y solidarias, amantes de la verdad y la justicia. En consecuencia toda evaluación de un proyecto de Informática Educativa debería tener en consideración en qué medida se han logrado esos objetivos. Con respecto al uso específico de la computación y el papel que este juega en la enseñanza aprendizaje, no son pocos los análisis e investigaciones que realizan psicólogos, pedagogos e incluso empresas productoras de Hardware y Software, ya que todos insisten en la preocupación que tienen en probar si esta contribuye o no al aprendizaje.
    • En 1981 la IBM al tratar de realizar estudios sobre el impacto de las Nuevas Tecnologías en la educación obtuvieron que los profesores estaban conscientes de la revolución que las computadoras ofrecían a la educación a la vez que confesaron estar menos preparados que los alumnos en el manejo de las mismas. (Ballesta,1) De igual forma en países como Francia e Inglaterra, todos coincidieron en que el uso de la tecnología es un auténtico desafío en la actuación, ya que se hacia imprescindible para perfeccionar la calidad del aprendizaje (Ballesta,1). Como se puede ver en todos se constataba la preocupación por el qué hacer. Varios son los autores (A. M. Liberty, B.Fainholc) entre otros que coinciden en plantear el papel determinante que puede jugar la computadora cuando es correctamente aplicada en el proceso de enseñanza-aprendizaje. En cuanto a los modelos o formas de usar las computadoras en el proceso de enseñanza- aprendizaje, existen y coexisten diferentes tendencias: Taylor en el año 1980 y centra su atención en la computadora y en la manera de utilizarla. Aquí se proponen tres ramas: 1) La computadora tutor. 2) La computadora como herramienta. 3) La computadora programable. Por otra parte, la Universidad libre de Bruselas, en su postgrado de Informática aplicada a las ciencias de la Educación, divide esta en tres opciones: 1) Aplicaciones pedagógicas de la computadora. 2) Utilización de la computadora en la investigación. 3) Gestión informatizada de establecimientos escolares. Otros autores la clasifica desde el punto de vista del aprendizaje determinando cuatro posibilidades o campos de aplicación: 1) Aprendizaje acerca de la computadora. 2) Aprendizaje a través de la computadora. 3) Aprendizaje con la computadora. 4) Aprendizaje acerca del desarrollo del pensamiento con la computadora. El Dr. Chirstian Depover, profesor de la Universidad de Mons en Bélgica, al clasificarla distingue siete posibilidades de uso de la computadora en la gestión educacional. 1) Gestión administrativa de establecimientos de educación. 2) Gestión pedagógica. 3) Herramienta de enseñanza (enseñanza asistida por computadora). Los programas ejercitadores. Los simuladores. Los programas tutoriales. 4) Utilización pedagógica de paquetes básicos. 5) Catalizador del aprendizaje. 6) Auxiliar pedagógico. 7) Iniciación a la Informática. El MsC. Alfonso Rivero Errico (Rivero, 15), profesor del Instituto Superior Pedagógico "Enrique José Varona" define que la computadora junto a otras creaciones tecnológicas del
    • presente siglo ha ingresado en la lista de los medios de enseñanza, partiendo de este criterio ubica el uso de la misma a partir de dos clasificaciones generales: 1)La computadora como medio de enseñanza de acuerdo a su propósito. 2)La computadora como medio de enseñanza de acuerdo a la tecnología que emplea. Consideramos que a partir del modo o forma de utilización de cada una de estas tendencias las podemos agrupar en tres grupos o clasificaciones: Objeto de estudio Herramienta de trabajo Medio de Enseñanza La computadora tutor. La computadora Aplicaciones pedagógicas herramienta. de la computadora. La computadora Aprendizaje a través de la programable. computadora. Aprendizaje acerca de Utilización de la Aprendizaje acerca del la computadora. computadora en la pensamiento con la Utilización pedagógica investigación. computadora. de paquetes básicos. Gestión informatizada de Catalizador del aprendizaje. Inicio a la informática. establecimientos escolares. Auxiliar pedagógico. Gestión pedagógica. Aprendizaje con la Aprendizaje con la computadora. computadora. Herramienta de enseñanza. Medio de enseñanza En este trabajo se asume la anterior clasificación enunciada por Expósito , y que después de hacer el análisis necesario hemos adaptado para este caso específico la cual se describe a continuación. 1.-La computadora como objeto de estudio: El alumno asimila los conceptos y procedimientos Informáticos fundamentales y desarrolla habilidades para la aplicación de los sistemas o paquetes específicos en los contenidos de la especialidad. 2. La computadora como herramienta de trabajo: El alumno resuelve problemas de la rama productiva o de servicios, haciendo uso de los sistemas o paquetes, estudiados. 3. La computadora como medio de enseñanza: Las diferentes disciplinas a partir de diferentes software, simulan procesos o fenómenos, repasan, evalúan, entrenan, etc., como apoyo al contenido impartido en su clase. En consecuencia, podemos plantear que la Computación puede ser objeto de estudio cuando se considera como una disciplina autónoma, es decir brindar instrucción sobre aspectos fundamentales que permitan la adquisición de conocimientos y habilidades en el uso de diferentes sistemas y a su vez convertirse en una útil herramienta de trabajo cuando se pone en función de las necesidades de cada especialidad, a la vez que puede ser empleada como un poderoso medio de enseñanza en las diferentes disciplinas ¿Qué APARATOS TENDREMOS EN EL FUTURO? ¿Cómo será el ordenador del futuro?
    • La tecnología avanza a una velocidad vertiginosa. La imagen que tenemos del futuro cambia incluso más deprisa de lo que pueden adaptarse las películas de ciencia ficción –no hay más que ver todos esos coches voladores-, y uno de los ejemplos de ese cambio es la idea del "ordenador del futuro". Será grande o pequeño. Estará en la pared, en la mesa o en el bolsillo. Habrá uno en casa para todos o mejor, cuatro por cabeza. Cada vez que nos acostumbramos a una idea, la visión del ordenador del mañana cambia de forma radical. No hace tanto que se hablaba de tener un gran ordenador en cada casa, que no sólo tendría un paquete de ofimática y un navegador sino juegos, películas, música... todo conectado a una gran pantalla. Uno de los puntos fuertes de este proyecto era la domótica. El ordenador central controlaría la calefacción, el sistema de alarma y hasta los electrodomésticos, convirtiendo la vivienda en un sofisticado edificio inteligente. Ahora, sin embargo, los proyectos sobre la computadora del futuro no llevan el famoso ordenador central muy lejos de la gestión doméstica, más allá que a hacer la compra desde la nevera. Para las películas están los centros multimedia, y las tareas del ordenador personal se quedan bien lejos. Siempre en movimiento Ese reparto de tareas se debe, entre otras cosas, a que estos sistemas no tenían en cuenta el que sería el gran valor tecnológico del presente: la movilidad. ¿De qué sirve un ordenador que te gestiona la calefacción si cuando cancelas un viaje y vuelves antes de vacaciones, no puedes avisarle para que caliente la casa dos días antes de lo previsto? Así, los proyectos de casa domótica no tardaron en incorporar sistemas de órdenes por Internet o a través de SMS. La llegada de las PDAs y los smartphones, popularizados con el lanzamiento de la BlackBerry en 2002, supuso un cambio radical de concepto. Si puedes mandar correos electrónicos desde el aparato que llevas en el bolsillo, y - según avanza la técnica- ir a todas partes con tus presentaciones y tus fotos y tus favoritos en el navegador, lo único que necesitas allá donde vayas es una pantalla y un teclado. En la actualidad existen miles de aplicaciones para ampliar las funciones de los dispositivos portátiles, y uno puede llevar en un bolsillo mapas, las funciones básicas del ordenador, cámara -y editor- de fotos, reproductor de música y hasta vídeos. Ah, sí, y el teléfono. Además, los móviles están demostrando una suerte de canibalismo tecnológico y aspiran a sustituir no sólo a otros dispositivos, sino también a objetos menos sofisticados, como las tarjetas de crédito. La mesa es el ordenador Hay sueños tecnológicos ambiciosos, y los hay modestos. Uno de éstos es poder desayunar tranquilamente y leer el periódico en la mesa mientras mojamos el cruasán en el café. No, no sobre la mesa. En la mesa, que en esta pequeña fantasía de dicha doméstica es una especie de pantalla gigante. En 2007, Microsoft presentó Surface, un ordenador que en realidad es una mesa, y que se controla sólo con tocar la gran pantalla. Aunque no han pasado al consumo masivo, estas "mesas-pantallas" pueden verse en algunos comercios de tecnología y, recuperando el espíritu de aquel desayuno tecnológico, en restaurantes. También juegos de rol, cuando el becario de Microsoft de turno deja volar su imaginación. Ya que hablamos de juegos, aunque de otra clase, el lanzamiento de las videoconsolas de
    • última generación fue otra vuelta de tuerca para esta lista de propuestas: Conecta la consola a la tele del salón y tendrás no sólo juegos, sino reproductor de DVD, disco duro e Internet, recuperando en cierta forma aquel concepto del ordenador central. No tiene programas de ofimática, apuntarán muchos. ¿Pero acaso no estamos venga a oír hablar de la computación en nube? La industria insiste en convencernos de que pronto tendremos un navegador, ni más ni menos, con el que acceder a programas, archivos y datos alojados en un distante servidor oculto bajo un desierto. Aunque no nos lo terminanos de creer. Tablets: Primera y segunda reencarnación Nos gusta llevarlo todo encima, a todas partes. Pero también nos gusta poder leer la pantalla sin forzar la vista, y últimamente, nos fascinan las pantallas táctiles. Para contentar estos apetitos, a medio camino entre unos modelos y otros, están las tablets, como aquella que salió en la odisea espacial de Kubrick. Como si en el 2001 cada uno tuviera un par de esas... Volviendo al presente, Apple, la compañía que revolucionó el mundo de los reproductores portátiles con el iPod, presentó hace poco, el iPad. Todo pantalla táctil, con un tamaño compacto y acceso a Internet. Un momento, se dijeron muchos. ¿Este trasto no os resulta familiar? Las tablet PC habían tenido su momento de gloria en ferias y prensa especializada allá por los noventa, para luego pasar a segundo plano, quizá por falta de tecnología que pusiera el aparato a la altura de lo que se esperaba de él. Y ahora, ¿ha llegado su momento? No parece que esté garantizado, vistas las críticas a un dispositivo que no soporta flash (que funciona en buena parte de las páginas web), no es multitarea (cuando nos hemos acostumbrado a escribir un informe mientras jugamos al solitario mientras ojeamos el periódico mientras escuchamos música) y no tiene puertos USB para enchufar todos los aparatos que el móvil aún no ha integrado. En cualquier caso, y mientras esperamos a que llegue el próximo ordenador del futuro -y el siguiente-, con nuestro portátil o equipo de escritorio de (casi) toda la vida, podemos imaginarnos cómo sería tener un ordenador-pantalla controlado con gestos para sentirnos un poco como Tom Cruise en Minority Report. Demostración abajo.