Generaciones de la computadora
Upcoming SlideShare
Loading in...5
×
 

Like this? Share it with your network

Share

Generaciones de la computadora

on

  • 847 views

e

e

Statistics

Views

Total Views
847
Views on SlideShare
847
Embed Views
0

Actions

Likes
0
Downloads
6
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Generaciones de la computadora Document Transcript

  • 1. Generaciones de la computadora<br />En este artículo estudiaremos como se han ido sucediendo las generaciones de la computadora. Partiendo de 1946 hasta nuestros días. La Primera Generación J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes. ENIACEn 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados. El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer. Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados. La Segunda Generación Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico. BURROUGHEn 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún. La Tercera Generación Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500. IBM 360En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982. El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta. Osborne1. Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa). IBM PC/XT Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores". <br />PC XT La Cuarta Generación (1981-1990) Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc. 1982- Surge el 286 Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris. 1985- El 386 Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración. <br />386 1989- El 486 DX A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95. La Quinta Generación (1991-hasta hoy) Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL. 1993- Surge el Pentium Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance. 1997- El Pentium II 1999- El Pentium III 2001- el Pentium 4 No hay grandes novedades después de 1997, ya que los cambios estuvieron basados en los cada vez más veloces procesadores. El Futuro - Aquí viene el ordenador cuántico IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido. <br />HISTORIA<br />Las primeras máquinasEn el siglo XVII el famoso matemático escocés John Napier, distinguido por la invención de los logaritmos, desarrolló un ingenioso dispositivo mecánico que utilizando unos palitos con números impresos permitía realizar operaciones de multiplicación y división.right0En 1642, el matemático francés Blaise Pascal construyó la primera calculadora mecánica. Utilizando una serie de piñones, la calculadora de Pascal sumaba y restaba.A finales del siglo XVII el alemán Gottfried Von Leibnitz perfeccionó la máquina de Pascal al construir una calculadora que mecánicamente multiplicaba, dividía y sacaba raíz cuadrada. Propuso desde aquella época una máquina calculadora que utilizara el sistema binario.A mediados del siglo XIX, el profesor inglés Charles Babbage diseñó su "Máquina Analítica" e inclusive construyó un pequeño modelo de ella. La tragedia histórica radica en que no pudo elaborar la máquina porque la construcción de las piezas era de precisión muy exigente para la tecnología de la época. Babbage se adelantó casi un siglo a los acontecimientos. Su Máquina Analítica debía tener una entrada de datos por medio de tarjetas perforadas, un almacén para conservar los datos, una unidad aritmética y la unidad de salida.Desde la muerte de Babbage, en 1871, fue muy lento el progreso. Se desarrollaron las calculadoras mecánicas y las tarjetas perforadas por Joseph Marie Jacquard para utilizar en los telares, posteriormente Hollerith las utilizó para la "máquina censadora", pero fue en 1944 cuando se dio un paso firme hacia el computador de hoy.La Era ElectrónicaEn la Universidad de Harvard, en 1944, un equipo dirigido por el profesor Howard Aiken y patrocinado por la IBM construyó la Mark I, primera calculadora automática. En lugar de usar piñones mecánicos, Mark I era un computador electromecánico: utilizaba relevadores electromagnéticos y contadores mecánicos.left0Sólo dos años más tarde, en 1946, se construyó en la Escuela Moore, dirigida por Mauchly y financiada por el Ejército de los Estados Unidos, la ENIAC (Electronic Numerical Integrator and Calculator), la cual podía ejecutar multiplicaciones en 3 milésimas de segundo (Mark I tardaba 3 segundos). Sin embargo, las instrucciones de ENIAC debían ser dadas por medio de una combinación de contactos externos, ya que no tenía cómo almacenarlas internamente.A mediados de los años 40 el matemático de Princeton John Von Neumann diseñó las bases para un programa almacenable por medio de codificaciones electrónicas. Esta capacidad de almacenar instrucciones es un factor definitivo que separa la calculadora del computador. Además propuso la aritmética binaria codificada, lo que significaba sencillez en el diseño de los circuitos para realizar este trabajo. Simultáneamente se construyeron dos computadores: el EDVAC (Electronic Discrete Variable Automatic Computer) y en 1949 en la Universidad de Cambridge el EDSAC (Electronic Delay Storage Automatic Computer), que fue realmente la primera computadora electrónica con programa almacenado.En 1951 John W. Mauchly y J. Presper Eckert Jr. construyen el UNIVAC I, el primer computador para el tratamiento de información comercial y contable. UNIVAC (Universal Automatic Computer) reemplazó el objetivo de sus antecesoras que era científico y militar, abriendo paso a la comercialización de los computadores; aquí se inician las generaciones de computadores.Las Generaciones de los ComputadoresA partir de ese momento, la evolución de los computadores ha sido realmente sorprendente. El objetivo inicial fue el de construir equipos más rápidos, más exactos, más pequeños y más económicos. Este desarrollo se ha clasificado por "generaciones de computadores", así:Primera generación de computadores 1950 - 1958En esta generación nace la industria de los computadores. El trabajo del ENIAC, del EDVAC, del EDSAC y demás computadores desarrollados en la década de los 40 había sido básicamente experimental. right0Se habían utilizado con fines científicos pero era evidente que su uso podía desarrollarse en muchas áreas.La primera generación es la de los tubos al vacío. Eran máquinas muy grandes y pesadas con muchas limitaciones. El tubo al vacío es un elemento que presenta gran consumo de energía, poca duración y disipación de mucho calor. Era necesario resolver estos problemas. UNIVAC I fue adquirido por el Census Bureau de los Estados Unidos para realizar el censo de 1951. IBM perdió este contrato porque sus máquinas de tarjetas perforadas fueron desplazadas por el computador. Fue desde ese momento que la IBM empezó a ser una fuerza activa en la industria de los computadores.En 1953 IBM lanzó su computador IBM 650, una máquina mediana para aplicaciones comerciales. Inicialmente pensó fabricar 50, pero el éxito de la máquina los llevó a vender más de mil unidades.Segunda generación 1959 - 1964En 1947 tres científicos: W. Shockley, J. Bardeen y H.W. Brattain, trabajando en los laboratorios Bell, recibieron el premio Nobel por inventar el transistor. Este invento nos lleva a la segunda generación de computadores. El transistor es mucho más pequeño que el tubo al vacío, consume menos energía y genera poco calor.left0La utilización del transistor en la industria de la computación conduce a grandes cambios y una notable reducción de tamaño y peso.En esta generación aumenta la capacidad de memoria, se agilizan los medios de entrada y salida, aumentan la velocidad y programación de alto nivel como el Cobol y el Fortran.Entre los principales fabricantes se encontraban IBM, Sperry - Rand, Burroughs, General Electric, Control Data y Honeywell. Se estima que en esta generación el número de computadores en los Estados Unidos pasó de 2.500 a 18.000.Tercera generación 1965 - 1971El cambio de generación se presenta con la fabricación de un nuevo componente electrónico: el circuito integrado. Incorporado inicialmente por IBM, que lo bautizó SLT (Solid Logic Technology). Esta tecnología permitía almacenar los componentes electrónicos que hacen un circuito en pequeñas pastillas, que contienen gran cantidad de transistores y otros componentes discretos.right0Abril 7 de 1964 es una de las fechas importantes en la historia de la computación. IBM presentó el sistema IBM System/360, el cual consistía en una familia de 6 computadores, compatibles entre sí, con 40 diferentes unidades periféricas de entrada, salida y almacenaje. Este sistema fue el primero de la tercera generación de computadores. Su tecnología de circuitos integrados era mucho más confiable que la anterior, mejoró además la velocidad de procesamiento y permitió la fabricación masiva de estos componentes a bajos costos.Otro factor de importancia que surge en esta tercera generación es el sistema de procesamiento multiusuario. En 1964 el doctor John Kemeny, profesor de matemáticas del Darmouth College, desarrolló un software para procesamiento multiusuario. El sistema Time Sharing (tiempo compartido) convirtió el procesamiento de datos en una actividad interactiva. El doctor Kemeny también desarrolló un lenguaje de tercera generación llamado BASIC.Como consecuencia de estos desarrollos nace la industria del software y surgen los minicomputadores y los terminales remotos, aparecen las memorias electrónicas basadas en semiconductores con mayor capacidad de almacenamiento.Cuarta generación 1972 - ?Después de los cambios tan específicos y marcados de las generaciones anteriores, los desarrollos tecnológicos posteriores, a pesar de haber sido muy significativos, no son tan claramente identificables.En la década del 70 empieza a utilizarse la técnica LSI (Large Scale Integration) Integración a Gran Escala. Si en 1965 en un "chip" cuadrado de aproximadamente 0.5 centímetros de lado podía almacenarse hasta 1.000 elementos de un circuito, en 1970 con la técnica LSI podía almacenarse 150.000.left0Algunos investigadores opinan que esta generación se inicia con la introducción del sistema IBM System/370 basado en LSI.Otros dicen que la microtecnología es en realidad el factor determinante de esta cuarta generación. En 1971 se logra implementar en un chip todos los componentes de la Unidad Central de Procesamiento fabricándose así un microprocesador, el cual a vez dio origen a los microcomputadores.Algunas características de esta generación de microelectrónica y microcomputadores son también: incremento notable en la velocidad de procesamiento y en las memorias; reducción de tamaño, diseño modular y compatibilidad entre diferentes marcas; amplio desarrollo del uso del minicomputador; fabricación de software especializado para muchas áreas y desarrollo masivo del microcomputador y los computadores domésticos.<br />Segunda generación de computadoras<br />La segunda generación de los transistores reemplazó a las válvulas de vacío en los circuitos de las computadoras.<br />Las computadoras de la segunda generación ya no son de válvulas de vacío, sino con transistores, son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.<br />Las características más relevantes de las computadoras de la segunda generación son:<br />Estaban construidas con electrónica de transistores<br />Se programaban con lenguajes de alto nivel<br />1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU<br />1956, IBM vendió su primer sistema de disco magnético, RAMAC [Random Access Method of Accounting and Control]. Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un coste de $10.000 por megabyte.<br />El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).<br />1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70.<br />1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de más de 60.000 dígitos decimales.<br />DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación.<br />1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en 1968.<br />Segunda Generación de Computadoras (1955 a 1965) <br />SEGUNDA GENERACIÓN (1955-1965)<br />LA PRIMERA COMPUTADORA BASADA EN TRANSISTORES<br />VARIOS INVENTOS<br /> LA PDP-1<br /> LA COMPUTADORA IBM 360<br />LA PRIMERA SUPERCOMPUTADORA COMERCIAL<br />SEGUNDA GENERACIÓN (1955-1965)<br />El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas, y con menores necesidades de ventilación. Sin embargo, el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. <br />Las computadoras de la Segunda Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones de uso general. Las empresas comenzaron a aplicar las computadoras en las tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. <br />Las características de la segunda generación son las siguientes:<br />Están construidas con circuitos de transistores. <br />Se programan en nuevos lenguajes, llamados lenguajes de alto nivel. <br />LA PRIMERA COMPUTADORA BASADA EN TRANSISTORES<br />La primera computadora basada puramente en transistores fue la TX-0 (Transitorized eXperimental computer 0), en el MIT. Fue un dispositivo usado para probar la TX-2. Uno de los ingenieros que trabajaron en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía DEC (Digital Equipment Company). <br />TX-0<br />VARIOS INVENTOS<br />En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primera computadora comercial UNIVAC puramente basada en transistores. <br />Los programas de computadoras también mejoraron. En 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN (FORmula TRANslator). <br />El COBOL, desarrollado durante la primera generación, estaba ya disponible comercialmente. <br />Los programas escritos para una computadora podían transferirse a otra con un esfuerzo mínimo. <br />Escribir un programa ya no requería entender plenamente el hardware de la computadora. <br />La marina de EE.UU. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo (Whirlwind I). <br />HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. <br />Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s, fueron conocidos como el grupo BUNCH. <br />En 1961, Fernando Corbató en el MIT desarrolla una forma para que múltiples usuarios puedan compartir el tiempo del procesador. También se patenta el primer robot industrial. <br />En 1962, Steve Russell del MIT crea el Spacewar (el primer videojuego).<br />En 1962 fue desarrollado por Ivan Sutherland en MIT el primer programa gráfico que dejaba que el usuario dibujara interactivamente en una pantalla. El programa, llamado "Sketchpad," usó una pistola de luz para la entrada de gráficos en una pantalla CRT.<br />En 1963, el sistema de defensa SAGE es puesto en marcha, gracias al cual se pudieron lograr muchos avances en la industria de la computadora. <br />En 1964, Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code). <br />LA PDP-1<br />En 1960, DEC introduce su primera computadora: la PDP-1. Esta computadora fue diseñada tomando como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo de ciclo del procesador de aproximadamente 5 microsegundos (en comparación con la IBM 7090 que era una máquina de alto desempeño en la cual un ciclo del procesador era de 2.5 microsegundos y su costo era de millones de dólares). Fue la primer máquina con monitor y teclado, marcando el comienzo de las minicomputadoras. <br />PDP-1 <br />LA COMPUTADORA IBM 360<br />En 1964 aparece el primer modelo de la computadora IBM 360. IBM había construido una versión con transistores de la 709, llamada 7090, y posteriormente la 7094. Tenía un ciclo de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas computadoras dominaron la computación científica en los 60s. <br />IBM también vendía una computadora orientada a los negocios, llamada 1401. Podía leer cintas magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija. Tenía 4 Kbytes de 8 bits cada uno. Cada byte contenía un caracter de 6 bits, un bit administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria a memoria movía los datos de la fuente al destino, hasta que encontraba prendido el bit de fin de palabra. <br />El problema era la incompatibilidad de ambas computadoras: era imposible compartir el software, y de hecho era necesario tener dos centros de cómputos separados con personal especializado. <br />La IBM System/360 fue una computadora diseñada con múltiples propósitos. Era una familia de computadoras con el mismo lenguaje de máquina, pero mayor potencia. El software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el único problema era que, al portar un programa de una versión poderosa a una versión anterior, el programa podía no caber en memoria). Todas las IBM 360 proveían soporte para multiprogramación. También existían emuladores de otras computadoras, para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados. Tenía un espacio de direcciones de 16 megabytes. <br />LA PRIMERA SUPERCOMPUTADORA COMERCIAL<br />En este año se pone en operaciones la computadora CDC 6600 de la Control Data Corporation, fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad de 9 Mflops (es decir, un orden de magnitud más que la IBM 7094), y es la primera supercomputadora comercial. El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutándose a la vez). <br />Las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibió el nombre de programación de sistemas. <br />GLOSARIO DE TERMINOS <br />ASCIIAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />(American Standard Code for Information Interchange) Código americano estándar para intercambio de información. Se pronuncia "as-ki". Código binario para texto así como para comunicaciones y control de impresoras. Se utiliza en la mayor parte de las comunicaciones y se encuentra en el código de caracteres incorporado en la mayoría de los minicomputadores y en todos los computadores personales.ASCII es un código de 7 bits que permite 128 combinaciones de caracteres, de las cuales las 32 primeras son caracteres de control. En vista de que la unidad corriente de almacenamiento es un byte de 8 bits (256 combinaciones), y ASCII utiliza sólo 128, el bit extra se usa de manera diferente dependiendo del computador.Por ejemplo, el computador personal utiliza los valores adicionales para lenguas extranjeras y símbolos gráficos (véase el diagrama ASCII a continuación). En el Macintosh, los valores adicionales pueden ser definidos por el usuario. En la versión Macintosh de este diccionario, los símbolos para computadores personales fueron diseñados dentro del tipo de letra utilizado para las definiciones.<br />backupAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />Seguridad, respaldo. Recursos adicionales o copias duplicadas de datos en diferentes medios de almacenamiento para propósitos de emergencia.<br />intelligent databaseAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />Base de datos inteligente. Base de datos que contiene conocimientos acerca del contenido de sus datos. Con cada campo de datos se almacena un conjunto de criterios de validación, como los valores mínimo y máximo que pueden introducirse o una lista de todas las posibles entradas.<br /> <br />BIOSAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />(Basic I/O System) Sistema básico de entrada y salida. Instrucciones detalladas que activan dispositivos periféricos. Aunque los BIOS han existido por más de 30 años, en la actualidad, el término se refiere, por lo general, al ROM BIOS en un computador personal, que contiene ciertas partes del sistema operativo.<br />bitAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />(BInary digiT) Dígito binario. Dígito simple en un número binario (0 ó 1). En el computador, un bit es físicamente un transistor o condensador en una celda de memoria, un punto magnético en un disco o cinta, o un pulso de alto o bajo voltaje a través de un circuito. Un bit es como un bombillo eléctrico: encendido o apagado.Grupos de bits forman unidades de almacenamiento en el computador, llamadas caracteres, bytes o palabras, que se tratan como un grupo. El más común es el byte constituido por ocho bits y equivalente a un carácter alfanumérico. <br />bootAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />Arranque, iniciar el funcionamiento del computador. Hacer que el computador inicie la ejecución de instrucciones. Los computadores personales contienen instrucciones preinstaladas en un chip ROM, las cuales se ejecutan automáticamente cuando se enciende el computador. Tales instrucciones buscan el sistema operativo, lo cargan y transfieren el control a éste. En un computador de mayor tamaño, el procedimiento suele requerir una secuencia más elaborada de ingresos por teclado y precisiones de botones.El término se deriva de bootstrap (tirador de botas); al igual que estos tiradores ayudan en la acción de calzarse las botas, el ejecutar el boot ayuda al computador a recibir sus primeras instrucciones. Véanse cold boot, warm boot y clean boot.<br />Buffer<br />(Memoria intermedia) Area de memoria utilizada por el módem o la computadora para almacenar la información que no puede procesar en el acto (según le va llegando).<br /> byteAportación de: Editorial McGraw-Hill Interamericana, S.A.Byte, octeto. Unidad común de almacenamiento en computación, desde microcomputadores hasta mainframes. Un byte se compone de ocho dígitos binarios (bits). Puede agregarse un noveno bit en el circuito como un bit de paridad para comprobación de errores.Un byte contiene el equivalente de un sólo carácter, como la letra A, el signo $ o el punto decimal. En cuanto a números, un byte puede contener un sólo dígito decimal (0 a 9), dos dígitos numéricos (decimal empaquetado) o un número de 0 a 255 (números binarios).<br />cable Aportación de: Editorial McGraw-Hill Interamericana, S.A.<br />Cable. Alambre o grupo de alambres de metal flexible o de vidrio. Todos los cables utilizados en electrónica están aislados con un material como plástico o goma.<br />cacheAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />Caché. Método para mejorar el rendimiento del sistema mediante la creación de un área de memoria secundaria más cercana a la velocidad más alta de la CPU. Un caché de memoria, o caché de CPU, es un banco dedicado de memoria de alta velocidad que se utiliza para ocultar o reservar datos desde la memoria principal. Un caché de disco es una sección reservada de memoria principal que se emplea para ocultar datos desde el disco. En ambos casos, un bloque más grande del programa o base de dato es extraído hacia el caché en comparación con el que es inmediatamente necesario, suponiendo que el próximo elemento estará esperando en una locación de mayor velocidad cuando se requiera.caching controller <br /> character Aportación de: Editorial McGraw-Hill Interamericana, S.A.Carácter. Letra única del alfabeto, dígito numérico o símbolo especial como un punto decimal o una coma. Un carácter es equivalente a un byte; por ejemplo, 50,000 caracteres ocupan 50,000 bytes. CD-ROM Aportación de: Editorial McGraw-Hill Interamericana, S.A.(Compact Disc Read Only Memory) Memoria de sólo lectura en disco compacto. Formato de disco compacto que se utiliza para almacenar texto, gráficos y sonido estéreo de alta fidelidad. Es parecido a un CD de audio, pero usa un formato diferente de pistas para los datos. El reproductor musical de CD no funciona para un CD-ROM; pero, por lo general, los reproductores de CD-ROM, sí lo hacen para un CD, y tienen además conectores hembras de salida para auriculares o parlantes amplificados.Los CD-ROM almacenan más de 600MB de datos, lo que equivale a aproximadamente 250,000 páginas de texto o 20,000 imágenes de resolución media.Las primeras unidades de CD-ROM transfieren datos a 150KB por segundo. Las unidades que giran dos, tres y cuatro veces proveen 2, 3 y 4 veces la velocidad de transferencia de 150KB. Los tiempos de acceso van desde el más lento de medio segundo hasta menos de 200 milisegundos.<br />chat mode Aportación de: Editorial McGraw-Hill Interamericana, S.A.<br />Modo charla. Opción en comunicaciones que permite a los usuarios teclear mensajes de un lado a otro entre sí. Cada pulsación de tecla se transmite a medida que se va tecleando.<br /> <br /> chip Aportación de: Editorial McGraw-Hill Interamericana, S.A.Circuito integrado. Los chips son cuadrados o rectángulos que miden aproximadamente de 1.58 mm a 15.8 mm de lado y aproximadamente 0.84 mm de espesor, aunque sólo 0.02 mm contiene los circuitos reales. Los chips contienen desde unas pocas decenas hasta varios millones de componentes electrónicos (transistores, resistencias, etc.). Los términos chip, integrated circuit y microelectronic son sinónimos. A continuación se describen los principales tipos de chips.  CPU Acrónimo de Central Processing Unit [Unidad central de procesamiento] Es el procesador central de la computadora encargado de controlar rutinas, realizar funciones aritméticas, y otras tareas propias. Dispone de memoria de acceso rápido. En la actualidad se le suele descargar de cada vez más tareas gracias a otras unidades paralelas consiguiendo así un mayor rendimiento. En español es conocido como "UCP". <br />DATAAportación de: Editorial McGraw-Hill Interamericana, S.A.<br />data Datos digitales. Datos en forma digital. Todos los datos en el computador adoptan la forma digital.<br />encryptionAportación de: Editorial McGraw-Hill Interamericana, S.A.Cifrado, criptografiado, criptograficación. Utilizar la criptografía con el objeto de codificar datos con propósitos de seguridad para transmisión a través de una red pública. El texto original, o texto plano, se convierte en un equivalente codificado que se llama texto cifrado a través de un algoritmo de cifrado. El texto cifrado se decodifica en el extremo receptor con el uso de una clave de descifrado.Clave secreta versus públicaExisten dos métodos para cifrar datos. El método tradicional utiliza una clave secreta, como DES, donde tanto el emisor como el receptor comparten la misma clave. Es el método más rápido, pero transmitir la clave secreta al receptor no es seguro. El segundo método es criptografía de clave pública, como RSA, que emplea tanto una clave privada como pública. Cada receptor tiene una clave privada que se mantiene en secreto y una clave pública que se da a conocer a todos. El emisor mira la clave pública del receptor y la utiliza para cifrar el mensaje. El receptor emplea una clave privada para descifrarlo.Si la velocidad es una preocupación, el método de clave pública puede emplearse para enviar la clave secreta seguida por el mensaje que se ha cifrado con dicha clave. Véase DES y RSA.<br />firewallAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />Cortafuego. Nodo de red establecido como un límite para impedir que el tráfico de un segmento cruce a otro. Véanse router y bridge.<br /> <br />FTPAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />(File Transfer Program & File Transfer Protocol) Programa de transferencia de archivos & Protocolo de transferencia de archivos. Conjunto de órdenes TCP/IP que se usa para conectarse a una red, listar directorios y copiar archivos. También puede traducir entre ASCII y EBCDIC. Véase TFTP<br />GIFAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />(Graphics Interchange Format) Formato de intercambio de gráficos. Popular formato de archivos de gráficos con trama desarrollado por CompuServe que maneja color de 8 bits (256 colores) y utiliza el método LZW para lograr proporciones de compresión de aproximadamente 1.5:1 a 2:1.<br />gigabyteAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />Mil millones de bytes. También GB, Gbyte y G-byte. Véanse giga y space/time.gigaflops(GIGA FLoating point OPerations per Second) Operaciones GIGA de punto (coma) flotante por segundo. Mil millones de operaciones de punto flotante por segundo.<br /> hard diskAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />Disco duro o rígido. Medio primario de almacenamiento del computador, que está compuesto de uno o más trazadores de aluminio o vidrio cuyos lados están cubiertos con un material ferromagnético. Los computadores de escritorio usan discos de 1.5" a 5" de diámetro. Los discos de minicomputadores y mainframe varían hasta de 12" de diámetro, pero cada vez más se están volviendo tan compactos como las unidades de escritorio.TIPOS DE DISCOS DUROSTipo de Método Velocidad de Capacidades de interfaz típico de transferencia almacenamiento codificación* (bytes/seg.)ST506 MFM 625K 5M - 100MST506 RLL 937K 30M - 200MIDE RLL .625-2M 40M - 1GIDE ampliado RLL 10-13M 100M - 8GESDI RLL 1-3M 80M - 2GSCSI-1 RLL 1-5M 20M - 1.5GSCSI-2 RLL 1-40M 40M - 9GSMD RLL 1-4M 200M - 2GIPI RLL 10-25M 200M - 3G*(La mayoría de los discos utilizan el método de codificación RLL, pero el método de codificación no está necesariamente determinado por todas las interfaces).Medidas de discos durosLa capacidad se mide en bytes, y la velocidad se mide en bytes por segundo (velocidad de transferencia) y en milisegundos (tiempo de acceso). Los tiempos de acceso de los discos duros de los computadores personales rápidos van de 9 a 14ms; en computadores grandes, es de hasta 1ms.<br />hardwareAportación de: Editorial McGraw-Hill Interamericana, S.A. <br />Maquinaria y equipos (CPU, discos, cintas, modem, cables, etc.). En operación, un computador es tanto hardware como software. Uno es inútil sin el otro. El diseño del hardware especifica los comandos que puede seguir, y las instrucciones le dicen qué hacer. Véase instruction set.El hardware es "almacenamiento y transmisión"Cuanto más memoria y almacenamiento en disco tiene un computador, más trabajo puede hacer. Cuanto más rápidos sean la memoria y los discos para transmitir datos e instrucciones a la CPU, más rápido se hará el trabajo. Un requerimiento de hardware se basa en el tamaño de las bases de datos que se crearán y en el número de usuarios o aplicaciones que serán atendidas al mismo tiempo. ¿Cuánto?, ¿qué tan rápido?El software es "lógica y lenguaje"El software se ocupa de los detalles de un negocio en constante cambio y debe procesar transacciones en una forma lógica. Los lenguajes se utilizan para programar el software. La lógica y el lenguaje involucrados en el análisis y la programación son por lo general mucho más complejos que especificar un requerimiento de almacenamiento y de transmisión.<br /> <br />internet Aportación de: Editorial McGraw-Hill Interamericana, S.A. <br />Interred. 1. Red extensa constituida por una cantidad de redes más pequeñas.2. (Internet) La Internet está conformada por miles de redes interconectadas en más de 70 países. En 1994, había un estimado de 30,000 redes en la Internet, cifra que se espera duplicar cada año. Los computadores de la Internet utilizan el protocolo de comunicaciones TCP/IP.Originalmente desarrollado para los militares, gran parte de la Internet actual se utiliza para investigación académica y comercial. Los usuarios tienen acceso a datos no publicados, periódicos y BBS. Además se utiliza ampliamente como red de correo electrónico a nivel mundial. La conexión de correo electrónico a la Internet está disponible a través de muchos servicios en línea como CompuServe, BIX y America Online.<br /> <br />JPEGAportación de: Editorial Trillas, S.A. de C.V. <br />Join photographic expert group(Grupo Conjunto de Expertos de Fotografía).Es el uso de métodos electrónicos para reducir la cantidad de datos que tiene que ser incluidos cuando éstos se almacenan o trasmiten, ya sea para imágenes fijas o animadas. El Grupo Conjunto de Expertos de Fotografía (JPEG) ha definido normas para la comprensión de imágenes fijas y este formato para el almacenamiento o trasmisión se llama JPEG. Estas normas han sido extendidas al Grupo Experto de Películas (MPEG) para cubrir las imágenes animadas. Actualmente, estas propuestas están siendo usadas para la video compresión sobre CD-ROM y se hace referencia al sistema como MPEG.<br />Fue cifra siete está formada <br /> <br /> <br /> <br />