apuntearqji

398 views

Published on

Published in: Art & Photos, Technology, Business
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
398
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
5
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

apuntearqji

  1. 1. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas ARQUITECTURA DE LAS COMPUTADORAS SIGNIFICADO DEL TERMINO COMPUTADORA El nombre deriva del latín “Computare” que significa contar y se puede aplicar a cualquier dispositivo de cálculo. Sin embargo el término computador o computadora se refiere a un tipo especial de dispositivo de cálculo con características definidas. Es el que ha ejercido y está ejerciendo, una influencia extraordinaria en campos tan diversos de la actividad humana, que nos permite afirmar que estamos viviendo en la era de las computadoras y la automatización. A pesar de la variedad de tareas que realizan, no debemos creer que son super cerebros, ya que, independientemente de su grado de desarrollo tecnológico y científico, todas tienen en común el realizar fundamentalmente tres cosas básicas: leer datos, elaborarlos, y escribir resultados. COMPUTADORA Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida. TIPOS DE COMPUTADORAS Se clasifican de acuerdo al principio de operación de Analógicas y Digitales. • COMPUTADORA ANALÓGICA Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware). • COMPUTADORA DIGITAL Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina. 1
  2. 2. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas HISTORIA DEL PROCESAMIENTO DE DATOS Los primeros archivistas y sus instrumentos. Durante miles de años los seres humanos vivieron sobre la tierra sin registrar la información en forma permanente. Sin embargo, al crecer las tribus y formar naciones, se desarrolló el comercio. Alrededor de 3500 años antes de Cristo, los mercaderes babilonios mantenían archivos en tablillas de barro. El ábaco fue uno de los primeros instrumentos manuales para calcular, aunque tiene una antigüedad de mas de 3000 años, se sigue utilizando en algunas partes del mundo, principalmente en Asia. Las técnicas de archivado se siguieron desarrollando a través de los siglos, presentándose innovaciones como las auditorias (Los Griegos) y los presupuestos (Los Romanos). En 1642 Blas Pascal, un brillante joven Francés, desarrolló la primera máquina de calcular mecánica. Unos treinta años más tarde, el matemático alemán Gottfried Von Leibniz mejoró el invento de Pascal produciendo una máquina que podía sumar, restar, multiplicar, dividir y extraer raíces. Sin embargo, no existía la tecnología para fabricar este tipo de instrumentos de precisión en forma masiva. El tejedor estadístico y sus tarjetas. La historia de las tarjetas perforadas data de 1801 cuando un tejedor Francés llamado Joseph Jacquard las invento para controlar sus telares mecánicos. No obstante, lo que hizo que se utilizaran para el medio de procesamiento de datos fue el problema de completar el censo de 1880, el procesamiento de datos en EEUU con lápices, plumas y reglas. El volumen de los archivos durante este período estaba creciendo rápidamente y, como era de esperarse, los métodos manuales producían información relevante inexacta y muchas veces tardía. Para desesperación de las oficinas de censos de Estados Unidos, por ejemplo, el censo de 1880 no se termino hasta cuando ya era hora de comenzar el censo 1890. Por fortuna para estas oficinas y para otros que querían mejores métodos de procesamiento de datos, la oficina de censo contrato para encontrar una solución al problema del censo 1887, a un estadístico el Dr. Herman Hollertih, este desarrolló su concepto de tarjetas de lectura mecánica (tarjetas perforadas) y diseño un dispositivo conocido como la máquina del censo. La tabulación con los métodos de hollerith requería de una octava parte del tiempo que se necesitaba antes, por lo que se adoptaron sus técnicas para el censo de 1890. Aunque la población había aumentado de 50 a 63 millones, el censo se completó en menos de tres años (Naturalmente esto significa una lentitud intolerable en estas épocas). 2
  3. 3. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Después del censo de 1890, Hollerith adaptó se equipo para utilizarlo comercialmente y creó el sistema de estadística de cargas para dos ferrocarriles. En 1896 fundó la Tabulating Machine Company para fabricar y vender su invento. Mas tarde, esta firma se fusionó con otras para formar la International Business Machine (IBM) Corporation. El procesamiento de tarjetas perforadas se basó en una idea sencilla: los datos de entrada se registraban primero en forma codificada haciendo perforaciones en tarjetas. Más tarde las tarjetas se introducen en una serie de máquinas electromecánicas que realizan los pasos de procesamiento. El procesamiento de tarjetas perforadas era mucho más rápido y exacto que los métodos manuales. No obstante requería todavía personas que llevaran las cajas con las tarjetas de un paso al siguiente. Era necesario alimentar cada una de las máquinas, echarlas a andar y detenerlas, la necesidad de intervención humana era una desventaja importante. Avances iniciales en el desarrollo de las computadoras. Primera Generación En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: • Estas máquinas estaban construidas por medio de tubos de vacío. • Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). La locura de Babbage unos 50 años antes de los trabajos de hollerith, Charles Babbage, profesor de matemáticas en la Cambridge University, de Inglaterra, propuso una máquina a la que dio el nombre de Máquina analítica. Babbage era un hombre excéntrico y de mal carácter que paso gran parte de su vida trabajando en vano para completar su increíble y compleja máquina. El sueño de Babbage –una unidad de memoria o almacén, una unidad aritmético o molino, la impresión automática de salida, el control secuencial por programa y una exactitud de 20 cifras. En pocas palabras Babbage había diseñado un prototipo de computadora que estaba adelantada en 100 años a su época. Lady Augusta Ada Lovelance, hija de Lord Byron, el poeta, ayudó a Babbage, ella era una brillante matemática y corrigió algunos de los errores en el trabajo de Babbage e inventó formas novedosas de enfocar el diseño de programas empleando tarjetas perforadas. Por estos descubrimientos muchos la consideran la primera programadora de computadoras. Al morir Babbage en 1871 el desarrollo de las computadoras se detuvo hasta 1937; las tarjetas perforadas dominaron el mundo del proceso de datos. 3
  4. 4. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas En 1937, Howard Aiken, profesor de la Universidad de Harvard, se fijó en la meta de construir una máquina de calcular automática que combinara la tecnología eléctrica y mecánica con las técnicas de tarjetas perforadas de Hollerith. Con ayuda de estudiantes de postgrado e ingenieros de la IBM, el proyecto se completo en 1944. El aparato terminado se denomino la computadora digital MARK I. Las operaciones internas se controlaban automáticamente con relevadores electromagnéticos, y los contadores aritméticos eran mecánicos; así, la mark I era una computadora electromecánica. En muchos aspectos era el sueño de babbage hecho realidad. Esta máquina medieval se exhibe actualmente en la universidad de Harvard. El primer prototipo de computadora electrónica se concibió en el invierno de 1937-1938 por el doctor John Vincent Atanasoff, profesor de física y matemática en towa state college. Como ninguna de las calculadoras disponibles en ese entonces era adecuada para sus necesidades. Atanasoff decidió construir la suya. Empleando conceptos de diseños que cristalizaron en su menta a altas horas de la noche de invierno en un bar a la orilla de la carretera en Illinois, Atanasoff formó un equipo con Clifford Berry, su asistente de postgrado, y comenzó a construir la primera computadora electrónica. La llamaron “Computadora Atanasoff –Berry”, o ABC (Atanosoff-Berry computer). La ABC empleaba bulbos al vacío para almacenar datos y efectuar operaciones aritméticas y lógicas. Durante 1940 y 1941 Atanasoff y Berry se unieron con John W. Mauchly y le mostraron su trabajo, Mouchly que trabajaba en la school of Electrical Enginneering de la Universidad de Pensylvania, comenzó a pensar en la forma de construir una computadora de aplicación general. (la ABC se diseñó con el objetivo específico de resolver sistemas de ecuaciones simultáneas) Mauchly formó un equipo con J. Presper Eckert Jr. Estudiante de postgrado de ingeniería en Moore School, para organizar la construcción de ENIAC a principio de la década de 1940. ENIAC fue la primera computadora electrónica de aplicación general que entró en funcionamiento. Financiada por él ejercito de los Estados Unidos, se construyó en Moore School como proyecto secreto durante la guerra (al ejercito le interesaba la preparación rápida de tabas de trayectorias de proyectiles). También se utilizaron bulbos al vacío (18.000 de ellos) en ENIAC aunque pesaba 30 toneladas y ocupaba el espacio de 150 metros cuadrados (una casa de tres habitaciones), ENIAC podía hacer 300 multiplicaciones por segundo, lo que la hacia 300 veces más rápida que cualquier otro 4
  5. 5. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas dispositivo de la época. Las instrucciones de operación de ENIAC no se almacenaban internamente mas bien se introducían por medio de tableros de clavijas e interruptores localizados en el exterior. Él ejercito utilizó la ENIAC hasta 1955. A mediados de la década de 1940 colaborando con H. H. Goldstine y A. W. Bruks, el genio matemático John Von Neumann escribió un trabajo sugiriendo. 1. Utilizar sistemas de numeración binario para construir computadoras 2. Que las instrucciones para la computadora, así como los datos que se manipularán, se almacenarán internamente en la máquina. La primera de esas ideas se habían utilizado ya en la ABC de Atanasoff y los artículos de Von Neumann le dieron publicidad al concepto. Esta es una idea importante, ya que el sistema de numeración binario utiliza únicamente dos dígitos (0 y 1) en ves de los 10 dígitos (0 al 9) del sistema decimal con el que todo el mundo está familiarizado. Dado que los componentes electrónicos están normalmente en una de los dos estados (encendido o apagado), el concepto binario significó el diseño del equipo. La segunda idea fue un avance brillante en la época por que significaba que los programas se podrían almacenar de la misma forma que se almacenaban los datos, ya no había necesidad de cambia un sin número de interruptores y cables antes de ejecutar una operación nueva. El origen de la idea de programa almacenado se discute todavía. Pero se convirtió en una parte fundamental de la filosofía de diseño del las computadoras. Aunque estas ideas no se incorporaron en ENIAC, Mauchly, Eckert y otros de Moore School se dedicaron a construir una máquina que pudiera almacenar programas. Esta máquina la EDVAC; no se terminó sino hasta varios años más tarde. La distinción de ser la primera computadora electrónica de programa almacenado corresponde a la EDSAC, terminada en 1949 en Cambridge University. Una de las razones del retraso sufrido por EDVAC fue que Eckert y Mauchly fundaron su propia compañía en 1946 y comenzaron a trabajar en Universal Automatic Computer. A principios de 1951 la primera UNIVAC-1 comenzó a funcionar en las oficinas del censo. (en 1963 se envió también a la Smithsonia institution , una reliquia histórica después de solo 12 años). Cuando la UNIVAC desplazó al equipo de tarjetas perforadas en la oficina del censo, Thomas J. Watson Jr. hijo del fundador de IBM en la era de la computación. La primera computadora adquirida por una organización de negocios para procesar datos y archivar información fue otra UNIVAC-1 instalada en 1954 en General Electric´s Appliance Park. 5
  6. 6. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas LA IMB 650 entro en servicio por primera vez en Boston afines de 1954. Siendo una máquina relativamente barata para aquella época, tubo gran aceptación, y dio a la IBM el liderazgo en la producción de computadoras en 1955. En el período 1954 a 1959, mucho negocios adquirieron computadoras para procesar datos, aún cuando estas máquinas de primera generación habían sido diseñadas para aplicaciones científicas. Los no científicos solían considerar la computadora como un instrumento de contabilidad y las primeras aplicaciones de negocios se diseñaron para procesar tareas rutinarias como son las nóminas. Se subestimó el potencial real de las computadoras, y muchas fueron adquiridas por prestigio que confería a la organización. No obstante, no debe juzgarse con demasiada dureza a los primeros usuarios de computadoras. Fueros los pioneros en el empleo de una herramienta nueva. Tenían que contratar un nuevo tipo de trabajadores para sus instalaciones de cómputos; tenían que preparar programas en un tedioso lenguaje de máquina. A pesar de estos obstáculos se comprobó que la computadora era un procesador rápido, exacto e incansable de grandes cantidades de información. Las computadoras de la segunda generación, que comenzó a aparecer en 1959, eran más pequeñas y rápidas y de una capacidad de cómputos mayor. La escritura de programas de aplicación en leguaje de máquina fue desplazado por el uso de lenguajes de programación del alto nivel y el bulbo al vacío, de vida relativamente corta, fue desplazado por componentes compactos de estado sólido, como los transistores que habían sido desarrollados por BEL Laboratories en 1947. Segunda Generación Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes: • Están construidas con circuitos de transistores. • Se programan en nuevos lenguajes llamados lenguajes de alto nivel. Al mismo tiempo que se desarrollaban los sistemas de segunda generación se estaba creando una industria nueva, basada en la idea de integrar transistores y otros componentes para formar circuitos que pudieran colocarse en pequeños trozos de silicio. Una de las primeras compañías en esta industria fue Shockley semiconductor, fundada en 1955 por william Shockley. Algunos empleados se separaron más tarde para formar Fairchild semiconductor, y gente de Fairchild formó otras varias compañías, incluyendo INTEL corporation. 6
  7. 7. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 Las características de esta generación fueron las siguientes: • Su fabricación electrónica esta basada en circuitos integrados. • Su manejo es por medio de los lenguajes de control de los sistemas operativos. Los sistemas de la segunda generación eran bastante especializados. Se les diseñaban para procesar aplicaciones científicas como no científicas, pero no se procuraba que funcionara adecuadamente en los dos ambientes, esa situación cambió en 1964 cuando IBM anunció una tercera generación de equipos. Se utilizan los circuitos integrados (CHIPS) que son conjuntos monolíticos que contienen múltiples transistores miniatura en sus comienzos contenían por ejemplo, 15 transistores por cada CHIPS. Estaban equipadas por discos magnéticos, la entrada se hacia por tarjetas perforadas, cassettes magnéticos o hacia fines de ese período por diskettes magnéticos. Su familia 360 de macrocomputadoras. Cada uno de los procesadores de esta familia tenían un conjunto muy amplio de instrucciones internas que podían ejecutar. Algunas de esas instrucciones eran especialmente útiles en aplicaciones científicas, mientras otras eran más apropiadas para procesamiento de archivos. De ese modo era posible utilizar el modelo 360 o 370 de una manera más eficiente en los dos ambientes. De 1964 a la fecha se han introducido muchas otras familias mejoradas de procesadores. Están caracterizados por la aparición de los circuitos integrados en gran escala (LSI) con centenares de miles de transistores por CHIPS, por el desarrollo de los microprocesadores (una unidad de proceso completa en un CHIPS) y por el abastecimiento y la consecuente difusión. En forma colectiva se podría considerar a estos procesadores como una cuarta generación, pero la industrian nunca se puso de acuerdo en la designación de generaciones en los años subsecuentes. Cuarta Generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada “revolución informática”. 7
  8. 8. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas El desarrollo de las minicomputadoras. Las computadoras construidas antes de 1965 eran macrocomputadoras, diseñadas para proporcionar en una localidad centralizada todo el poder de procesamiento que requiera una organización. Este enfoque resolvió las necesidades de algunas organizaciones, pero habían otras que no contaban con los fondos necesarios para adquirir sistemas grandes o tenían aplicaciones especializadas que no podían ser procesadas en forma eficiente por una máquina grande centralizada. Existía una necesidad obvia de computadoras mínimas de bajo costo para llenar los huecos que dejaba el enfoque de las máquinas más grandes, rápidas y centralizadas. Varios innovadores se dieron cuenta de esa necesidad y formaron compañías nuevas en la década de 1960, para producir estas máquinas mínimas. Los primeros procesadores en recibir el nombre de minicomputadoras se desarrollaron y construyeron en 1965 por la Digital Equipment Corporation, que es el actualmente más grande fabricante de minis, otros fabricantes como Hewlett-Packard y Data General, siguieron rápidamente la iniciativa de DEC. En el ambiente de computación centralizado de principios de los sesenta, los usuarios preparaban sus datos y sus programas y después los llevaban al centro de cómputos para ser procesados, este reunía todas estas tareas y la introducía por lotes a la computadora a intervalos programados. El retraso inevitable que resulta por este tipo de procesamiento era muy frustránte para algunos usuarios, los retrasos eran demasiado irritantes para los estudiantes con tareas de programación, que aveces tenían que esperar varios días para localizar y corregir unos cuantos errores en sus programas. Para remediar esta situación John Kemeny y Thomas Kurtz, decidieron llevar mas lejos algunos conceptos de tiempo compartido, es un término que se emplea para describir un sistema de proceso que cuenta con varias estaciones independientes, de baja velocidad (relativamente), en línea y susceptibles de utilizarse en forma simultánea, cada una de las estaciones proporciona al usuario acceso directo al procesador central. Estos desarrollaron programas especiales que permitían al procesador conmutar entre las distintas estaciones de estudiantes y llevar a cabo una parte del trabajo en el segmento de tiempo asignado a cada una, hasta finalizar el trabajo. La intención era proporcionar al estudiante la idea de que nadie mas estaba utilizando la computadora. Para mejorar el ambiente de cómputos interactivo que estaban creando, los profesores desarrollaron un leguaje de programación fácil de aprender por parte de los estudiantes, el objetivo era que todos tuvieran un incentivo para utilizar con cierta 8
  9. 9. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas frecuencia las estaciones de tiempo compartido. Este lenguaje –BASIC- fue todo un éxito en ambos aspectos. La creación de una industria de programación independiente. En 1965 los fabricantes de computadoras vendían o alquilaban sus equipos, pero no cobraban los programas que se proporcionaban a los clientes. Desde el punto de vista del usuario esos programas eran gratuitos, existían unos cuantos proveedores independientes que proporcionaban algunos más especializados o más eficientes que los suministrados por los fabricantes. Pero esta situación cambió en 1969 cuando IBM y otros comenzaron a cotizar de manera independiente sus equipos y sus programas. Esta separación de la programación hizo que los usuarios tuvieran incentivos para buscar mejores compras en materia de programas de cómputos, lo que provocó la creación de muchas empresas de programación y una nueva apertura del mercado informático. Desarrollo de las computadoras personales. Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado “programa de la quinta generación de computadoras”, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera: • Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. • Manejo de lenguaje natural y sistemas de inteligencia artificial. El primer anuncio de una computadora personal construida alrededor de un microprocesador apareció en el número de marzo 1974 en QST, una revista para aficionados a la radio, el producto que se anunciaba era la Scelbi-8h, y solo se vendieron cerca de 200 de estos microprocesadores. Pisándole los talones venia Altair 8800, diseñada sobre la base de una pastilla INTEL por una compañía de Albuquerque, Nuevo México, llamada MITS, se ofrecía originalmente en forma de un equipo para ensamblar por menos de 400 Dólares. El artículo principal del número de enero de 1975 de la revista Popular Electronics trataba de esta máquina y es posible que dicho artículo haya iniciado la explosión de las computadoras personales. Por esas mismas fechas, dos jóvenes programadores llamados Bill Gates y Paul Allen estaban completando un programa que podía traducir instrucciones escritas en BASIC a los códigos de lenguaje de máquina que requerían los microprocesadores INTEL, se creó la Microsoft Corporation para vender el programa BASIC Gates-Allen y la licencia de Microsoft 9
  10. 10. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas BASIC se concedió a MITS a fines de 1975. Muchos de los competidores de la industria actual de las computadoras personales son firmas de varios miles de millones de dólares que cuentan con laboratorios de desarrollo bien equipados. En cambio, los pioneros de 1975 eran en su mayoría aficionados e ingenieros autodidactas, a los que les fascinaba la naciente tecnología. Construían prototipos de sistemas, los anunciaban en revistas, utilizaban el dinero que obtenían de las órdenes recibidas para comprar componentes y ensamblar sus procesadores en cocheras. Muy pocas de esas compañías sobrevivieron a la fase inicial, pero los que lo hicieron cambiaron el mundo. Algunas personas están convencidas que las grandes computadoras electrónicas, gracias a su capacidad casi infinita de almacenar datos y elaborarlos a velocidad elevadísima, podrán algún día tomar el lugar del hombre y convertirlo en su esclavo. Seguramente todos hemos leído o visto algún relato de ciencia-ficción que basa su argumento en esa idea. pero estas predicciones, de algunos años a esta parte, están revelándose del todo infundadas. Las máquinas que han revolucionado el mundo de la información penetrando en hogares y oficinas, son las nietas de las grandes computadoras: las computadoras personales. Más pequeña que un televisor, con un teclado similar al de una máquina de escribir y un leguaje que puede aprenderse en pocas lecciones, la computadora personal es como tener un amigo a mano: no le disgusta jugar y si estamos dispuesto a estudiar un poco de programación, estará muy feliz de ayudarnos a crear juegos nuevos. Además puede ayudarnos a archivar nuestras estampillas si nos gusta coleccionarlas. Y si quisiéramos mejorar nuestros estudios, se convertirá en un compañero de estudios excelente. Pero atención: es un tanto severo y no perdonará ningún error. La computadora personal puede llevar la contabilidad de la casa o de la oficina, tener un inventario al día de los alimentos que hay en la casa, calcular una dieta para adelgazar. Con una pequeña computadora personal es posible escribir un texto, corregirlo sobre la pantalla y luego hacerlo imprimir en una impresora, sin necesidad de acudir a una máquina de escribir. La moderna tecnología electrónica ha llegado a un punto tal que la computadora Cyber 205, fabricada en Estados Unidos por la compañía Control Data, elabora cincuenta millones de informaciones en un segundo. Son valores como para asombrarnos. O la computadora Cray-1, también fabricada en Estados Unidos que realiza una operación aritmética elemental en la milésima parte de una millonésima de segundo. A pesar de esto, todas las computadoras, desde el microprocesador más pequeñas hasta el más grande y costoso, como el mismo Cray-1, serían máquinas mudas e inútiles si el hombre no hubiera inventado un leguaje para poder comunicarse con ellas y programas para poder resolver los problemas que frecuentemente se le presentan a las computadoras. MODELO DE VON NEUMANN Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es 10
  11. 11. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados. Una computadora sin su programa es como un automóvil sin combustible. No funciona. Y todos los programas se escriben en leguaje simple basado en solamente dos símbolos. Se trata del código binario. ¿Cómo se escriben los programas? ¿Cómo se hace para que una máquina nos entienda? Bastará hablarle con un leguaje que les sea comprensible. ¿Pero cuál es? Podría pensarse que es el Inglés ya que todas la computadora comprenden algunas palabras del inglés (como “RUN”, que hace funcionar un programa o “PRINT” que le ordena imprimir). En realidad, el lenguaje de máquina, que toda computadora comprende, no importa cómo esté construido, es un alfabeto de dos símbolos 0 (cero) y 1 (uno): el “código binario”. Todos conocemos la tabla de pitágoras, que enseña a multiplicar dos números. Cada número que utilizaremos está formado por cifras que van del cero al nueve, con un total de diez. ¿Por qué diez? La respuesta es sencilla: tenemos diez dedos. Todos contamos con los dedos y nuestros números (aún aquellos muy grandes) se basan todos en ellos en múltiplos de diez: uno, diez, cien, mil, diez mil etc. Pero la computadora posee solo dos “dedos”: un valor más alto de la corriente o tensión eléctrica que atraviesa sus componentes electrónicos (1) y un más bajo (0). Podemos pensar en una lamparita encendida (1) o apagada (0), es el código más simple que existe. Pero es muy poderoso. Cualquier número decimal puede escribirse en un código binario, transformándose en una palabra, en la jerga electrónica, formada por (0) cero y (1) uno. Pero no solo los números pueden transformarse. También las letras y los signos de puntuación. Para mostrar la potencia de este simplísimo alfabeto, veamos una ejemplo traído de una de las ciencias más modernas, la astronomía con ondas de radio o radioastronomía. La gigantesca antena de Arecibo, construida en la islas de Puerto Rico fue empleada para transmitir un mensaje destinado a los posibles habitantes inteligentes de planetas de una región del espacio, en la que existe un cúmulo de estrellas llamado cúmulo globular M-13 distante 24.000 años luz de la tierra lo cual significa que el mensaje, transmitido llegará a destino dentro de aproximadamente 24.000 años. Quizás ya no exista el hombre en ese momento. El mensaje contiene información esencial sobre la tierra, sus habitantes y el sistema solar al que pertenecemos, confeccionado solamente con símbolos 0 y 1. Una cifra binaria (sea 0o1) se llama “bit” (Binary digiT). La información del mensaje de arecibo está escrita en cifras binarias, es decir en bits y es un código universal. En la página de Internet: www.old-computers.com encontrara la más completa información (inclusive un museo de la computadora) sobre computadoras hasta ahora recopilada. Lamentablemente se encuentra en el idioma Ingles. ¿Cuál es la compuerta adecuada? Veamos un poco mas de un código binario, dispone solamente de dos símbolos 0 y 1 si queremos traducir un número decimal en un número binario, para el cero no hay 11
  12. 12. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas problema: un 0 decimal es un 0 binario. Lo mismo puede decirse del 1: un 1 decimal es un 1 binario. Pero, ¿cómo escribiremos el 2 decimal en código binario? Lo veremos en la siguiente tabla. 24 23 22 2 2 2x2x2x 2x2x2 2x2 2 1 2 16 8 4 2 1 1 1 1 0 2 1 1 3 1 0 0 4 1 0 1 5 1 1 0 6 1 1 1 7 1 0 0 0 8 1 0 0 1 9 1 0 1 0 10 1 0 1 1 11 1 0 1 1 12 1 1 0 1 13 1 1 1 0 14 1 1 1 1 15 1 0 0 0 0 16 Debido a que hay menos símbolos a nuestra disposición, para escribir un cierto número debemos usar más cifras: un número en código binario es más largo que el correspondiente número decimal. A pesar de ello, se emplean menos símbolos y la máquina lo comprende perfectamente. Pero ¿por qué? En realidad todas las computadoras están formadas por circuitos muy simples llamados compuertas o gates en inglés. Estos circuitos poseen una o más entradas, input en inglés. Cada entrada puede solamente asumir dos valores: 0, que es una tensión eléctrica baja ó 1 que es una tensión eléctrica mas elevada. A su vez, el valor de salida del circuito puede ser 0 (tensión baja) ó 1 (tensión alta). El valor de la salida depende del valor de la entrada y del tipo de compuerta. Si ésta es de tipo AND, que corresponde a la conjunción “Y” y en la entrada tenemos un 0 y otro 0 ó 1 y otro 1, el valor de salida será otro 1. Para la compuerta OR que corresponde a “O”, la salida será un 1, si una u otra entrada es un 1. Dando un paso adelante, diremos que si en la salida encontramos un 1, la salida es verdad, si encontramos un 0 es falso. Pongamos todo esto en la tabla siguiente: 12
  13. 13. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas número Valor de Valor de tensión verdad 0 Baja Falso 1 Alta Verdadero Lo que tenemos es algo que ya se conocía: se trata de álgebra de Boole. El álgebra de Boole es un tipo particular de matemática que se basa en solamente dos valores: el 0 y el 1. Boole era un matemático inglés que había inventado este tipo de matemática mucho antes de que aparecieran las computadoras. Vemos aquí la importancia del código binario. Sus valores numérico conforman un álgebra de boole, que es la base lógica de toda computadora electrónica no importa su forma, dimensión, fabricante o país de origen. La computadora es entonces una máquina muy potente y no solo para que pueda resolver problemas complejos. también interesa el hecho de que se basa en un tipo de matemáticas que posee un valor extremadamente general y por lo tanto, aplicable a cualquier tipo de operación aritmética. ¿qué es la memoria? Habíamos dicho conocer solo dos tipos de cifras en su interior: 0 y 1 ¿y si cortamos la corriente? Si no existe un dispositivo de memoria capaz de recordar los números, la computadora pierde todo el contenido de la información. Entonces es necesario algún sistema análogo al del papel sobre el cual escribimos con un lápiz, para conservar o guardar el trabajo realizado y ponerlo a salvo de pérdidas accidentales. Si debemos realizar un compleja secuencia de cálculos, es natural que descompongamos en muchos cálculos simples, de los que conservaremos los resultados parciales. También las memorias de las computadoras funcionan exactamente del mismo modo, y están dotadas de una serie de riesgos en que la máquina guarda los resultados parciales, para después echar mano de ellos cuando los necesita. Y como todos nosotros, la computadora posee un anotador para hacer anotaciones urgentes, un cuaderno para realizar los cálculos y libros en los que puede buscar información. Podemos decir, entonces, que posee una jerarquía de memorias. Una es pequeña y de consulta rápida (el anotador), una más grande (el cuaderno) y una aún más grande y menos veloz (los libros). Algunas de estas memorias son como los cuadernos, es decir, de lectura y escritura y se llaman RAM (Random Access Memory: memoria de acceso al azar o inmediato). Otras memorias se parecen a los libros en el hecho que son memorias de lectura solamente y no pueden borrarse para escribir nuevos datos. Son las memorias ROM (Read Only Memory: memoria de lectura solamente). Además, están las memorias de masa, que contienen grandes cantidades de información (codificada en forma de Bits, como ya vimos), comparables con las grandes enciclopedias. En general vale la siguiente regla: las memorias de acceso rápido y de consulta fácil contienen menos datos; las memorias de acceso más lento y consulta menos fácil, contienen muchísimos más datos. 13
  14. 14. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Si comparamos la memoria de una computadora con una guía telefónica, gruesa y voluminosa, es natural que conservemos una parte, los números de nuestros amigos o parientes, bomberos, policía y otros números útiles en una pequeña libreta de fácil consulta: la así llamada memoria operativa. La memoria de gran tamaño, o memoria de masa se graba en un soporte magnético. Las memorias veloces se guardan en chips, que son pequeñísimos trozos de silicio cristalino en cuyo interior existe una arquitectura complicadísima, como rieles de una inmensa estación ferroviaria en la que viajan no ya trenes, sino pulsos minúsculos de corriente eléctrica. Diferencia entre memoria y Almacenamiento Muchas personas confunden los términos memoria y almacenamiento, especialmente cuando se trata de la cantidad que tienen de cada uno. El término “memoria” significa la cantidad de RAM instalada en la computadora mientras que “almacenamiento” hace referencia a la capacidad del disco duro. Para aclarar esta confusión, se puede comparar la computadora con una oficina que tiene una mesa de trabajo y varios archivos. La mesa de trabajo representa la memoria, la cual ofrece un acceso rápido y fácil a los archivos con los que se está trabajando en ese momento determinado. Otra diferencia importante entre la memoria y el almacenamiento, consiste en que la información almacenada en el disco duro permanece intacta cuando se apaga la computadora. En cambio, el contenido de la memoria queda borrado cuando se apaga la computadora (como si se tirarán a la basura todos los archivos encontrados en la mesa de trabajo al final del día). Cuando se trabaja con un ordenador, se deben salvar el trabajo con frecuencia. La memoria de la computadora salva las modificaciones introducidas en el documento hasta que el usuario las salva en el disco duro. Si por cualquier razón se interrumpe la operación de la computadora, por ejemplo, debido a un corte de luz o a un error del sistema, se perderán todas las modificaciones realizadas que no fueron salvadas hasta ese momento. ¿Qué es SIMM, DIMM y RIMM? Las memorias se agrupan en módulos, que se conecta a la Motherboard o también llamada Placa Madre. Según los tipos de conectores que lleven los modulos, se clasifican en módulos SIMM (Single Inline Memory Module), módulos DIMM (Dual Inline Memory Module), y módulos RIMM (Rambus Inline Module Memory). SIMM: Un SIMM es una tarjeta de circuito impreso con chips DRAM y pines dorados o plateados. Los SIMMs vienen en dos configuraciones 30 pines y 72 pines. Los pines establecen cuantos datos se pueden transferir. Los pines en cada lado del SIMM comparten la misma conexión eléctrica. Los de 30 contactos son para las placas 386 y las primeras de 486, la de 72 contactos también en las placas 486 más modernas y en las placas Socket 7 para Pentium y AMD. La memoria de 72 contactos hay que utilizarla de a pares, no se puede utilizar un módulo solamente. Esta memoria ofrece 4 bytes por acceso. La memoria de 72 puede ser de dos caras y no todas las placas bases la soportan. 14
  15. 15. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas DIMM: Un DIMM es muy parecida a un SIMM. La diferencia entre las dos es que los contactos de metal en el DIMM son electrónicamente independientes. Un DIMM es de 168 contactos y se puede colocar un único módulo, no hace falta colocarlos por pares. Trabaja a 3.3v. Es la que se utiliza en las placas con procesadores a partir de Pentium III y en las placas Super Socket 7. Esta conexión proporciona 8 bytes por acceso. Hay una versión especial para portátiles llamada SO-DIMM, que es un DIMM de tamaño más reducido con 140 contactos. RIMM: Es el módulo de conexión de memoria basado en la tecnología Rambus, que utiliza la memoria Direct RDRAM. Se caracteriza por presentar una topología física de bus e incrementa por 3 o 4 la frecuencia de ciclo de reloj del bus de datos. Los módulos RIMM vienen con frecuencias de reloj de 300 Mhz., 350 Mhz, y 400 Mhz. En cada ciclo de reloj realiza dos operaciones, lo que permite aumentar su tasa de datos a los estandares PC600, PC700 y PC800. Utilizan nuevos chips y se ensamblan en placas de igual tamaño a los DIMM, pero con 184 contactos en lugar de 168 pines. Hay una versión especial para portátiles llamada SO-RIMM con 160 contactos. La transferencia de datos se efectúa por paquetes de 16 bits. MEMORIA RAM – Diferentes tipos DRAM: (Dynamic Random Access Memory). Es la memoria de trabajo, también llamara RAM, esta organizada en direcciones que son reemplazadas muchas veces por segundo. Esta memoria llegó a alcanzar velocidades de 80 y 70 nanosegundos (ns), esto es el tiempo que tarda en vaciar una dirección para poder dar entrada a la siguiente, entre menor sea el número, mayor la velocidad y fue utilizada hasta la época de los equipos 386. SRAM: (Static Random Access Memory). Es el tipo de memoria que constituye lo que se denomina caché. La ventaja de la memoria DRAM, es que es mucho más barata y almacena mas cantidad de información que la memoria SRAM. A su vez, la memoria SRAM es mucho más rápida que la DRAM, del orden de 4 a 6 veces más. La utilización de componentes estáticos de memoria RAM (SRAM) resulta de gran ayuda puesto que no necesitan ningún refresco y, por lo tanto, disponen de un tiempo de acceso que en parte es inferior a los 15 nanosegundos. En principio se podría pensar en la idea de que toda la memoria de trabajo DRAM deba ser sustituida completamente por la memoria SRAM, para así permitir intervalos de acceso más breves. Desgraciadamente la fabricación de este tipo de chips resulta mucho más cara que en el caso de la DRAM. Por esta razón es por lo que se utiliza caché en cantidades limitadas: 128, 256, 512 o 1024 Kb y en muy contadas ocasiones como complemento de DRAM. FPM: (Fast Page Mode). El nombre de esta memoria procede del modo en el que hace la transferencia de datos, que también es llamado paginamiento rápido. Hasta hace unos años ésta memoria era la más popular, en el tipo de memoria normal para las computadores 386, 486 y los primeros Pentium, llego a fabricarse en velocidades de 60 ns. Y la forma que presentaban era un módulo SIMM de 30 15
  16. 16. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas pines, para los equipos 386 y 486 y para los equipos Pentium era un SIMM de 72 pines. EDO: (Extended Data Output). Esta memoria fue una innovación en cuestión de transmisión de datos pudiendo alcanzar velocidades de hasta 45 ns, dejando satisfechos a los usuarios. La transmisión se efectuaba por bloques de memoria y no por instrucción como lo venia haciendo las memorias FPM. Se utiliza en equipos con procesadores Pentium, Pentium Pro y Pentium II, además de su alta compatibilidad, tiene un precio bajo y es una opción viable y económica para aumentar la memoria en estos equipos. Su presentación puede ser en SIMM o DIMM. SDRAM: (Synchronous DRAM). Esta memoria funciona como su nombre lo indica, se sincroniza con el reloj del procesador obteniendo información en cada ciclo de reloj, sin tener que esperar como en los casos anteriores. La memoria SDRAM puede aceptar velocidades de BUS de hasta 100 Mhz. (Se las llama en este caso PC-100) lo que nos refleja una muy buena estabilidad y alcanzar velocidades de 10 ns.. Se presentan en módulos DIMM, y debido a su transferencia de 64 bits., no es necesario instalarlo en pares. Es la opción más económica para poder tener mas cantidad de memoria RAM a un precio accesible para procesadores a partir de Pentium III. BEDO: (Bursa Extended Data Output). Fue diseñada para alcanzar mayors velocidades de US. Trabaja de igual forma que la SDRAM, ó sea, la transferencia de datos se hace en cada ciclo de reloj, pero esta memoria lo hace en ráfaga (burst) haciendo que los tiempos de entrega sean despreciables. RDRAM: (Rambus DRAM). Esta memoria tiene una transferencia de datos de 64 bits que se pueden producir en ráfagas de 2 ns., además puede alcanzar una tasa de transferencia de 533 Mhz con picos de 1.6 Gb/s. Es ideal para los Pentium IV ya que evita los cuellos de botella entre la tarjeta gráfica y la memoria del sistema. Es muy buena para los juegos y el diseño gráfico. Es muy rápida, tiene la contra de ser muy cara. DDR SDRAM: (Double Data Rate SDRAM). Esta memoria tiene el mismo aspecto que un DIMM, pero la diferencia está en que tiene más pines, pasando de 168 pines del actual DIMM a 184 pines. Viendo un poco el tema del voltaje, la DDR trabaja con tan sólo 2,5 V, siendo ésta una reducción del 30 % respecto a los actuales 3.3 V de la SDRAM. Trabaja a velocidades de 200 Mhz.. Es posiblemente la opción mas razonable en relación velocidad/precio para Pentium IV. DDR2 SDRAM: (Double Data Rate 2 SDRAM). Se basa en la tecnología DDR, con velocidades superiores (tasa de transferencia a 400 hasta 1024 Mb/s), mayores anchos de banda, bajo nivel de consume (Operación de 1.8 Voltios, lo que reduce el consumo de energía en aproximadamente el 50 %), y menor disipación térmica (calor). Posee latencias en la memoria más largas que la DDR. Es su punto en contra. Ya que sus latencias son casi el doble que la DDR. 16
  17. 17. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas ESDRAM: (Enchanced SDRAM). Esta memoria es una memoria SDRAM normal pero además se le añade un módulo SRAM, como la memoria de la caché. Este módulo viene a funcionar como la caché del procesador, con ello se consigue un mejor tiempo de respuesta. Ha sido desarrollada por Ramton, es de 7.5 ns., 3.3 V y tiempos de 2-1-1-1. Soporta 133 Mhz de bus. Este tipo de memoria se ve encarecido debido a ese módulo adicional de SRAM. DIRECT RDRAM: (Direct Rambus DRAM). Este tipo de memoria ya no está basado en la SDRAM, sino que es un nuevo tipo de arquitectura propietaria de Rambus, con lo cual todos aquellos fabricantes que fabrican este tipo de memorias tienen que pagar derechos, por ello el precio de la memoria se incrementa aun más. Las especificaciones hablan de 800 Mhz. De bus y ancho de banda de 1.6 Gbs. También viene en un formato distinto, ya no viene en DIMM sino en RIMM. SLDRAM: (Synk Link SDRAM). Desarrollada por el consorcio SynkLink, es también una nueva arquitectura pero no es propietaria, y nace como competencia de un grupo de fabricantes a la RDRAM, propietaria de Rambus Inc.. Funciona como la DDR SDRAM, se activa dos veces por ciclo de reloj. Esta memoria tiene una menor latencia y mayor ancho de bus que la RDRAM, soporta hasta 400 Mhz. De bus y su voltaje es de 2.5 V. SGRAM: (Synchronous Graphic RAM). Ofrece las mismas capacidades de la memoria SDRAM pero para las tarjetas gráficas, se utiliza en las tarjetas gráficas aceleradoras 3D. Actualmente, en el mercado nos encontramos una rivalidad en cuanto a memorias DDR vs. DDR2. A la hora de decidir entre memorias DDR y DDR2, generalmente se optaría por elegir memorias DDR2, pues en condiciones de memoria de calidad media nos ofrecerán mayor rendimiento. Además las placas bases de altas prestaciones vienen preparadas para memorias de este tipo. MEMORIA ROM La memoria ROM es una memoria de solo lectura. Contiene un patrón permanente de datos que no puede alterarse. La ventaja de una ROM es que el programa o los datos estarían permanentemente en memoria principal, y nunca sería necesario cargarlos desde un dispositivo de memoria secundaria (disco rígido). Distinto de la memoria principal (RAM), la ROM conserva su contenido incluso cuando el ordenador se apaga. El contenido de la ROM es permanente, mientras que RAM es volátil. Una ROM se construye como cualquier otro chip de circuito integrado, con los datos cableados en el chip durante el proceso de fabricación. Esto presenta dos problemas: • La etapa de inserción de datos implica unos costos fijos relativamente grandes. 17
  18. 18. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas • No se permiten fallas. Existen variaciones a la ROM convencional, tales como la PROM (ROM programable), la EPROM (PROM borrable), la EEPROM (PROM borrable electrónicamente). MEMORIA VIRTUAL Cuanto más programas utilicemos y más complejos sean, mas memoria necesitaremos. Sólo la carga del Sistema Operativo puede consumir TODA la memoria con la que se venden algunos ordenadores de bajo costo. Y para terminar de complicar el tema, los sistemas operativos tienden a aumentar su tamaño y su consumo de memoria según vamos instalando programas, ó sencillamente según pasa el tiempo, sin instalar nada. La lógica dice que si se agota la memoria, el ordenador deja de trabajar. Pese a esto, el hecho es que los ordenadores siguen trabajando cuando se les agota la memoria RAM, algo que sería imposible si no fuera por la denominada “memoria virtual”. La memoria virtual no es otra cosa que espacio del disco duro que se utiliza como si fuera memoria RAM. Sin embargo, esta memoria virtual tiene varios inconvenientes: el principal es su velocidad, ya que es muchísimo mas lenta que la RAM. Mientras la velocidad de acceso a la RAM se mide en nanosegundos, la de los discos rígidos se mide en milisegundos; es decir, que se tarda casi un millón de veces más en acceder a un dato que se encuentra en el disco rígido que a uno que se encuentra en la memoria RAM. Además, el ancho de banda es también muy inferior; por ejemplo, en un ordenador con memoria PC100 cada segundo pueden transmitirse 800 Mb. De datos que se encuentren en dicha memoria, mientras que ningún disco rígido actual alcanza siquiera los 40 Mb/s.. Por no hablar del considerable ruido que organizan algunos discos rígidos, su elevado consumo, y los más importante: el hecho innegable y no pocas veces lamentado de la escasa estabilidad del sistema Windows cuando realmente sobrecargamos el “archivo de intercambio” (el que almacena los datos de la memoria virtual). También tenemos que tomar en cuenta el desgaste que sufre el disco rígido al estar leyendo permanentemente los datos que no puede utilizar la memoria RAM. MEMORIA CACHÉ La memoria caché es una clase de memoria especial de alta velocidad que esta diseñada para acelerar el proceso de las instrucciones de memoria en la CPU (Unidad Central de Proceso). La CPU puede obtener las instrucciones y los datos ubicados en la memoria caché mucho más rápidamente que las instrucciones y datos almacenados en la memoria principal (RAM). Por ejemplo, en una placa madre típica de 100 Mhs., el CPU necesita hasta 180 nanosegundos para obtener información de la memoria principal, mientras que la información de la memoria caché sólo necesita de 45 nanosegundos. Por lo tanto, cuantas más instrucciones y datos la CPU pueda obtener directamente de la memoria caché, más rápido será el funcionamiento de la computadora. Las clases de memoria caché incluyen caché principal (también conocida como caché de Nivel 1) y caché secundaria (también como conocida como caché de Nivel 2). La memoria caché también puede ser interna o externa. La memoria caché interna esta 18
  19. 19. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas incorporada en la CPU del ordenador, mientras que la externa se encuentra fuera de la CPU. Anteriormente utilizamos la analogía de una oficina con una mesa de trabajo y varios archivos para explicar la relación entre la memoria principal y el disco duro de la computadora. Si la memoria es como la mesa de trabajo en la que se colocan los archivos en uso para que estén siempre al alcance, la memoria caché es como un tablero de anuncios en el que se colocan los papeles que se utilizan con mayos frecuencia. Cuando se necesita la información del tablero de anuncios, simplemente se mira el tablero. El “cerebro” del sistema de la memoria caché es el llamado controlador de memoria caché. Cuando un controlador de memoria caché accede a una instrucción de la memoria principal, también almacena las instrucciones posteriores. Esto se hace debido a que existe una alta probabilidad de que las instrucciones adyacentes también sean necesarias. Esto aumenta la probabilidad de que el CPU encuentre las instrucciones que necesita en la memoria caché, permitiendo así que la computadora funcione con mayor rapidez. ORGANIZACIÓN DE LOS COMPONENTES DE UNA CÓMPUTADORA 1 2 7 3 4 5 6 Componente que encontramos a simple vista dentro de una PC: 1- Fuente de Alimentación 2- Unidad Lecto Grabadora (CD/DVD) 3- Unidad Lectora de Disquette/Lector de Tarjetas. 4- Unidad de Almacenamiento: Disco Rígido (Ide/Sata) 5- Motherboard 6- Cables de conexión unidad de disco rígido, disqueteras y unidad lectoras 7- Procesador y Cooler. 19
  20. 20. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas 3 8 1 9 11 4 2 10 7 12 5 6 Reconocimiento de componentes que se encuentran en una Motherboard o también llamada Placa Madre: 1- Zocalo donde va encastrado el Microprocesador. 2- Bancos de Memoria Ram. 3- Conectores para: Teclado, Monitor, puertos USB, Sonido, Impresora, Cable de Red, Mouse. 4- Pila. 5- Conectores IDE. 6- Conector para Disquetera 7- Conector para la Fuente de alimentación. 8- Ranuras PCI. (Slots) 9- Ranura para placa de video AGP/PCI-E 10- Bios. 11- Memoria Cache. 12- Conectores SATA. 20
  21. 21. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Clasificación Unidad central de Placa madre Unidad procesamiento aritmético/lógica Memoria RA M RO M Unidad de control Placas Video Hardware controladoras Discos Impresoras Sonido Unidades de alm. Discos rígidos Disqueteras Periféricos Unidades de entrada Teclado Scanner Unidades de entrada Unidades de disco /salida Módem Unidades de salida Monitor Impresoras Ploters Unidad central de procesamiento. Esta unidad es el corazón de todo el sistema de cómputos, contiene elementos de almacenamiento primario, aritmético/lógica y control. 1) Sección de almacenamiento primario. Llamada también memoria principal, se utiliza para cuatro funciones. Tres de ellas se relacionan con los datos que se están procesando. a) Los datos se introducen a un área de almacenamiento de entrada y permanecen en ese lugar hasta el momento en que se utilicen en el procesamiento. b) Un espacio de memoria de trabajo es como una hoja de papel para hacer cuentas y contendrá los datos que se están procesando, así como los resultados intermedios de dicho procesamiento. c) Un área de almacenamiento de salida guarda los resultados finales del procesamiento hasta que puedan ser liberados. d) Además de estas áreas relacionadas con los datos, la sección de almacenamiento primario también contiene un área de almacenamiento de programas, que guarda las instrucciones de procesamiento. Las distintas áreas que se destinan a las cuatro funciones generales mencionadas no se fijan por límites físicos incorporados en la sección de almacenamiento primario, sino que pueden variar en las distintas aplicaciones. De esta manera un espacio físico determinado puede contener datos de entrada en una aplicación y resultados de salida en otra. 21
  22. 22. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas 2) Sección aritmético/lógica. Juntas las secciones aritmético/lógica y de control constituyen la unidad central de procesamiento. Todos los cálculos y todas las comparaciones se realizan en esta sección. Una vez que los dispositivos de entrada introdujeron los datos a la memoria principal, se guardan y se transfieren a esta sección, cuando es necesario, donde se realiza el procesamiento, los resultados intermedios que se generan en la unidad aritmético lógica y se mantienen temporalmente en un área que se denomina memoria de trabajo hasta que se vuelvan a necesitar, solamente los datos finales se envían al área de almacenamiento de salida y de allí a los dispositivos de salida. 3) Sección de control. Al seleccionar, interpretar y ordenar la ejecución de las instrucciones del programa, la sección de control mantiene el orden y dirige la operación de todo el sistema. Aunque la sección de control no procesa datos, actúa como un sistema nervioso central para los demás componente manipuladores de datos de la computadora. Al comenzar el procesamiento, se elige la primera instrucción del programa y pasa del área de almacenamiento de programas a la sección de control. Allí se la interpreta y se envían señales a los otros componentes para que se lleven a cabo las acciones que se requieren. Se sigue eligiendo y ejecutando las instrucciones del programa, una tras otra, hasta terminar el proceso. Dispositivos de almacenamiento secundarios. En casi todas las computadoras se emplean dispositivos de almacenamiento secundario para completar la limitada capacidad de almacenamiento de la sección de almacenamiento primario. Los dispositivos de almacenamiento secundario están en línea con el coprocesador, aceptan datos o instrucciones del procesador, los conservan y los vuelven a introducir en el procesador cuando este los necesita para llevar a cabo tareas de procesamiento. Estos dispositivos de almacenamiento están integrados al mismo mueble de la computadora personal. Es común que se utilicen discos flexibles y discos rígidos, cinta magnética que generalmente se utilizan para backup o copias de seguridad. Dispositivos de salida. Al igual que las unidades de entrada, los dispositivos de salida son instrumentos que interpretan información y permiten la comunicación entre los seres humanos y las computadoras. Estos dispositivos convierten los resultados que produce el procesador y que están en código de máquina a una forma susceptible de ser empleados por las personas (por ejemplo informes impresos o desplegados por pantalla) o como entrada para otras máquinas que formen parte de un ciclo de procesamiento distinto. En los sistemas personales de cómputo, los dispositivos de salida más populares son las pantallas de exhibición y las impresoras de escritorio. Los dispositivos que aceptan las salidas de sistemas mayores generalmente son impresoras más grandes y más rápidas, 22
  23. 23. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas muchas estaciones de trabajo en línea y discos rígidos. A las unidades de entrada/salida y almacenamiento secundario se las llama en ocasiones dispositivos periféricos. ALMACENAMIENTO PRIMARIO DISPOSITIVO DISPOSITIVO DE SECCION DE ENTRADA ARITMETICO/LOGICA SALIDA SECCION DE CONTROL DISPOSITIVOS DE ALMACENAMIENTO SECUNDARIO SECCION DE CONTROL SECCION DE ALMACENAMIENTO PRIMARIO AREA DE ALMACENAMIENTO DISPOSITIVO AREA AREA DISPOSITIVO DE PROGRMAS DE DE DE ALMACENAM. ALMACENA DE DE M. AREA DE ALMACENAMIENTO ENTRADA ENTRADA DE SALIDA DE SALIDA TRABAJO SECCION ARITMETICO/LOGICA 23
  24. 24. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Redes Una Red es una manera de conectar varias computadoras entre sí, compartiendo sus recursos e información y estando conscientes una de otra. Cuando las PC´s comenzaron a entrar en el área de los negocios, el conectar dos PC´s no traía ventajas, pero esto desapareció cuando se empezó a crear los sistemas operativos y el Software multiusuario. A. Topología de redes: La topología de una red , es el patrón de interconexión entre nodos y servidor, existe tanto la topología lógica (la forma en que es regulado el flujo de los datos) ,como la topología física ( la distribución física del cableado de la red). Las topologías físicas de red más comunes son: • Estrella. • Bus lineal • Anillo. A.1) Topología de estrella: Red de comunicaciones en que la que todas las terminales están conectadas a un núcleo central, si una de las computadoras no funciona, ésto no afecta a las demás, siempre y cuando el "servidor" no esté caído. ESTACION ESTACION DE DE TRABAJO TRABAJO NODO CENTRAL ESTACION DE TRABAJO ESTACION DE TRABAJO ESTACION DE ESTACION TRABAJO DE TRABAJO 24
  25. 25. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas A.2) Topología Bus lineal: Todas las computadoras están conectadas a un cable central, llamado el "bus" o "backbone". Las redes de bus lineal son de ESTACION ESTACION ESTACION DE DE DE TRABAJO TRABAJO TRABAJO NODO CENTRAL ESTACION ESTACION ESTACION DE DE DE TRABAJO TRABAJO TRABAJO las más fáciles de instalar y son relativamente baratas. A.3) Topología de anillo: Todas las computadoras o nodos están conectados el uno con el otro, formando una cadena o círculo cerrado. ESTACION ESTACION ESTACION DE DE DE TRABAJO TRABAJO TRABAJO NODO CENTRAL ESTACION ESTACION ESTACION DE DE DE TRABAJO TRABAJO TRABAJO B. Protocolos de intercambio, en informática, como en las relaciones humanas, señal mediante la cual se reconoce que puede tener lugar la comunicación o la transferencia de información. Los protocolos de intercambio se pueden controlar tanto con hardware como con software. Un protocolo de intercambio de hardware, como el existente entre un ordenador o computadora con una impresora o con un módem, es un intercambio de señales, a través de cables específicos, en el que cada dispositivo señala su disposición para enviar o recibir datos. Un protocolo de software, normalmente el que se intercambia durante las comunicaciones del tipo módem a módem, consiste en una determinada información transmitida entre los dispositivos de envío y de recepción. Un protocolo de intercambio de software establece un acuerdo entre los dispositivos sobre los protocolos que ambos utilizarán al comunicarse. Un protocolo de 25
  26. 26. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas intercambio de hardware es por tanto similar a dos personas que físicamente estrechan sus manos, mientras que un protocolo de intercambio de software es más parecido a dos grupos que deciden conversar en un lenguaje particular. C. TCP/IP: (Transmission Control Protocol/Internet Protocol) Protocolo de control de transmisiones/protocolo Internet. Conjunto de protocolos de comunicaciones desarrollado por la Defense Advanced Research Projects Agency (DARPA - Agencia de proyectos de investigación avanzada de defensa) para intercomunicar sistemas diferentes. Se ejecuta en un gran número de computadoras VAX y basadas en UNIX, y es utilizado por muchos fabricantes de hardware, desde los de computadoras personales hasta los de macrocomputadoras. Es empleado por numerosas corporaciones y por casi todas las universidades y organizaciones federales de los Estados Unidos. El File Transfer Protocol (FTP - Protocolo detransferencia de archivos) y el Simple Mail Transfer Protocol (SMTP -Protocolo simple de transferencia de correspondencia) brindan capacidades de transferencia de archivos y de correo electrónico. El protocolo TELNET proporciona una capacidad de emulación de terminal que permite al usuario interactuar con cualquier otro tipo de computadora de la red. El protocolo TCP controla la transferencia de los datos, y el IP brinda el mecanismo para encaminarla. En el siguiente diagrama se muestran TCP/IP, junto con los modelos DOD y OSI. D. IPX: (Internet Packet EXchange) intercambio de paquetes entre redes Un protocolo de comunicaciones del NetWare de Novell que se utiliza para encaminar mensajes de un nodo a otro. Los programas de aplicación que manipulan sus propias comunicaciones cliente/servidor o de igual a igual en una red Novell pueden acceder directamente al IPX o al protocolo SPX de NetWare. El IPX no garantiza la entrega del mensaje como lo hace el SPX. E. NETBEUI: NetBEUI (NETBIOS Extended User Interface) Interfaz de usuario extendido de NetBIOS La realización del protocolo de transporte NetBIOS en LAN Manager y LAN Server. Se comunica con las tarjetas de interfaz de red (NICs) vía NDIS (Network Driver Interface Specification). El término fue originalmente usado para definir el protocolo NetBIOS después que éste fue mejorado para soportar la Token Ring Network. F. Tipos de Redes: Según el lugar y el espacio que ocupen, las redes, se pueden clasificar en dos tipos: 1.Redes LAN (Local Area Network) o Redes de área local 2.Redes WAN (Wide Area Network) o Redes de área amplia 1.- LAN - Redes de Área Local: Es una red que se expande en un área relativamente pequeña. Éstas se encuentran comúnmente dentro de una edificación o un conjunto de edificaciones que estén contiguos. Así mismo, una LAN puede estar conectada con otras LANs a cualquier distancia por medio de línea telefónica y ondas de radio. Pueden ser desde 2 computadoras, hasta cientos de ellas. Todas se conectan entre sí por varios medios y topología, a la computadora(s) que se encarga de llevar el control de la 26
  27. 27. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas red es llamada "servidor" y a las computadoras que dependen del servidor, se les llama "nodos" o "estaciones de trabajo". Los nodos de una red pueden ser PC´s que cuentan con su propio CPU, disco duro y software y tienen la capacidad de conectarse a la red en un momento dado; o pueden ser PC´s sin CPU o disco duro y son llamadas "terminales tontas", las cuales tienen que estar conectadas a la red para su funcionamiento. Las LANs son capaces de transmitir datos a velocidades muy rápidas, algunas inclusive más rápido que por línea telefónica; pero las distancias son limitadas. 2. - WAN - Redes de Área Amplia: Es una red comúnmente compuesta por varias LANs interconectadas y se encuentran en una amplia área geográfica. Estas LANs que componen la WAN se encuentran interconectadas por medio de líneas de teléfono, fibra óptica o por enlaces aéreos como satélites. Entre las WANs mas grandes se encuentran: la ARPANET, que fue creada por la Secretaría de Defensa de los Estados Unidos y se convirtió en lo que es actualmente la WAN mundial: INTERNET, a la cual se conectan actualmente miles de redes universitarias, de gobierno, corporativas y de investigación. G.) Componentes de una red: De lo que se compone una red en forma básica es lo siguiente: 1.-Servidor (server): El servidor es la máquina principal de la red, la que se encarga de administrar los recursos de la red y el flujo de la información. Muchos de los servidores son "dedicados" , es decir, están realizando tareas específicas, por ejemplo , un servidor de impresión solo para imprimir; un servidor de comunicaciones, sólo para controlar el flujo de los datos...etc. Para que una máquina sea un servidor, es necesario que sea una computadora de alto rendimiento en cuanto a velocidad y procesamiento, y gran capacidad en disco duro u otros medios de almacenamiento. 2.- Estación de trabajo (Workstation): Es una computadora que se encuentra conectada físicamente al servidor por medio de algún tipo de cable. Muchas de las veces esta computadora ejecuta su propio sistema operativo y ya dentro, se añade al ambiente de la red. 3. - Sistema Operativo de Red: Es el sistema (Software) que se encarga de administrar y controlar en forma general la red. Para ésto tiene que ser un Sistema Operativo Multiusuario, como por ejemplo: Unix, Netware de Novell, Windows NT, etc. 4. - Recursos a compartir: Al hablar de los recursos a compartir, estamos hablando de todos aquellos dispositivos de Hardware que tienen un alto costo y que son de alta tecnología. En éstos casos los más comunes son las impresoras, en sus diferentes tipos: Láser, de color, plotters, etc. 5. - Hardware de Red Son aquellos dispositivos que se utilizan para interconectar a los componentes de la red, serían básicamente las tarjetas de red (NIC-> Network Interface Cards) y el cableado entre servidores y estaciones de trabajo, así como los cables para conectar los periféricos. 1. Routers y bridges: Los servicios en la mayoría de las LAN son muy potentes. La mayoría de las organizaciones no desean encontrarse con 27
  28. 28. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas núcleos aislados de utilidades informáticas. Por lo general prefieren difundir dichos servicios por una zona más amplia, de manera que los grupos puedan trabajar independientemente de su ubicación. Los routers y los bridges son equipos especiales que permiten conectar dos o más LAN. El bridge es el equipo más elemental y sólo permite conectar varias LAN de un mismo tipo. El router es un elemento más inteligente y posibilita la interconexión de diferentes tipos de redes de ordenadores. Las grandes empresas disponen de redes corporativas de datos basadas en una serie de redes LAN y routers. Desde el punto de vista del usuario, este enfoque proporciona una red físicamente heterogénea con aspecto de un recurso homogéneo. 2. Brouters: Un disco dispositivo de comunicaciones que realiza funciones de puente (bridge) y de encaminador (router). Como puente, las funciones del "brouter" son al nivel de enlace de datos (estrato 2), independientemente de protocolos más altos, pero como encaminador, administra líneas múltiples y encamina los mensajes como corresponde. 3. Gateway: pasarela, puerta de acceso Una computadora que conecta dos tipos diferentes de redes de comunicaciones. Realiza la conversión de protocolos de una red a otra. Por ejemplo, una puerta de acceso podría conectar una red LAN de computadoras. Nótese la diferencia con bridge, el cual conecta redes similares. H.) Transmisión de datos en las redes: La transmisión de datos en las redes, puede ser por dos medios: 1. - Terrestres: Son limitados y transmiten la señal por un conductor físico. 2. - Aéreos: Son "ilimitados" en cierta forma y transmiten y reciben las señales electromagnéticas por microondas o rayo láser. 1.- Terrestres: a. Cable par trenzado: Es el que comúnmente se utiliza para los cables de teléfonos, consta de 2 filamentos de cobre, cubiertos cada uno por plástico aislante y entrelazados el uno con el otro, existen dos tipos de cable par trenzado: el "blindado", que se utiliza en conexiones de redes y estaciones de trabajo y el "no blindado", que se utiliza en las líneas telefónicas y protege muy poco o casi nada de las interferencias. b. Cable coaxial: Este tipo de cable es muy popular en las redes, debido a su poca susceptibilidad de interferencia y por su gran ancho de banda, los datos son transmitidos por dentro del cable en un ambiente completamente cerrado, una pantalla sólida, bajo una cubierta exterior. Existen varios tipos de cables coaxiales, cada uno para un propósito diferente. c. Fibra óptica: Es un filamento de vidrio sumamente delgado diseñado para la transmisión de la luz. Las fibras ópticas poseen enormes capacidades de transmisión, del orden de miles de millones de bits por segundo. Además de que los impulsos luminosos no son afectados por interferencias causadas por la radiación aleatoria del ambiente. Actualmente la fibra óptica está remplazando en grandes cantidades a los cables comunes de cobre. 28
  29. 29. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas SOFTWARE La palabra significa blando, lo no tangible a diferencia del hardware, y se le atribuye a los programas y conjunto de instrucciones necesarias para la elaboración electrónica de los datos. Clasificación : De base Dos Unix Zennix Os/2 De programación Alto nivel Bajo nivel De aplicación Bases de datos Planillas de cálculo Software Procesadores de texto Graficadores Estadísticos Animación Paquetes integrados Utilitarios Antivirus Organizadores y servidores de discos Organizadores de recursos Redes Software de base: Son los sistemas operativos, que contienen los programas base para el funcionamiento de la computadora, como organizar el disco, copiar archivos y crear el ambiente necesario para poder programar. Software de programación: Son aquellos que hacen de interlocutor entre el programador y la máquina, permiten escribir instrucciones bajo las reglas del lenguaje. Cuanto más amigable es el lenguaje, es decir cuanto en más fácil es programar en él, sube el nivel del lenguaje, pero esto hace también que sean mas acotados en la variedad de cosas que se pueden hacer con los programas realizados. Software de aplicación: Son aquellos en los que no necesito saber programar para utilizarlos, tienen un buen sistema de dialogo entre el usuario y la computadora y son específicos para cada tarea. Software utilitario: Son aquellos que me permiten realizar funciones técnicas sin serlo como los servidores de disco y los organizadores de recursos. SISTEMAS OPERATIVOS O SOFTWARE DE BASE 29
  30. 30. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación. Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado autoprueba de encendido (Power On Self Test, POST). Durante la POST, la computadora identifica su memoria, sus discos, su teclado, su sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para arrancar (boot). Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en todo momento. Mientras la computadora esté encendida, el SO tiene 4 tareas principales: 1. Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica al usuario, para que este último se pueda comunicar con la computadora. Interfaz de línea de comando: tú introduces palabras y símbolos desde el teclado de la computadora, ejemplo, el MS-DOS. Interfaz gráfica del Usuario (GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar sobre figuras llamadas iconos o seleccionar opciones de los menús. 2. Administrar los dispositivos de hardware en la computadora · Cuando corren los programas, necesitan utilizar la memoria, el monitor, las unidades de disco, los puertos de Entrada/Salida (impresoras, módems, etc). El SO sirve de intermediario entre los programas y el hardware. 3. Administrar y mantener los sistemas de archivo de disco · Los SO agrupan la información dentro de compartimientos lógicos para almacenarlos en el disco. Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos proporciona las herramientas necesarias para organizar y manipular estos archivos. 4. Apoyar a otros programas. Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son similares a aquellos que el SO proporciona directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio disponible, etc. Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema" El Kernel y el Shell. Las funciones centrales de un SO son controladas por el núcleo (kernel) mientras que la interfaz del usuario es controlada por el entorno (shell). Por ejemplo, la parte más importante del DOS es un programa con el nombre "COMMAND.COM" Este programa ti ene dos partes. El kernel, que se mantiene en memoria en todo momento, contiene el código máquina de bajo nivel para manejar la administración de hardware para otros programas que necesitan estos servicios, y para la segunda parte del COMMAND.COM el shell, el cual es el interprete de comandos. 30
  31. 31. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Las funciones de bajo nivel del SO y las funciones de interpretación de comandos están separadas, de tal forma que puedes mantener el kernel DOS corriendo, pero utilizar una interfaz de usuario diferente. Esto es exactamente lo que sucede cuando carga Microsoft Windows, el cual toma el lugar del shell, reemplazando la interfaz de línea de comandos con una interfaz gráfica del usuario. Existen muchos shells diferentes en el mercado, ejemplo: NDOS (Norton DOS), XTG, PCTOOLS, o inclusive el mismo SO MS-DOS a partir de la versión 5.0 incluyó un Shell llamado DOS SHELL. A.) Categorías de Sistemas Operativos A.1) MULTITAREA: El término multitarea se refiere a la capacidad del SO para correr mas de un programa al mismo tiempo. Existen dos esquemas que los programas de sistemas operativos utilizan para desarrollar SO multitarea, el primero requiere de la cooperación entre el SO y los programas de aplicación. Los programas son escritos de tal manera que periódicamente inspeccionan con el SO para ver si cualquier otro programa necesita a la CPU, si este es el caso, entonces dejan el control del CPU al siguiente programa, a este método se le llama multitarea cooperativa y es el método utilizado por el SO de las computadoras de Machintosh y DOS corriendo Windows de Microsoft. El segundo método es el llamada multitarea con asignación de prioridades. Con este esquema el SO mantiene una lista de procesos (programas) que están corriendo. Cuando se inicia cada proceso en la lista el SO le asigna una prioridad. En cualquier momento el SO puede intervenir y modificar la prioridad de un proceso organizando en forma efectiva la lista de prioridad, el SO también mantiene el control de la cantidad de tiempo que utiliza con cualquier proceso antes de ir al siguiente. Con multitarea de asignación de prioridades el SO puede sustituir en cualquier momento el proceso que esta corriendo y reasignar el tiempo a una tarea de mas prioridad. Unix OS-2 y Windows NT emplean este tipo de multitarea. A.2) MULTIUSUARIO: Un SO multiusuario permite a mas de un solo usuario accesar una computadora. Claro que, para llevarse esto a cabo, el SO también debe ser capaz de efectuar multitareas. Unix es el Sistema Operativo Multiusuario más utilizado. Debido a que Unix fue originalmente diseñado para correr en una minicomputadora, era multiusuario y multitarea desde su concepción. Actualmente se producen versiones de Unix para PC tales como The Santa Cruz Corporation Microport, Esix, IBM,y Sunsoft. Apple también produce una versión de Unix para la Machintosh llamada: A/UX.Unix Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo. 1.) Mediante Módems. 2.) Mediante conexión de terminales a través de puertos seriales 3.) Mediante Redes. A.3) MULTIPROCESO: Las computadoras que tienen mas de un CPU son llamadas multiproceso. Un sistema operativo multiproceso coordina las operaciones de la computadoras multiprocesadoras. Ya que cada CPU en una computadora de multiproceso puede estar ejecutando una instrucción, el otro procesador queda liberado para procesar otras instrucciones simultáneamente. 31
  32. 32. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas Al usar una computadora con capacidades de multiproceso incrementamos su velocidad de respuesta y procesos. Casi todas las computadoras que tienen capacidad de multiproceso ofrecen una gran ventaja. Los primeros Sistemas Operativos Multiproceso realizaban lo que se conoce como: • Multiproceso asimétrico: Una CPU principal retiene el control global de la computadora, así como el de los otros procesadores. Esto fue un primer paso hacia el multiproceso pero no fue la dirección ideal a seguir ya que la CPU principal podía convertirse en un cuello de botella. • Multiproceso simétrico: En un sistema multiproceso simétrico, no existe una CPU controladora única. La barrera a vencer al implementar el multiproceso simétrico es que los SO tienen que ser rediseñados o diseñados desde el principio para trabajar en u n ambiente multiproceso. Las extensiones de Unix, que soportan multiproceso asimétrico ya están disponibles y las extensiones simétricas se están haciendo disponibles. Windows NT de Microsoft soporta multiproceso simétrico. B.) Historia de los Sistemas Operativos más comunes. CP/M y D.O.S., el comienzo CP/M (Control Program for Microcomputers), desarrollado por Gary Kildall fue el primer sistema operativo que podía ejecutarse en PCs de diferentes fabricantes. Cuenta una anécdota que ejecutivos de IBM fueron a visitar a Kildall para ofrecerle un acuerdo para poner el CP/M en la IBM PC, pero Kildall al parecer estaba ocupado en una sesión de vuelo, y no los pudo atender. Resultado: IBM llegó a un acuerdo con un joven llamado Bill Gates para que desarrollara un sistema operativo, que se dio en llamar MS- DOS. Para muchos de los que hoy nos encontramos trabajando con una computadora el sistema operativo D.O.S (Disk Operating System) fue el primero que nos tocó utilizar. De la misma manera, fue también el comienzo para Bill Gates y su empresa Microsoft. En sus principios fue desarrollado junto con la empresa IBM, pero diferencias entre las partes hicieron que no fuera un lanzamiento en conjunto. Por el contrario, cada una de las empresas presentó "su" sistema operativo: PC-DOS (IBM) y MS-DOS (Microsoft). Un tercer competidor para estos sistemas operativos (y de muy buena calidad) fue el DR-D.O.S. de la empresa Digital Research que incluía comandos más prolijos y de mayor funcionalidad, pero que con el tiempo, y gracias a las campañas publicitarias de Microsoft fue quedando relegado a un segundo lugar compartido con el PC-DOS de IBM. Luego de unos años DR-D.O.S. fue adquirido por Novell que presentó una nueva versión conocida como Novell D.O.S. que realmente casi no tuvo cabida en el mercado, aunque era muy buena. D.O.S. era simplemente una pantalla de texto con una línea de comandos que nos indicaba en qué directorio nos encontrábamos como único dato orientativo. Uno tenía que "saber" que "cosas" había que escribir para que la máquina "hiciera algo". No había menúes contextuales, ni pantallas gráficas que nos guiaran. Carecía por completo de 32
  33. 33. Instituto de Formación Técnica Superior Nro. 12 – Año2009 Tecnicatura Superior en Análisis de Sistemas algún nivel intuitivo. D.O.S. todavía hoy utiliza antiguos comandos CP/M tales como DIR, REN y TYPE que aun hoy funcionan bajo la máquina virtual D.O.S. de Windows. Las versiones que lo hicieron famoso en el mundo entero fueron la 3.0 y la 3.3, mientras que la más utilizada fue la 5.0, que introdujo muchos cambios a sus antecesoras. La versión 4.0 de D.O.S. estuvo plagada de errores, por lo cual casi no se uso (los usuarios se mantuvieron con la versión 3.30). La última versión del producto como tal fue la 6.22, ya que luego apareció Windows 95 que en su corazón incluía la versión 7.0 OS/2. Desarrollado inicialmente por Microsoft Corporation e International Business Machines (IBM), después de que Intel introdujera al mercado su procesador 80286. Pero la sociedad no duro mucho ya que IBM veía a Windows como una amenaza para el SO/2. Pero IBM continuo desarrollando este sistema operativo. El OS/2 al principio fue muy parecido al MS-DOS, tiene una línea de comando, pero la diferencia que existe con el DOS es el intérprete de comandos, el cual es un programa separado del kernel del sistema operativo y aparece únicamente cuando se hace clic en uno de los iconos “OS/2 prompt” dentro del Workplace Shell. Otra diferencia es que este sí en un sistema operativo multitarea. En el OS/2 muchos de los comandos son idénticos a los de su contra parte pero tiene más comandos debido a que es más grande, completo y moderno. El ambiente gráfico es el Workplace Shell (WS), es el equivalente a un administrador del área de trabajo para el WS. MACINTOSH OS. El sistema operativo constituye la interfaz entre las aplicaciones y el hardware del Macintosh. El administrador de memoria obtiene y libera memoria en forma automática para las aplicaciones y el sistema operativo. Esta memoria se encuentra normalmente en un área llamada cúmulo. El código de procedimientos de una aplicación también ocupa espacio en el cúmulo. Ahora se presenta una lista de los principales componentes del sistema operativo. ° El cargador de segmentos carga los programas por ejecutar. Una aplicación se puede cargar completa o bien puede dividirse en segundos individuales que se pueden cargar de manera dinámica conforme se necesiten. ° El administrador de eventos del sistema operativo informa de la ocurrencia de diversos eventos de bajo nivel, como la presión de un botón del mouse o el tecleo. En condiciones normales, el administrador de eventos de la caja de herramientas transfiere estos eventos a las aplicaciones. ° El administrador de archivos se encarga de la entrada / salida de archivos; el administrador de dispositivos se encarga de la entrada / salida de dispositivos. ° Los manejadores de dispositivos son programas con los cuales los diversos tipos de dispositivos pueden presentar interfaces uniformes de entrada / salida a las aplicaciones. Tres manejadores de dispositivo están integrados al sistema operativo en ROM: el manejador de disco se encarga del acceso a la información en discos, el manejador de 33

×