Taller Pc.
Upcoming SlideShare
Loading in...5
×
 

Taller Pc.

on

  • 788 views

 

Statistics

Views

Total Views
788
Views on SlideShare
788
Embed Views
0

Actions

Likes
0
Downloads
4
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Taller Pc. Taller Pc. Document Transcript

    • El MARK I tuvo mejoras en el MARK II, MARK III Y MARK IV. Averiguar en qué consistieron esas mejoras.MEJORAS DEL MARK I, II, III y VIUna de las mejoras que se presento en el Mark II fue en su tamaño el cual era de 5m de largo x 2m de alto.También tuvo mejoras en su precio: 500.000 dólares que hasta esta época sigue siendo un costo elevado.Esta a su vez para generar la síntesis disponía de 4 bloques de 12 osciladores.En este mismo sentido el mar III también mejoro de forma evidente ya que cada momento presentaba cambios benéficos para cada uno de los usuarios.Este cambio en que la composición del hardware de video y un incremento en la calidad de memoria ram.A esta sele añadió un chip de sonido FM YM2413.Se le añadió también una unidad de fuego rápido y un adaptador de lentes 3-D.Y el mark IV es aquel que hasta nuestros días se usa y es totalmente eficiente.2) Realice un cuadro de la evolución de los microprocesadores a partir del microprocesador Z80.
       EvoluciónFecha de presentaciónVelocidad de relojAncho de busBreve DescripciónZ8016/7/19762,5 MHz20 MHz8bitsLarga vida,compatible a nivel de código con el intel 8088 y funcionaba solo con el sistema operativo CP/M80868/6/19785 MHz. 8 MHz10 MHz.16 bits10 veces las prestaciones del 808080881/6/19795 MHz. 8 MHz.8 bitsIdéntico al 8086 excepto en su bus externo de 8 bits80286 1/2/19828 MHz. 10 MHz.12 MHz.16 BitsDe 3 a 6 veces las prestaciones del 808680386 DX17/10/198516 MHz. 20 MHz.25 MHz. 33 MHz.32 BitsPrimer chip x86 capaz de manejar juegos de datos de 32 bits 80386 SX16/6/198816 MHz. 20 MHz.16 BitsBus capaz de direccionar 16 bits procesando 32bits a bajo costo80486 DX10/4/198925 MHz. 33 MHz.50 MHz.32 BitsCaché de nivel 1 en el chip 80486 SX22/4/199116 MHz. 20 MHz.25 MHz.33 MHz.32 BitsIdéntico en diseño al Intel 486DX, pero sin coprocesador matemático  80486 DX2 199233 MHz. 66 MHz.32 BitsDuplica la velocidad de la placa madre 80486 DX41994  33 MHz. 100 MHz. 32 BitsTriplica la velocidad de la placa madrePentium22/3/199360 MHz. 66 MHz.75 MHz.90 MHz.100 MHz.120 MHz.133 MHz.150 MHz.166 MHz.200 MHz.64 BitsArquitectura escalable. Hasta 5 veces las prestaciones del 486 DX a 33 MHz. Pentium MMXEnero 1994  166 MHz. 200 MHz.233 MHz. 64 BitsNueva tecnología para manejar instrucciones multimedias  Pentium Pro  27/3/1995  150 MHz. 166 MHz. 180 MHz.200 MHz. 64 BitsArquitectura de ejecución dinámica con procesador de altas prestaciones Pentium II 7/5/1997  233 MHz. 266 MHz.300 MHz.350 MHz. 64 BitsS.E.C., MMX, Doble Bus Indep., Ejecución Dinámica  B Pentium III   28/02/1998 400 MHz.500 MHz.600 MHz.700 MHz.800 MHz.900 MHz.1.3 GHz. 64 BitsLa memoria caché fue mejorada, al igual su rendimiento  Pentium IV   28/02/1999 1.7 GHz.2.0 GHz.2.5 GHz.3.0 GHz.3.6 GHz. 64 BitsLa memoria caché es de mayor capacidad con un rendimiento óptimo para el procesamiento de datos
      3. EL SISTEMA BINARIO
      Es un sistema de numeración en el que los números se representan utilizando las cifras cero y uno, esto es informática tiene mucha importancia ya que las computadoras trabajan internamente con 2 niveles de voltaje lo que hace que su sistema de numeración natural sea binario, por ejemplo 1 para encendido y 0 para apagado.
      Todas aquellas personas que se dedican a la informática es fundamental tener habilidad con este tipo de numeración. En este artículo voy a explicar un poco cómo se utiliza y en que consiste el sistema binario.
      En binario, tan sólo existen dos dígitos, el cero y el uno. Hablamos, por tanto, de un sistema en base dos, en el que 2 es el peso relativo de cada cifra respecto de la que se encuentra a la derecha. Es decir:
      An, An-1, ….., A5, A4, A3, A2, A1, A0
      El subíndice n indica el peso relativo (2n)La forma de contar es análoga a todos los sistemas de numeración, incluido el nuestro, se van generando números con la combinación progresiva de todos los digitos. En base 10 (sistema decimal), cuando llegamos al 9, seguimos con una cifra más, pero comenzando desde el principio: 9,10,11… en binario sería:
      0, 1 (cero y uno)10, 11 (dos y tres)100, 101, 110, 111 (cuatro, cinco, seis y siete)1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111 (del ocho al quince)10000, 10001, 10010, 10011, 10100….
      Ya sabemos contar… pero si nos dan un número muy grande en binario… ¿como sabríamos qué número es contar hasta que lleguemos a ese número? Bien, para eso utilizaremos el siguiente método: multiplicaremos cada dígito por su peso y sumaremos todos los valores. Por ejemplo, dado el número en binario 11110100101:
      1 1 1 1 0 1 0 0 1 0 1 — Número binario10 9 8 7 6 5 4 3 2 1 0 — Posición – peso1×210 + 1×29 + 1×28 + 1×27 + 0×26 + 1×25 + 0×24 + 0×23 + 1×22 + 0×21 + 1×20=1024 + 512 + 256 + 128 + 0 + 32 + 0 + 4 + 1 = 1957
      Como podemos ver todo se basa en potencias de dos. Para mayor soltura, tendremos que aprendernos de memoria las potencias de 2, al menos hasta 210 = 1024. Además, cuando ya estemos familiarizados, podremos realizar el paso anterior de memoria, sin desglosar todas las multiplicaciones y sumas, simplemente con un cálculo de cabeza.
      No se termina ahí la cosa. Debemos aprender también a pasar números en decimal a binario. Para ello, dividiremos sucesivamente por dos y anotaremos los restos. El número en binario será el último cociente seguido de todos los restos en orden ascendente (de abajo a arriba). Es decir:
      1957 / 2 = 978 Resto: 1978 / 2 = 489 Resto: 0489 / 2 = 244 Resto: 1244 / 2 = 122 Resto: 0122 / 2 = 61 Resto: 061 / 2 = 30 Resto: 130 / 2 = 15 Resto: 015 / 2 = 7 Resto: 17 / 2 = 3 Resto: 13 / 2 = 1 Resto: 1
      Observar que sale como número: 11110100101Ahora bien, ¿y para pasar a ambos sistemas si el número no es entero? La solución consiste en hacer las cuentas por separado. Si tenemos 1957.8125, por un lado pasaremos el 1957 a binario como ya hemos aprendido. Por otro, tomaremos la parte fraccionaria, 0,8125, y la multiplicaremos sucesivamente por 2, hasta que el producto sea 1. Tomaremos la parte entera de cada multiplicación, de forma descendente (de arriba a abajo, o del primero al último):
      0.8125 x 2 = 1.625 — Parte Entera: 10.625 x 2 = 1.25 — Parte Entera: 10.25 x 2 = 0.5 — Parte Entera: 00.5 x 2 = 1 — Parte Entera: 1
      El cambio de binario a decimal se realizará igual que con la parte entera, teniendo en cuenta que su peso será 2-1, 2-2, 2-3, 2-4… comenzando por el primer dígito después de la coma:
      1 1 1 1 0 1 0 0 1 0 1 . 1 1 0 1 — Número binario10 9 8 7 6 5 4 3 2 1 0 . -1 -2 -3 -4 — Posición – peso1×210 + 1×29 + 1×28 + 1×27 + 0×26 + 1×25 + 0×24 + 0×23 + 1×22 + 0×21 + 1×20 + + 1×2-1 + 1×2-2 + 0×2-3 + 1×2-4=1024 + 512 + 256 + 128 + 0 + 32 + 0 + 4 + 1 + + 0.5 + 0.25 + 0 + 0.0625=1957.8125
      Simplemente, cuanto mayor práctica, mayor velocidad y soltura en las conversiones. En posteriores artículos veremos aspectos complejos de los sistemas informáticos y para ello debemos conocer este código. Así pues, cuanto antes lo dominemos… recuerda el lema del site: “Esto es un sistema. Nosotros somos informáticos”
      .
      Lo utiliza para el cálculo como también en el leguaje de programación
      Los otros sistemas que utiliza son los habituales que son el decimal, fraccionario, los naturales entre otros
      4. QUE ES UNA RED INALÁMBRICA
      Tecnologías inalámbricas
      Las tecnologías inalámbricas dependen de ondas radio, microondas, y pulsos de luz infrarroja para transportar las comunicaciones digitales sin cables entre los dispositivos de comunicación.
      Tipos de tecnologías inalámbricas
      Microondas terrestres
      Implica sistemas de microondas conectados a la tierra, que transmiten señales de radio alta velocidad en una trayectoria directa entre estaciones de repetición espaciadas por alrededor de unas 30 millas. Las antenas se colocan por lo general, en lo alto de los edificios, torres, colinas y cumbres montañosas y son una vista familiar en muchas partes del país.
      Satélites de comunicaciones
      Utilizan radio de microondas como su medio de telecomunicación. Los satélites de comunicación de órbita alta (HEO), se colocan en órbitas estacionarias geosíncronas aproximadamente a 22,000 millas por encima del ecuador. Son alimentados por panales solares y pueden transmitir señales de microondas a una velocidad de varios de cientos millones de bits por segundo.
      Se utilizan para la transmisión alta de velocidad de grandes volúmenes de datos.
      * Sistemas celulares y de comunicación personal (PCS) Todos ellos dividen un área geográfica en áreas pequeñas, o células, por lo general de una o varias millas cuadradas por zona. Cada célula tiene su propio transmisor de baja potencia o dispositivo de antena de repetición de radio para transmitir llamadas de una célula a otra.
      * LAN inalámbricas Es una red de área local inalámbrica, que utiliza una o varias tecnologías inalámbricas
      * Web inalámbrica Los accesos inalámbricos a Internet, Intranet y Extranets están creciendo gracias a los dispositivos de infamación basados en Web.
      5) EVALUACIÓN DE PORTÁTILES:
      Los portátiles hoy en dia son muy usados por el mundo entero son una de las tegnologias mas actuales y como su nombre lo indica son de fácil transportación, hoy en dia existen muchas empresas que se encargan de fabricar estos estupendos equipos de trabajo para la facilidad del ser humano, estas empresas se han dado a la tarea de implementar precios estándares los cuales varian según la fabricación y la utilidad de cada uno de estos equipos de trabajo, en esta ocacion nos hemos dado a la tarea de cotizar cada una de estas maquinas, y las mas considas marcas an arrojado algunos optimos resultados:
      SONY
      Precio características
      4,684.000 principalmente esta muy bien equipada.
      5,586.000 esta es completa e implementada.
      2,652.000 un poco de desventajas en el uso.
      LAPTOP
      1,299.000 normal con todos los accesorios.
      999.000 con importante contenido interno.
      1,459.000 incorpoda con accesorios.
      1,699.000 normal.

      6. TARJETA DE MEMORIA FLASH
      Diferentes tarjetas de memoria comparando su tamaño con el de un fósforo.
      Una tarjeta de memoria o tarjeta de memoria flash es un dispositivo de almacenamiento, es decir, conserva la información que le ha sido almacenada de forma correcta aun con la pérdida de energía. Hay diversos tipos de tarjetas y de trabajos de memoria que se utilizan. La mayoría se usan en cámaras fotográficas digitales, en consolas de videojuegos, en teléfonos móviles, y en usos industriales. La tarjeta de PC (PCMCIA) estaba entre los primeros formatos de tarjeta comerciales de memoria (tipo tarjetas de I) a venir hacia finales de los años 1990, pero ahora se utiliza solamente y principalmente en usos industriales y para trabajos de Entrada-Salida (tipo I/II/III), como estándar de la conexión para los dispositivos (tales como un módem). También en los años 1990, un número de formatos de tarjeta de memoria más pequeños que tarjeta de PC salieron, incluyendo CompactFlash, SmartMedia, SD, MiniSD, MicroSD y similares. En otras áreas, las tarjetas de memoria integradas mini (SD) fueron utilizadas en los teléfonos móviles, consolas, comenzando a usar formatos de tarjeta de los propios fabricantes, y los dispositivos como PDAs y los creadores digitales de la música comenzaron a usar tarjetas de memoria desprendibles.
      A fines de los años 1990, aparecieron nuevos formatos, incluyendo SD/MMC, Memory Stick, tarjeta XD-Picture Card, y un número de tarjetas varias, de baja calidad y más pequeñas. El deseo para las tarjetas ultra-pequeñas para los teléfonos moviles, PDAs, y las cámaras fotográficas digitales compactas condujo una tendencia hacia tarjetas más pequeñas que la generación anterior de tarjetas " compactas" que ya parecían grandes.
      En cámaras fotográficas digitales, SmartMedia y CompactFlash han tenido mucho éxito. En 2001, SM acaparó el 50% del mercado de cámaras fotográficas digitales y las CF tenían un asimiento del estrangular en cámaras fotográficas digitales profesionales.[cita requerida] Antes de 2005, sin embargo, SD/MMC había asumido el control casi el punto de SmartMedia, aunque no al mismo nivel y con la dura competición que venía de variantes de Memory Stick, XD-Picture Card, así como CompactFlash. En campos industriales, incluso las tarjetas de memoria venerable de la tarjeta de PC (PCMCIA) todavía mantienen un lugar, mientras que en teléfonos moviles y PDAs el mercado de la tarjeta de memoria ha conocido un aumento de popularidad.
      Hoy en día, la mayoría de los nuevos PC tienen ranuras incorporadas para una gran variedad de tarjetas de memoria; Memory Stick, CompactFlash, SD, etc. Algunos dispositivos digitales soportan más de una tarjeta de memoria para asegurar compatibilidad.
      Tabla de datos de los formatos de tarjeta de memorias seleccionadas
      NombreSiglaDimensionesDRMPC CardPCMCIA85.6 × 54 × 3.3 mmNingunaCompactFlash ICF-I43 × 36 × 3.3 mmNingunaCompactFlash IICF-II43 × 36 × 5.5 mmNingunaSmartMediaSM / SMC45 × 37 × 0.76 mmNingunaMemory StickMS50.0 × 21.5 × 2.8 mmMagicGateMemory Stick DuoMSD31.0 × 20.0 × 1.6 mmMagicGateMemory Stick Micro M2M215.0 × 12.5 × 1.2 mmMagicGateMulti Media CardMMC32 × 24 × 1.5 mmNingunaReduced Size Multimedia CardRS-MMC16 × 24 × 1.5 mmNingunaMMCmicro CardMMCmicro12 × 14 × 1.1 mmNingunaSecure Digital CardSD32 × 24 × 2.1 mmCPRMminiSD CardminiSD21.5 × 20 × 1.4 mmCPRMmicroSD CardmicroSD11 × 15 × 1 mmCPRMxD-Picture CardxD20 × 25 × 1.7 mmNingunaIntelligent StickiStick24 x 18 x 2.8 mmNingunaµ cardµcard32 x 24 x 1 mmDesconocida
      Puesto que muchos dispositivos de EEPROM permiten solamente un número finito de ciclos de escritura y borrado, algunas de estas tarjetas incorporan algoritmos para superar el desgaste y para evitarlo de usar fuera los lugares específicos a los cuales se escriben a menudo.
      Los tamaños físicos de las tarjetas de memoria van haciéndose cada vez más pequeños, mientras el tamaño de su memoria aumenta: CompactFlash, 32 MB. SD 128 MB. MiniSD 1 GB. MicroSD 1 GB.
      Tarjetas de memoria en las consolas de videojuegos
      Muchas consolas de videojuegos han utilizado tarjetas de memoria de estado sólido con formatos propietarios, especialmente desde que los juegos comenzaron a ser distribuidos en discos ópticos de sólo lectura (Compact Disc). Los tamaños en paréntesis son los de las tarjetas oficiales.
      .
      Tarjeta de sonido
      Tarjeta de sonido Sound Blaster Live! 5.1.
      La AdLib Music Synthesizer Card, la primera tarjeta de sonido popular
      Tarjeta basada en el chipset VIA Envy
      Índigo IO PCMCIA de 24 bits y 96 kHz estéreo fabricada por Echo Digital Audio Corporation
      Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la entrada y salida de audio bajo el control de un programa informático llamado controlador (en inglés Driver). El típico uso de las tarjetas de sonido consiste en proveer mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones multimedia engloban composición y edición de video o audio, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. En el 2008 el hecho de que un equipo no incorpore tarjeta de sonido, puede observarse en computadores que por circunstancias profesionales no requieren de dicho servicio.
      Características generales
      Una tarjeta de sonido típica, incorpora un chip de sonido que por lo general contiene el Conversor digital-analógico, el cual cumple con la importante función de " traducir" formas de ondas grabadas o generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector (para auriculares) en donde se puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc. Para poder grabar y reproducir audio al mismo tiempo con la tarjeta de sonido debe poseer la característica " full-duplex" para que los dos conversores trabajen de forma independiente.
      Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre los sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo real utilizando poca cantidad de información y tiempo del microprocesador y quizá compatibilidad MIDI) y los sonidos digitales para la reproducción.
      Esto último se logra con DACs (por sus siglas en inglés Digital-Analog-Conversor o Conversor-Digital-Analógico), que tienen la capacidad de reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas veces, la reproducción digital de multi-canales puede ser usado para sintetizar música si es combinado con un banco de instrumentos que por lo general es una pequeña cantidad de memoria ROM o flash con datos sobre el sonido de distintos instrumentos musicales. Otra forma de sintetizar música en las PC es por medio de los " códecs de audio" los cuales son programas diseñados para esta función pero consumen mucho tiempo de microprocesador. Esta también nos sirve para teléfonos móviles en la tecnología celular del mundo moderno de tal modo que estos tengan una mayor capacidad de bulla. La mayoría de las tarjetas de sonido también tienen un conector de entrada o " Line In" por el cual puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos, reproductores de casetes entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro del computador.
      Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de entrada " Line-In" .
      Funcionalidades
      Las operaciones básicas que permiten las tarjetas de sonido convencionales son las siguientes:
      Grabación
      La señal acústica procedente de un micrófono u otras fuentes se introduce en la tarjeta por los conectores. Esta señal se transforma convenientemente y se envía al computador para su almacenamiento en un formato específico.
      Reproducción
      La información de onda digital existente en la máquina se envía a la tarjeta. Tras cierto procesado se expulsa por los conectores de salida para ser interpretada por un altavoz u otro dispositivo.
      Síntesis
      El sonido también se puede codificar mediante representaciones simbólicas de sus características (tono, timbre, duración...), por ejemplo con el formato MIDI. La tarjeta es capaz de generar, a partir de esos datos, un sonido audible que también se envía a las salidas.
      Aparte de esto, las tarjetas suelen permitir cierto procesamiento de la señal, como compresión o introducción de efectos. Estas opciones se pueden aplicar a las tres operaciones.
      Componentes
      La figura siguiente muestra un diagrama simplificado de los componentes típicos de una tarjeta de sonido. En él se indica cuál es la información que viaja por cada enlace.
      Interfaz con placa madre
      Sirve para transmitir información entre la tarjeta y el computador. Puede ser de tipo PCI, ISA, PCMCIA, USB, etc.
      Buffer
      La función del buffer es almacenar temporalmente los datos que viajan entre la máquina y la tarjeta, lo cual permite absorber pequeños desajustes en la velocidad de transmisión. Por ejemplo, si la CPU no envía un dato a tiempo, la tarjeta puede seguir reproduciendo lo que tiene en el buffer; si lo datos llegan demasiado rápido, se van guardando. Lo mismo pasa en sentido inverso. Muchos ordenadores realizan la transmisión por DMA. Esto permite transportar los datos entre la tarjeta y la memoria directamente, sin la intervención de la CPU, lo cual le ahorra trabajo.
      DSP (Procesador de señal digital)
      Procesador de señal digital. Es un pequeño microprocesador que efectúa cálculos y tratamientos sobre la señal de sonido, liberando así a la CPU de ese trabajo. Entre las tareas que realiza se incluye compresión (en la grabación) y descompresión (en la reproducción) de la señal digital. También puede introducir efectos acústicos tales como coros, reverberación, etc., a base de algoritmos.
      Los DSP suelen disponer de múltiples canales para procesar distintos flujos de señal en paralelo. También pueden ser full-duplex, lo que les permite manipular datos en ambos sentidos simultáneamente.] ADC (Conversor analógico-digital)
      Conversor analógico-digital. Se encarga de transformar la señal de sonido analógica en su equivalente digital. Esto se lleva a cabo mediante tres fases: muestreo, cuantificación y codificación. Como resultado se obtiene una secuencia de valores binarios que representan el nivel de tensión en un momento concreto.
      El número de bits por muestra es fijo, y suele ser 16. La frecuencia de muestreo se puede controlar desde el PC, y normalmente es una fracción de 44.1kHz.
      DAC (Conversor digital-analógico)
      Conversor digital-analógico. Su misión es reconstruir una señal analógica a partir de su versión digital. Para ello el circuito genera un nivel de tensión de salida de acuerdo con los valores que recibe, y lo mantiene hasta que llega el siguiente. En consecuencia se produce una señal escalonada, pero con la suficiente frecuencia de muestreo puede reproducir fielmente la original.
      Sintetizador FM (modulación de frecuencia)
      La síntesis por modulación de frecuencias implementa uno de los métodos de sintetizar sonido a partir de información simbólica (MIDI). Su funcionamiento consiste en variar la frecuencia de una onda portadora sinusoidal en función de una onda moduladora. Con esto se pueden conseguir formas de onda complejas con múltiples armónicos, que son lo que define el timbre. El tono y volumen del sonido deseado los determinan la frecuencia fundamental y la amplitud de la onda.
      Los primeros sintetizadores FM generaban una señal analógica. Sin embargo, posteriormente se han desarrollado versiones que trabajan digitalmente. Esto da más flexibilidad y por tanto más expresividad a la generación de ondas, a la vez que permite someter la señal a tratamiento digital.
      Sintetizador por Tabla de Ondas
      La síntesis mediante tabla de ondas es un método alternativo al FM. En vez de generar sonido de la nada, utiliza muestras grabadas de los sonidos de instrumentos reales. Estas muestras están almacenadas en formato digital en una memoria ROM incorporada, aunque también pueden estar en memoria principal y ser modificables. El sintetizador busca en la tabla el sonido que más se ajusta al requerido en cada momento. Antes de enviarlo realiza algunos ajustes sobre la muestra elegida, como modificar el volumen, prolongar su duración mediante un bucle, o alterar su tono a base de aumentar o reducir la velocidad de reproducción.
      Este componente puede tener una salida analógica o digital, aunque es preferible la segunda. En general el sonido resultante es de mayor calidad que el de la síntesis FM.
      Alternativamente, este proceso puede ser llevado a cabo enteramente por software, ejecutado por la CPU con muestras almacenadas en disco y un algoritmo apropiado (códecs de audio). Esta técnica es muy utilizada porque permite abaratar el coste de la tarjeta.] Mezclador
      El mezclador tiene como finalidad recibir múltiples entradas, combinarlas adecuadamente, y encaminarlas hacia las salidas. Para ello puede mezclar varias señales (por ejemplo, sacar por el altavoz sonido reproducido y sintetizado) o seleccionar alguna de ellas (tomar como entrada el micrófono ignorando el Line-In). Este comportamiento se puede configurar por software.
      Tanto las entradas como las salidas pueden proceder de la tarjeta o del exterior. El mezclador suele trabajar con señales analógicas, aunque también puede manejar digitales (S/PDIF).
      Conectores
      Son los elementos físicos en los que deben conectarse los dispositivos externos, los cuales pueden ser de entrada o de salida.
      Casi todas las tarjetas de sonido se han adaptado al estándar PC 99 de Microsoft que consiste en asignarle un color a cada conector externo, de este modo:
      ColorFunción RosaEntrada analógica para micrófono. AzulEntrada analógica " Line-In"  VerdeSalida analógica para la señal estéreo principal (altavoces frontales). NegroSalida analógica para altavoces traseros. PlateadoSalida analógica para altavoces laterales. NaranjaSalida Digital SPDIF (que algunas veces es utilizado como salida analógica para altavoces centrales).
      Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son los minijack al ser los más económicos. Con los conectores RCA se consigue mayor calidad ya que utilizan dos canales independientes, el rojo y el blanco, uno para el canal derecho y otro para el izquierdo.
      A nivel profesional se utilizan las entras y salidas S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente con sonido digital eliminando las pérdidas de calidad en las conversiones.
      Para poder trabajar con dispositivos MIDI se necesita la entrada y salida MIDI.
      Aspectos de la señal
      Muestreo de sonido
      Para producir un sonido el altavoz necesita una posición donde golpear, que genera, dependiendo del lugar golpeado, una vibración del aire diferente que es la que capta el oído humano. Para determinar esa posición se necesita una codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número de posiciones diferentes se es capaz de representar.
      Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256 posiciones diferentes donde golpear. Sin embargo con 16 bits se conseguirían 65536 posiciones. No se suelen necesitar más de 16 bits, a no ser que se quiera trabajar con un margen de error que impida que la muestra cambie significativamente.
      Frecuencia de muestreo
      Las tarjetas de sonido y todos los dispositivos que trabajan con señales digitales lo pueden hacer hasta una frecuencia límite, mientras mayor sea esta mejor calidad se puede obtener. Las tarjetas de sonido que incluían los primeros modelos de Apple Macintosh tenían una frecuencia de muestreo de 22050 Hz (22,05 KHz) de manera que su banda de frecuencias para grabar sonido y reproducirlo estaba limitada a 10 KHz con una precisión de 8 bits que proporciona una relación señal sobre ruido básica de solo 40 dB, las primeras tarjetas estereofónicas tenían una frecuencia de muestreo de 44100 Hz (igual que los reproductores de CD) con lo que la banda útil se extendió hasta los 20 KHz (alta calidad) pero se obtiene un sonido más claro cuando se eleva un poco esta frecuencia pues hace que los circuitos de filtrado funcionen mejor, por lo que los DAT (digital audio tape) tienen una frecuencia de conversión en sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22 KHz.
      Debe recordarse que la audición humana está limitada a los 16 ó 17 KHz, pero si los equipos se extienden más allá de este límite se tiene una mejor calidad, también que la frecuencia de muestreo (del convertidor) debe ser de más del doble que la banda que se pretende utilizar (teorema de Nyquist en la práctica).
      Finalmente los nuevos formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino porque así es más fácil reproducir las que si se oyen.
      Canales de sonido y polifonía
      Otra característica importante de una tarjeta de sonido es su polifonía. Es el número de distintas voces o sonidos que pueden ser tocados simultánea e independientemente. El número de canales se refiere a las distintas salidas eléctricas, que corresponden a la configuración del altavoz, como por ejemplo 2.0 (estéreo), 2.1 (estéreo y subwoofer), 5.1, etc. En la actualidad se utilizan las tarjetas de sonido envolvente (surround), principalmente Dolby Digital 8.1 o superior. El número antes del punto (8) indica el número de canales y altavoces satélites, mientras que el número después del punto (1) indica la cantidad de subwoofers. En ocasiones los términos voces y canales se usan indistintamente para indicar el grado de polifonía , no la configuración de los altavoces.
      Historia de las tarjetas de sonido para la arquitectura del IBM PC
      Las tarjetas de sonido eran desconocidas para los ordenadores basados en el IBM PC hasta 1988, siendo el altavoz interno del PC el único medio para producir sonido del que se disponía. El altavoz estaba limitado a la producción de ondas cuadradas, que generaba sonidos descritos como " beeps" . Algunas compañías, entre las que destacaba Access Software, desarrollaron técnicas para la reproducción del sonido digital en el altavoz del PC. El audio resultante, aunque funcional, sufría distorsiones, tenía un volumen bajo y normalmente requería de los recursos destinados al resto de procesos mientras los sonidos eran reproducidos. Otros modelos de ordenadores domésticos de los años 80 incluían soporte hardware para la reproducción de sonido digital y/o síntesis musical, dejando al IBM PC en desventaja cuando aparecieron las aplicaciones multimedia como la composición de música o los juegos.
      Es importante destacar que el diseño inicial y el planteamiento de marketing de las tarjetas de sonido de la plataforma IBM PC no estaban dirigidas a los juegos, pero sí que se encontraban en aplicaciones de audio específicas como composición de música o reconocimiento de voz. Esto llevó al entorno de Sierra y otras compañías en 1988 a cambiar el enfoque de las tarjetas hacia los videojuegos
      Tarjeta gráfica
      EGA Paradise Bus ISA
      IBM XGA-2 MCA
      AVIEW2E EISA
      Cirrus Logic VESA
      Apple Display Card 24AC NuBus
      PCI S3 ViRGE
      ATI X850XT AGP
      NVIDIA GeForce 7900 GS PCI Express 16x
      Una placa o tarjeta gráfica, tarjeta de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
      Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base.
      Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2[1] y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
      Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.

      Historia
      La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips de video como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video.
      El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costes (mayoritariamente son diseños cerrados), esos chips vayan integrados en la placa madre. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).
      Curiosamente la tarjeta de vídeo que viene con el IBM PC, que con su diseño abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria de vídeo de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde.[2]
      A partir de ahí se sucedieron diversas controladoras para gráficos, resumidas en la tabla adjunta.[3] [4] [5] [6]
      AñoModo textoModo gráficosColoresMemoriaMDA198180*25-14 KBCGA198180*25640*200416 KBHGC198280*25720*348164 KBEGA198480*25640*35016256 KBIBM 8514198780*251024*768256-MCGA198780*25320*200256-VGA1987720*400640*480256256 KBSVGA198980*251024*7682562 MBXGA199080*251024*76865K1 MB
      VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de 1024 x 768 puntos a 256 colores.
      Los competidores del PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU base (que batía en potencia con total tranquilidad a las tarjetas gráficas de los PCs del momento) en sus placas madre. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC.
      La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx)[7] con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
      La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU.
      En 2006, NVIDIA y ATI se repartían el liderazgo del mercado[8] con sus series de chips gráficos GeForce y Radeon, respectivamente.
      Componentes
      GPU
      La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Dos de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en 2006 oscilaba entre 250 MHz en las tarjetas de gama baja y 750 MHz en las de gama alta, y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles.
      Memoria de vídeo
      TecnologíaFrecuencia (MHz)Ancho de banda (GB/s)GDDR166 - 9501,2 - 30,4GDDR2533 - 10008,5 - 16GDDR3700 - 17005,6 - 54,4GDDR41600 - 180064 - 86,4GDDR53200 - 700024 - 448
      Según la tarjeta gráfica esté integrada en la placa base (bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una propia. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila entre 128 MB y 1 GB. La memoria empleada en 2006 estaba basada en tecnología DDR, destacando DDR2, GDDR3,GDDR4 y GDDR5. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 3,6 GHz.
      Han conseguido hacer memorias GDDR5 a 7GHZ, gracias al proceso de reducción de 50 nm, permitiendo un gran ancho de banda en buses muy pequeños (incluso de 64 bits)
      Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.
      RAMDAC
      El RAMDAC es un conversor de [señal digital|digital]] a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60).[9] Dada la creciente popularidad de los monitores digitales y que parte de su funcionalidad se ha trasladado a la placa base, el RAMDAC está quedando obsoleto.
      Salidas
      Salidas SVGA, S-Video y DVI de una tarjeta gráfica
      BusAnchura(bits)Frecuencia(MHz)Anchode banda(MB/s)PuertoISA XT84,778ParaleloISA AT168,3316ParaleloMCA321020ParaleloEISA328,3332ParaleloVESA3240160ParaleloPCI32 - 6433 - 100132 - 800ParaleloAGP 1x3266264ParaleloAGP 2x32133528ParaleloAGP 4x322661000ParaleloAGP 8x325332000ParaleloPCIe x11*3225 / 50100 / 200SeriePCIe x41*3225 / 50400 / 800SeriePCIe x81*3225 / 50800 / 1600SeriePCIe x161*3225 / 501600 / 3200Serie
      Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son:
      DA-15 conector RGB usado mayoritariamente en los Apple Macintosh
      Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas VGA)
      SVGA: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor.
      DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo.
      S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas.
      Otras no tan extendidas en 2007 son:
      S-Video implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de video NTSC/PAL
      Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA.
      Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr).
      HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable.
      Interfaces con la placa base
      En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base han sido, principalmente:
      Slot MSX : bus de 8 bits usado en los equipos MSX
      ISA: arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM PC.
      Zorro II usado en los Commodore Amiga 2000 y Commodore Amiga 1500.
      Zorro III usado en los Commodore Amiga 3000 y Commodore Amiga 4000
      NuBus usado en los Apple Macintosh
      Processor Direct Slot usado en los Apple Macintosh
      MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores.
      EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores.
      VESA: extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una velocidad de 33 MHz.
      PCI: bus que desplazó a los anteriores a partir de 1993; con un tamaño de 32 bits y una velocidad de 33 MHz, permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los jumpers. PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz.
      AGP: bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz.
      PCIe: interfaz serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda de aquel. No debe confundirse con PCI-X, versión de PCI.
      En la tabla adjunta[10] [11] se muestran las características más relevantes de algunos de dichos interfaces.
      Dispositivos refrigerantes
      Conjunto de disipador y ventilador.
      Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:
      Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de material conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que son bastante voluminosos.
      Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador y produce ruido al tener partes móviles.
      Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la GPU (el componente que más calor genera en la tarjeta) extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto.
      Alimentación
      Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, el cuello de botella se encuentra en el puerto PCIe que sólo es capaz de aportar una potencia de 150 W.[12] Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector)[13] que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe.
      Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos.[14]
      Tipos de tarjetas gráficas
      Tarjeta MDA
      " Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ambar o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración.
      Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PCs no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto.
      Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluia en su dia) un puerto de comunicación para la impresora ¡Una asociación más que extraña a día de hoy!
      Tarjeta CGA
      " Color Graphics Array" o " Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitia matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el caracter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferian esta ultima dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto.
      Esta tarjeta tenia un fallo bastante habitual y era el conocido como " snow" . Este problema era de caracter aleatorio y consistía en la aparición de " nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve (" No snow" ).
      Tarjeta HGC
      " Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estandar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KB para el modo gráfico (1 bit x 720 x 348)y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en matrices de 14x9 puntos con
      Fabricantes
      Fabricantes de GPUATINVIDIAFabricantes de tarjetasGECUBEPOINT OF VIEWMSIGALAXYSAPPHIREXFXASUSASUSGIGABYTEZOTAC
      En el mercado de las tarjetas gráficas hay que distinguir dos tipos de fabricantes:
      De chips: generan exclusivamente la GPU. Los dos más importantes son:
      ATI
      NVIDIA
      GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados NVIDIA y ATI.
      Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado muy reducida.
      De tarjetas: integran los chips adquiridos de los anteriores con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el mismo chip den resultados diferentes según la marca.
      En la tabla adjunta se muestra una relación de los dos fabricantes de chips y algunos de los fabricantes de tarjetas con los que trabajan.
      API para gráficos
      A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello, surgieron interfaces que abstraen la complejidad y diversidad de las tarjetas gráficas. Los dos más importantes son:
      Direct3D: lanzada por Microsoft en 1996, forma parte de la librería DirectX. Funciona sólo para Windows. Utilizado por la mayoría de los videojuegos comercializados para Windows.
      OpenGL: creada por Silicon Graphics a principios de los años 1990; es gratuita, libre y multiplataforma. Utilizada principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Está siendo desplazada del mercado de los videojuegos por Direct3D.
      Efectos gráficos
      Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas son:
      Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor.
      Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas, entre otros.
      HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras).
      Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos.
      Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento.
      Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto.
      Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara.
      Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más reflectante.
      Errores comunes
      Confundir a la GPU con la tarjeta gráfica. Aunque muy importante, no todas las GPUs y adaptadores de gráficos van en tarjeta ni son el único determinante de su calidad y rendimiento
      Considerar el término tarjeta de video como privativo del PC y compatibles. Esas tarjetas se usan en equipos no PC e incluso sin procesador Intel y sus chips en videoconsolas.
      Confundir al fabricante de la GPU con la marca de la tarjeta. Actualmente los mayores fabricantes de chip gráficos en el mercado son NVIDIA y ATI Technologies. Esto se debe a que se encargan solamente, de hacer los chip gráficos (GPU) y no fabrican tarjetas.
      TEATROS CASEROS Y MONITORES
       
      Un teatro casero es un sonoro y visual sistema de entretenimiento poner juntos a disfrutar de películas, programas de televisión y música en la comodidad y conveniencia en su propia casa. A home theater is made up of both audio components and video components. Un cine en casa se compone de ambos componentes de audio y vídeo de componentes.
       
      Todo Home Theater dispone de los siguientes componentes:
       
      Pantalla: Como medio para ver las películas, se utilizan televisores, y aunque los convencionales no hacen un mal papel, se recomiendan los de pantalla plana y de formato 16.9 (más achatado, estilo cine).
       
      Reproductor: Es el aparato utilizado para leer las películas. Para un Home Theater de calidad, no hay dudas que se debe utilizar un reproductor de DVD (muy superior a las videocaseteras).
       
      Decodificador Dolby 5.1 o DTS: El decodificador es un aparato que se conecta a la salida digital del reproductor de DVD (o bien está integrado directamente en él) y se encarga de procesar el sonido para desviarlo a seis canales independientes, a fin de generar sonido envolvente.
       
      Parlantes: Se pueden utilizar los que vienen incluidos en el televisor (careciendo del decodificador), aunque lo mejor es un sistema con 5 parlantes.
       
      Subwoofer: Es un parlante dedicado exclusivamente al refuerzo de sonidos graves. Con un buen subwoofer se podrá hacer temblar el piso (ideal para películas futuristas).
       
      MONITORES. El monitor es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles y los monitores nuevos, es una pantalla plana de cristal líquido (LCD).La información se representa mediante píxeles, a continuación explicamos lo que es un píxel:
      Es la unidad mínima representable en un monitor. Cada píxel en la pantalla se enciende con un determinado color para formar la imagen. De esta forma, cuanto más cantidad de píxeles puedan ser representados en una pantalla, mayor resolución habrá. Es decir, cada uno de los puntos será más pequeño y habrá más al mismo tiempo en la pantalla para conformar la imagen. Cada píxel se representa en la memoria de video con un número. Dicho número es la representación numérica de un color especifico, que puede ser de 8, 16 o más bits. Cuanto más grande sea la cantidad de bits necesarios para representar un píxel, más variedad de colores podrán unirse en la misma imagen. De esta manera se puede determinar la cantidad de memoria de video necesaria para una cierta definición y con una cierta cantidad de colores.
      7. De acuerdo a la evolución del computador que ventajas y desventajas puede definir en cuanto al software y hardware desde sus comienzos hasta la actualidad.
      VENTAJAS DEL HARDWARE:
      *Fomenta a que el hardware puede ser de calidad, estándares abiertos y que sean más económicos.*La reutilización y la adaptación de diseños (corés) permitiendo así innovar y mejorar los diseños de forma colaborativa a nivel mundial.Ayudaría a las compañías a ahorrar costes, tiempos de diseño en sus trabajos.*Tiene comunidades de diseño, programación, pruebas, apoyo y soporte que cada día crece de forma dinámica y participativa.*Evita la alianza " Trusted Computing" y el DRM (Digital Rights Management), que imponen restricciones a los dispositivos electrónicos como por ejemplo electrodomésticos, computadoras, entre otras más. DESVENTAJAS DEL HARDWARE:*Un diseño físico es único. Si yo construyo una placa, es única. Para que otra persona la pueda usar, bien le dejo la mía o bien se tiene que construir una igual. La compartición tal cual la conocemos en el mundo del software NO ES POSIBLE. *La compartición tiene asociado un coste. La persona que quiera utilizar el hardware que yo he diseñado, primero lo tiene que fabricar, para lo cual tendrá que comprobar los componentes necesarios, construir el diseño y verificar que se ha hecho correctamente. Todos esto tiene un coste.*Disponibilidad de los componentes. ¿Están disponibles los chips?. Al intentar fabricar un diseño nos podemos encontrar con el problema de la falta de material. En un país puede no haber problema, pero en otro puede que no se encuentran. *El mundo del " hardware" está plagado de patentes, es una realidad, por eso muchos de las motivaciones de los autores de este concepto es que no se libere el código o el diseño si no lo desea, pero se anima a que nuevas empresas desarrollen y liberen nuevos hardware, en pro de crear estándares públicos, abiertos y libres, en los cuales todos puedan colaborar. *Modelo de producción, no cualquiera podrá realizar hardware, debido a todas las implicaciones que conlleva toda la infraestructura de diseño, simulación producción y implementación del hardware, al contrario de lo que se dan en el software libre. *Modelo de intercambio, debido a la calidad del software libre disponible actualmente para cubrir las necesidades del hardware abierto.
      VENTAJAS DEL SOFTWARE:
      Escrutinio publico
      Independencia del proveedor
      No estar supreditados a las condiciones del mercado del proveedor
      DESVENTAJAS DEL SOFTWARE:
      Dificulta en el intercambio de archivos en el software.
      Mayores costos de implantaciones e interoperabilidad.

      8. SOFTWARE MONOUSUARIO.
      Un sistema operativo monousuario (de mono: 'uno'; y usuario) es un sistema operativo que sólo puede ser ocupado por un único usuario en un determinado tiempo. Ejemplo de sistemas monousuario son las versiones domésticas de Windows.
       
      Un Monousuario es un sistema para uso exclusivo de una sola persona... que podrían ser la mayoría de los ordenadores actuales, ya que con el hecho de que le pongas una clave a tu sesión será completamente privado el equipo. Por otro lado los sistemas multiusuario son sesiones mas como Windows Comercialmente, ya que estos sistemas ofrecen funciones de multisesiones, personalización de cada sesión, privilegios y limitaciones dependiendo del usuario, aquí VARIOS usuarios de una RED o DOMINIO pueden entrar en cualquier computadora con solo teclear su usuario y contraseña, claro que cada usuario tiene sus limitaciones y privilegios dependiendo de su rango de administración de la red.
      La ventaja de un Monousuario es la gran seguridad de datos y la protección de los mismos como datos CONFIDENCIALES y datos IMPORTANTES que no deben ser manipulados por terceros, otra es el poder trabajar en cualquier pc con solo contar con una cuenta de usuario en la red, aparte de recibir privilegios y limitar a usuarios que no deben tener acceso a datos mas importantes, pero este sistemas es menos seguro.
       
       
      SOFTWARE MULTIUSUARIO.
      Multiusuario: de multi: varios; y usuarios, " apto para ser utilizado por muchos usuarios" .
      Es todo lo contrario a monousuario; y en esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing). El tiempo compartido en ordenadores o computadoras consiste en el uso de un sistema por más de una persona al mismo tiempo. El tiempo compartido ejecuta programas separados de forma concurrente, intercambiando porciones de tiempo asignadas a cada programa (usuario). En este aspecto, es similar a la capacidad de multitareas que es común en la mayoría de las microcomputadoras. Sin embargo el tiempo compartido se asocia generalmente con el acceso de varios usuarios a computadoras más grandes y a organizaciones de servicios, mientras que la multitarea relacionada con las microcomputadoras implica la realización de múltiples tareas por un solo usuario
       
      Dicho sobre un sistema operativo, significa que éste puede utilizarse por varios usuarios al mismo tiempo, permitiendo la ejecución concurrente de programas de usuario. Esto facilita la reducción de tiempo ocioso en el procesador, e indirectamente implica reducción de los costos de energía y equipamiento para resolver las necesidades de cómputo de los usuarios. Ejemplos de sistemas operativos con característica de multiusuario son VMS y Unix en sus múltiples derivaciones (e.g. IRIX, Solaris, etc.) y los sistemas " clones de Unix" como Linux y FreeBSD. En la familia de los sistemas operativos Microsoft Windows, las versiones domésticas y para clientes de Windows 2000, Windows XP y Windows Vista proveen soporte para ambientes personalizados por usuario, pero no admiten múltiples usuarios usando el escritorio del sistema concurrentemente (y son por lo tanto, sistemas operativos monousuario); las versiones de servidor de Windows 2000 y Windows 2003 (así como la futura versión de Vista " Longhorn" ) proveen servicio de escritorio remoto a múltiples usuarios de forma concurrente a través de Terminal Services. Un sistema operativo multiusuario, a diferencia de uno monousuario, debe resolver una serie de complejos problemas de administración de recursos, memoria, acceso al sistema de archivos, etc.
      9. EVOLUCION DEL SOFTWARE.
      10. LAS PATENTES DEL SOFWARE
      Las patentes de software son monopolios de 20 años que conceden algunas oficinas de patentes en el mundo sobre funcionalidades, algoritmos, representaciones y otras acciones que se pueden llevar a cabo con una computadora. En la jerga patentil se suele sustituir dicho término por la expresión " invención implementada por computadora" que incluye tanto las polémicas patentes de software como las generalmente aceptadas " invenciones asistidas por computadora" , esto es, las invenciones físicas tradicionales que incluyen software en su funcionamiento. Así, la Oficina Europea de Patentes (OEP) define generalmente una invención implementada en computadora como " expresión destinada a cubrir solicitudes que involucren computadoras, redes informáticas u otros aparatos programables convencionales por las cuales prima facie las características novedosas de la invención apropiada se manifiesten a través de uno o varios programas"
      Hay un acalorado debate sobre qué alcance debe concederse a dichas patentes, si es que deben ser instituidas en absoluto.
      Los detractores de las patentes sobre el software argumentan que cualquier programa informático está compuesto de millones de componentes (procedimientos, algoritmos,...) muchos de los cuales podrían ser patentables o incluso estar ya patentados. Esto haría inviable un proyecto de software por parte de cualquier PYME o equipo de programadores que no contara con otras patentes para intercambiar con sus competidores (práctica habitual entre grandes corporaciones desarrolladoras: los grandes intercambios de bolsas de patentes). Por otro lado, generalmente es imposible dilucidar si un código determinado incumple alguna patente porque para llegar a tal certidumbre sería necesario evaluar todas las patentes de software existentes en las distintas oficinas de patentes (cientos de miles) y además incluso así quedaría la duda. Generalmente es preciso un proceso judicial para determinar a fe cierta si una patente está siendo infringida por determinado programa o no. Obviamente, tanto la búsqueda exhaustiva como los pleitos de patentes, son actividades vetadas a las PYME por el gran esfuerzo humano y económico que les supondría, lo que las dejaría fuera del mercado por no ser competitivas. A todo lo anterior se suma que en muchos casos una o unas pocas patentes de software son suficientes para monopolizar alguna funcionalidad informática (caso del carrito de la compra de la famosa patente europea y norteamericana " One Click" de Amazon).
      Por otra parte, las personas implicadas en el movimiento de software libre advierten que el uso de patentes impediría el desarrollo de muchos proyectos que no pueden pagar licencia a costa de dejar de ser libres (libre uso y distribución del programa, acceso al código fuente, posibilidad de modificación).
      Desde un punto de vista social se argumenta que las patentes de software (y sobre medicamentos, métodos de negocio, procedimientos legales e ingeniería genética, estas últimas las denominadas " patentes de la vida" ) privatizan el conocimiento acentuando las desigualdades sociales y geográficas mediante la exclusión de la mayoría de la población como productores e incluso como consumidores de los objetos de dichas patentes.
      Los defensores de las patentes de software y métodos de negocio argumentan que, como cualquier otra patente, ayudan a potenciar la innovación, como en otros campos industriales, permitiendo al propietario de la patente beneficiarse de su monopolio y así rentabilizar la inversión en desarrollo.
      Legislación
      En Estados Unidos o Canadá, ya la legislación vigente contempla desde hace tiempo las patentes de software. En la India, los funcionarios de patentes han usado la excusa de que el TRIPs les obliga (argumento nunca ratificado) para declarar legales las patentes de software con un decreto administrativo sujeto a aprobación del Parlamento para la primera mitad de 2005.
      En el territorio de la Unión Europea, la Oficina Europea de Patentes (y algunas otras oficinas nacionales de patentes) han estado concediendo muchas patentes de software desde los 1980s y muy especialmente a partir de la época de las " punto-com" . Sin embargo, en Europa desde que el Artículo 52 de la Convención de la Patente Europea se excluye expresamente los “programas para ordenador” pero sólo cuando sean reclamadas “como tales”. La controversia en Europa está, pues, en la interpretación de ese " como tales" . La interpretación de la OEP deja ese " programas de ordenador como tales" reducido al nihilismo, pues lo define como el código fuente y el código objeto de los programas informáticos, algo que nadie se plantea patentar porque ya está protegido por el copyright. Por el contrario, los opuestos a las patentes de software y métodos de negocio interpretan que la expresión " programas de ordenador como tales" incluye todas las técnicas e ideas de programación y que lo único que excluye son las " invenciones asistidas por computadora" . Es interesante que la guía de examen de la Oficina Europea de Patentes de 1978 realiza una interpretación equivalente a la de los contrarios a las patentes de software y que ha sido paulatinamente a lo largo de los 80 y, sobre todo, los 90 cuando la interpretación de la OEP ha virado a aceptar la patentabilidad del software.
      La UE, por medio de la Comisión Europea, reabrió el debate en 2002. El Parlamento Europeo, en una primera lectura del borrador de Directiva de Patentes de Software en setiembre de 2003, excluyó las patentes de software. Más tarde, tanto la Comisión como el Consejo persistieron, volviendo a presentar la proposición que legalizaba las patentes de software e incluso los algoritmos matemáticos, al utilizar el Consejo y el gobierno alemán una artimaña en el último minuto en 2004. A partir de entonces, varios Parlamentos Nacionales (como el alemán, el español, el holandés y el danés) hicieron diversas peticiones para intentar renegociar una solución menos drástica, lo que, junto al rechazo de la representación polaca en el Consejo, retrasó la adopción de la resolución del Consejo como punto A del orden del día (sin discusión). Adicionalmente, el 28 de Febrero de 2005, la Comisión rechazó sin argumento alguno la prácticamente unánime petición de Parlamento Europeo para reiniciar todo el proceso. Con posterioridad, el Consejo, bajo presidencia luxemburguesa, se negó a realizar una segunda votación como punto B del orden del día (con discusión) y determinó que la resolución había sido aceptada, pese a los mandatos vinculantes en contra de los parlamentos holandés y danés.
      Finalmente, el Parlamento Europeo se vio obligado a comenzar la segunda lectura bajo una de las mayores presiones sociales, mediáticas y políticas a las que jamás haya estado sometido. Muestra de ello fue la organización en España el 27 de abril de 2005 de una concentración en todas las universidades para pedir que en esta segunda lectura el Parlamento volviese a rechazar las patentes de software o la recogida de más de 400.000 firmas en Internet por parte de Eurolinux. Finalmente, el Parlamento Europeo, en una histórica votación llevada a cabo el día 6 de julio de 2005 -y, por primera vez en la historia, para una segunda lectura-, rechazó prácticamente por unanimidad la propuesta de directiva de patentabilidad el software.
      11. CONEXIONES EXTERNAS DEL COMPUTADOR

      CONEXIONES INTERNAS DEL COMPUTADOR.
      INTEGRANTES:
      CONSUELO BERMEJO PRECIADO.
      JOHANA CAROLINA CASTRO.
      KATHERINE CASTRO GARCIA.
      HILDA MELIZZA DACOSTA.
      JESSICA JOHANA LEUSSON.