SlideShare a Scribd company logo
1 of 47
INTRODUCCION A LOS SISTEMAS
OPERATIVOS
INTRODUCCIÓN
El mantenimiento del computador es aquel que debemos realizar al computador cada
cierto tiempo, bien sea para corregir fallas existentes o para prevenirlas.
El periodo de mantenimiento depende de diversos factores: la cantidad de horas diarias de
operación, el tipo de actividad (aplicaciones) que se ejecutan, el ambiente donde se encuentra
instalada (si hay polvo, calor, etc.), el estado general (si es un equipo nuevo o muy usado), y el
resultado obtenido en el último mantenimiento.
Una PC de uso personal, que funcione unas cuatro horas diarias, en un ambiente favorable y dos o
menos años de operación sin fallas graves, puede resultar aconsejable realizar su mantenimiento
cada dos o tres meses de operación, aunque algunas de las actividades de mantenimiento
pudieran requerir una periodicidad menor.
En cambio si la PC se usa más de 4 horas diarias, tiene mucho tiempo de operación, se recomienda
hacer un mantenimiento por lo menos una vez al mes.
No debe considerarse dentro de esta actividad la limpieza externa y el uso sistemático de
cubiertas protectoras de polvo, insectos y suciedad ambiental, ni tampoco la realización de copias
de seguridad (backup), o la aplicación de barreras anti-virus, proxies o cortafuegos (firewalls) que
dependen de las condiciones específicas de operación y entorno ambiental.
MANTENIMIENTO DEL PC
Se puede definir Mantenimiento del PC como una serie de rutinas periódicas que debemos
realizar a la PC, necesarias para que la computadoraofrezca un rendimiento óptimo y eficaz a la
hora de su funcionamiento. De esta forma podemos prevenir o detectar cualquier falla que pueda
presentar el computador.
RAZONES PARA HACER UN MANTENIMIENTO AL PC
Las computadoras funcionan muy bien y están protegidas cuando reciben mantenimiento. Si no se
limpian y se organizan con frecuencia, el disco durose llena de información,
el sistema de archivos se desordena y el rendimiento general disminuye.
Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas,
una limpieza de archivos y la desfragmentación del disco duro, la información estará más
desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los
cuales son:
1. Diagnóstico.
2. Limpieza.
3. Desfragmentación.
DIAGNOSTICO
La computadora trabaja más de lo que normalmente se cree. Está constantemente dando
prioridad a las tareas, ejecutando órdenes y distribuyendo lamemoria.
Sin embargo, con el tiempo ocurren errores en el disco duro, los datos se desorganizan y las
referencias se vuelven obsoletas.
Estos pequeños problemas se acumulan y ponen lento el sistema operativo, las fallas del sistema
y software ocurren con más frecuencia y lasoperaciones de encendido y apagado se demoran más.
Para que el sistema funcione adecuadamente e incluso para que sobre todo no se ponga tan lento,
se debe realizar un mantenimiento periódico.
Asegurándonos de incluir en la rutina del mantenimiento estas labores:
Exploración del disco duro para saber si tiene errores y solucionar los sectores alterados.
Limpieza de archivos.
Desfragmentación el disco duro.
LIMPIEZA
Para garantizar un rendimiento optimo y eficaz de la computadora, debemos mantenerla limpia y
bien organizada.
Debemos eliminar los programas antiguos, programas que no utilicemos y las unidades de disco
para liberar la memoria y reducir la posibilidad deconflicto del sistema.
Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden corregir estas
son:
1. Poco espacio disponible.
2. Espacio ocupado por archivos innecesarios.
3. Alto porcentaje de fragmentación.
Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos archivos
innecesarios tenga la computadora, estará más protegida de amenazas como el hurto de
la identidad en Internet.
Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de
funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en
ocasiones no especifican la causa), algunas aplicaciones no se inician, o se cierran después de
abiertas, etc.
Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe bajar del 10% de
su capacidad total, y cuando se llega a este límite deben borrarse archivos innecesarios, o
desinstalar aplicaciones que no se usen, o comprimir archivos.
Todas las aplicaciones de Windows generan archivos temporales.
Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios
donde se alojan.
En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos
cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones
anormales, o Windows "se cuelga" o por una deficiente programación de la aplicación.
Estos archivos temporales deben borrarse del disco duro.
Existen otro tipo de archivos que pueden borrarse, y no son temporales: la papelera de reciclaje, el
caché de Internet (Windowstemporary internet files) y algunas carpetas que permanecen el
disco después que se baja o se instala un programa.
El caché de Internet debe borrarse si resulta estrictamente necesario, ya que después de borrado
no podrán verse las páginas visitadas sin estar conectado.
Debe hacerse mediante la función explícita del navegador, y además ajustarse el tamaño del
caché.
Un usuario experimentado puede intentar otras posibilidades, como por ejemplo eliminar DLL
duplicadas, instaladores, datos de aplicaciones desinstaladas, etc.
Debe obrar con mucho cuidado cuando haga esta "limpieza profunda" y si no hay plena seguridad
de que un archivo en cuestión puede ser borrado, no debe eliminarlo de la papelera de reciclaje
hasta comprobarlo, pudiendo reponerse a su ubicación original si resultara necesario.
En general lo que se debe realizar son estas labores:
Eliminar los programas antiguos y archivos temporales.
Eliminar la información obsoleta
Asegurarnos de guardar de manera segura la información.
Eliminar las entradas de registro inválidas y los accesos directos dañados.
DESFRAGMENTACIÓN
De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un
cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de
información (aunque este evento no siempre puede detectarse con anticipación).
Alto porcentaje de fragmentación: Durante el uso de una PC existe un
ininterrumpido proceso de borrado de archivos e instalación de otrosnuevos.
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se fracciona,
continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida que aumenta,
la velocidad disminuye en razón del incremento de los tiempos de acceso al disco ocasionado por
la fragmentación, pudiendo hacerse notable.
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones hasta horas), y
aunque puede realizarse como tarea de fondo no resulta conveniente la ejecución simultanea de
otro programa mientras se desfragmenta el disco, debiendo desactivarse también el protector de
pantalla.
CONCLUSIÓN
El problema es que las computadoras se han vuelto tan confiables y convenientes, que damos por
hecho su operación eficaz.
Sin embargo, al igual que una casa o un automóvil, las computadoras ocasionalmente
requieren atención.
Si se realiza las siguientes labores de mantenimiento con frecuencia la computadora funcionará de
manera segura y sin problemas:
1. Diagnóstico.
2. Limpieza.
3. Desfragmentación.
De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un
cuidadoso mantenimiento.
Por esta razón periódicamente debemos utilizar el Scandisk u otro utilitario para detectar si hay
errores en el disco duro, y de haberlos tratar de repararlo.
Una vez esto hecho procedemos a realizar una limpieza profunda de todos los archivos
innecesarios que ponen lento al sistema, tales archivos son: programas antiguos, archivos
temporales de internet, instaladores de programas, entrada de registros inválidas, accesos
directos dañados, los archivos contenido en la papelera de reciclaje, entre otros.
De esta manera conseguiremos una PC más rápida, eficiente, optima, segura y menos propensa a
perder información.
1. Antecedentes de la memoria.
El aprendizaje se define en términos de los cambios relativamente permanentes debidos a la
experiencia pasada, y la memoria es una parte crucial delproceso de aprendizaje, sin ella, las
experiencias se perderían y el individuo no podría beneficiarse de la experiencia pasada. A menos
de que, de cierta manera, el aprendizaje previo pueda grabarse, no podría utilizarse en fecha
posterior y por ello no se estaría en posición de beneficiarse de la experiencia pasada. Sin
embargo, es muy difícil tratar de definir el aprendizaje y la memoria de manera independiente uno
de otra, ya que ambos representan dos lados de la misma moneda: a) el aprendizaje depende de
la memoria para su permanencia y, de manera inversa, B) la memoria no tendría "contenido" si no
tuviera lugar el aprendizaje.
Por tanto, puede definirse a la memoria como la retención del aprendizaje o la experiencia; En
palabras de Blakemore (1988), "En el sentido más amplio, el aprendizaje es la adquisición
de conocimiento y la memoria es el almacenamiento de una representación interna de tal
conocimiento. Existe otro paralelo interesante entre los dos temas hermanos del aprendizaje y la
memoria, a saber, que ambos, tuvieron una prominente representación en los primeros días de
la psicología como ciencia. William James (1890), uno de los primeros de la psicología, fue sin lugar
a dudas el primero en hacer una distinción formal entre memoria primaria y secundaria, las cuales
corresponden, en forma respectiva, a la memoria a corto y a largo plazo; esta distinción reside en
el centro del muy influyente modelo de almacenamiento múltiple de Atkinson y Shiffrin (1968). En
general, se considera que HermannEbbinghaus (1885) es el pionero en el estudio experimental de
la memoria, al haberse utilizado a sí mismo para estudiar fenómenos básicos tales como las curvas
de aprendizaje y las curvas de olvido y al inventar sílabas sin sentido para dicho propósito.
Durante gran parte de la primera mitad del siglo XX, la memoria no constituyó un tema respetable
para los psicólogos experimentales, lo que refleja eldominio del conductismo. Sin embargo,
algunos conductictas, en particular en EUA, estudiaron la "conducta verbal" utilizando el
aprendizaje de pares asociados, en el cual se representan pares de palabras no relacionadas,
donde el primer miembro del par representa el "estímulo" y el segundo la "respuesta". En este
enfoque asociacionista hizo que el estudio de la "memoria" tuviera una posición firme dentro del
marco conceptual conductista y se le observa de manera más clara en la teoría de interferencia
que es una de las principales teorías del olvido.
Desde la revolución cognoscitiva en el decenio de 1950, la memoria se ha vuelto un tema integral
dentro del enfoque del procesamiento deinformación, cuyo núcleo es la analogía con
la computadora.
2. Memoria implícita y explícita.
A. Memoria implícita y aprendizaje implícito
B. Para Reber, el aprendizaje implícito es un proceso de inducción para adquirir información
compleja y abstracta sobre cualquier ambiente, independientemente de la conciencia de
los sujetos sobre el proceso de adquisición o sobre la información adquirida. Esto, desde
ya, no implica ausencia de atención. Diversos paradigmas experimentales avalan
la tesis de que las personas abstraen inconscientemente regularidades ambientales y
utilizan esto para controlar la conducta. Para Reber, así, el aprendizaje implícito tendría
tres atributos: opera independientemente de la conciencia, produce un conocimiento
tácito abstracto que representa el ambiente, y puede usarse implícitamente para
solucionarproblemas y tomar decisiones ante nuevos estímulos.
En cuanto a la memoria implícita, por ella se entiende la expresión de conocimiento
adquirido en un episodio anterior, a través de una prueba que no hace referencia
conciente o explícita a tal episodio de aprendizaje. Los estudios sobre el priming de
repetición y sobre las disociaciones de la memoria avalan la tesis de la existencia de una
memoria implícita o inconsciente.
C. Memoria explícita.
Es la clase de memoria que se hace consciente y puede ser expresada directamente. A algunos
estudiantes les gusta expresar su memoria explícita con sus propias palabras en los exámenes de
temas. Otros prefieren elegir las respuestas de una lista, en los exámenes de selección múltiple.
Recuperación.
El recuerdo puede tomar diferentes formas. Sin embargo, todas son maneras de recuperar o
localizar la información que se ha almacenado; también representa diferentes modos de medir la
memoria dentro del laboratorio.
Reconocimiento: es una manera sensorial de recordar, donde algo o alguien parece
familiar sin que necesariamente se le pueda nombrar o identificar de algún modo. O
puede reconocerse que ciertos objetos o rostros han estado presentes en una situación de
prueba cuando los reactivos meta se encuentran allí junto con otros reactivos distractores
(que originalmente no estaban presentes), es el tipo de recuerdo implicado en los
exámenes de opción múltiple, las respuestas entre las cuales se tiene que elegir una
pueden considerarse como señales de recuperación.
Rememoración es la forma más rigurosa de recuerdo y en general incluye la búsqueda
activa dentro de los almacenes de memoria. Cuando se rememora, se reproduce algo
aprendido tiempo atrás y con frecuencia las señales de recuperación han desaparecido o
son muy escasas. Éste es el tipo de recuerdo implicado en los ensayos por un tiempo.
Reaprendizaje es la medida más sensible de todas, aun cuando algo parece haberse
"olvidado" del todo, puede ser más fácil aprenderlo una segunda vez de lo que lo fue
originalmente.
En los experimentos por lo común esto se expresa como una:
Puntuación De Ahorro = Ensayos Origniales- Ensayos De Aprendizaje/ Ensayos Originales X 100/1
Memoria RECONSTRUCTIVA: Es el tipo de recuerdo implicado cuando la información se
pasa de una persona a otra, con frecuencia de boca en boca como en la difusión de
rumores o chismes. No es sólo la reproducción simple del pasado sino la interpretación de
éste a la luz de las propias creencias, esquemas, expectativas y demás, y por ello, con
frecuencia implica una distorsión de la verdad objetiva.
Confabulación: Se refiere al tipo de error de memoria que con frecuencia se comete bajo
condiciones de alta motivación o excitación, si se es incapaz de recordar cierto asunto, se
puede fabricar algo que parezca apropiado.
Reintegración: es la reminiscencia de experiencias pasadas con base en unas cuantas
señales, que pueden ser recuerdos, olores particulares, melodías, de hecho casi cualquier
cosa que pueda servir como recordatorio.
Memoria dependiente de señales: se refiere a la similitud o diferencia entre el estado o el
contexto en el cual tuvo lugar el aprendizaje original y en el cual se le recuerda.
Imaginería: es la base de muchos tipos de estratagemas mnemotécnicos (auxiliares de
memoria) y existe mucha evidencia de que se puede recordar mejor el material verbal si
se le puede "enganchar" con alguna imagen visual.
3. Procesamiento de información de memorias múltiples.
A. Memoria sensorial.
B. Aunque la mayor parte de la investigación y teorización se ha concentrado en MCP y MLP,
de manera lógica el lugar para comenzar está en lamemoria sensorial, ya que proporciona
un informe preciso del ambiente como lo experimenta el sistema sensorial, es decir, se
conserva una especie de "copia literal" del estímulo durante un breve periodo después de
la exposición; se olvida cualquier información a la que no se presta atención o se procesa
todavía más. Por tanto es claro que la memoria sensorial se relaciona en forma estrecha
con el registro y es probable que sea más preciso y útil considerarla como parte del
proceso de percepción y como un requisito necesario para el almacenamiento en sí.
De acuerdo con Lloyd y colaboradores es probable que menos de una centésima de toda la
información sensorial que cada segundo impacto contra los sentidos humanos alcance la
conciencia y, de esta, sólo una vigésima parte logre llegar a algo que se asemeje a un
almacenamiento estable.
Es claro que, si la capacidad de memoria se en encontrara limitada a la memoria sensorial, la
capacidad para retener información acerca del mundo sería extremadamente limitada, lo mismo
que precaria. Sin embargo, de acuerdo con los modelos de memoria tales como el modelo de
almacenamiento múltiple de Atkinson y Shiffrin, parte de la información de la memoria sensorial
se pasa con éxito a la MCP, lo que permite que se almacene la información durante el tiempo
suficiente como para poder utilizarla, y por esta razón con frecuencia se le denomina memoria
funcional.
Puede mantenerse información de la MCP de 15 a 30 segundos pero puede extenderse
mediante ensayo o repetición. Tiene una codificaciónacústica.
C. Memoria A Corto Plazo
D. Memoria a largo plazo.
En general se piensa que la MLP tiene una capacidad ilimitada. Se puede ver como un depósito de
todas las cosas en la memoria que no se utilizan en el momento pero que potencialmente pueden
recuperarse. Permite recuperar el pasado y utilizar esa información para lidiar con el presente; en
cierto sentido, la MLP permite vivir de manera simultánea en el pasado y en el presente. La
información puede mantenerse desde unos cuantos minutos hasta varios años (que, de hecho,
pueden abarcar la vida entera del individuo).
Su codificación es Semántica, Visual y Acústica.
4. Atención asociada a memoria.
Se llama atención al proceso por el cual notamos los estímulos importantes e ignoramos los
estímulos irrelevantes. Sin ella, nuestras mentes seguramente estarían sumergidas en un agitado y
confuso océano de estímulos. En medio del tráfico, salas de fiestas, reuniones e incluso en un
tranquilo paseo por el bosque, nuestros sentidos están desbordados con más información de la
que nuestra mente puede manejar a su vez. Nos manejamos en esas situaciones porque
atendemos selectivamente a la información importante.
Como sabemos, los estímulos irrelevantes pueden interferir con los estímulos relevantes. Es difícil
concentrarse en una lectura, cuando los estudiantes están susurrando acerca de algo interesante.
Sin embargo, a veces, los estímulos irrelevantes pueden ser ignorados.
Ansiedad y memoria.
La mayoría de nosotros hemos tenido pánico una u otra vez, durante un examen, el pánico es
especialmente probable cuando hay mucho en juego. De repente nos sentimos abrumados por el
miedo al fracaso. Todo lo que no pudimos recordar en el examen frecuentemente empezará a
volver a nuestra mente después de éste, cuando se haya calmado de nuevo.
Holmes argumenta que la ansiedad por sí misma, no impide la recuperación. La ansiedad produce
extraños pensamientos, tal como "no seré capaz de enfrentarme a mi padre" o "esto no es justo
porque he trabajado mucho". Holmes argumenta que estos pensamientos son los que impiden en
la recuperación de las respuestas a las preguntas del examen. Hedl y Bartlett hallaron, que la
ansiedad reduce la memoria de reconocimiento para las frases incluso cuando la necesidad de
recuperación es minimizada. Es importante, por lo tanto, controlar su nivel de ansiedad
directamente.
Decisión y memoria.
Buckhout sostiene que dos testigos con iguales recuerdos podrían decidir cosas bastante
diferentes y desarrolló un test para identificar al buen testigo. Basó su test en la Teoría de
detección de señales, que hace posible medir los factores de decisión y memoria de forma
separadas. Para hacer el test, presentó una película con representación de un crimen y entonces
presentó veintidós afirmaciones ciertas y veintidós falsas sobre el incidente. Los testigos puntúan
con un acierto si dicen "sí" a una afirmación verdadera y puntúan con un error cuando dicen "sí" a
una aseveración falsa. El porcentaje de aciertos y errores se utiliza para calcular la medida de la
sensibilidad del testigo. Si los testigos dicen "sí" a la mayoría de las aseveraciones falsas y
verdaderas, entonces obviamente, no tienen sensibilidad sobre la certeza de las afirmaciones y su
puntuación es 0 Si por otro lado, los testigos casi siempre dicen "sí" a las declaraciones ciertas y
casi nunca dicen "sí a las declaraciones falsas, es que son muy sensibles y obtienen una puntuación
alta. Esta teoría intenta explicar los juicios perceptivos de las personas mediante el análisis de su
sensibilidad a estímulos sensoriales, además de los criterios que utilizan para tomar decisiones.
Olvido
El olvido se puede comprender como un fracaso para transferir información de la MCP a la MLP,
deterioro de la huella, desplazamiento, interferencia, como la pérdida de información una vez que
ha ocurrido la transferencia, deterioro por desuso, prevención de la consolidación, o como el
fracaso para recuperar información de la MLP (interferencia, olvido motivado, olvido dependiente
de señales) o como cambios en recuerdos a LP.
En cuanto se refiere a la teoría del deterioro, parece ser que el paso del tiempo en sí no es
importante, sino más bien lo que sucede entre el aprendizaje y la rememoración. Éste es el centro
de atención de la teoría de interferencia.
El olvido dependiente de señales se refiere de manera conjunta al olvido dependiente del estado y
del contexto. Los estados psicológicos y fisiológicos representan señales internas y
las variables ambientales o contextuales representan señales o rutas externas para recuperar
información almacenada.
El olvido motivado por represión se basa en la teoría psicoanalítica de Freud y ha estimulado gran
cantidad de investigación y debate. La evidencia experimental no representa un fuerte sustento
para el concepto, pero la evidencia clínica acerca de amnesia psicogénica, trastorno
de estréspostraumático, etcétera, sí constituye una fuente de sustentación.
5. Patologías de la memoria.
Las alteraciones más comunes de la memoria son las amnesias:
Amnesia anterógrada: imposibilidad para asimilar nueva información.
Amnesia Retrógrada: Incapacidad para evocar hechos previamente almacenados.
Muchas veces el defecto de memoria no es total, sino parcial, se evidencia dificultad para
recordar, no imposibilidad de hacerlo.
Es común que las amnesias se acompañen de confabulaciones es decir, completar los espacios
vacíos de memoria con recuerdos ficticios o inexactos. También se puede presentar intrusiones, es
decir recuerdos falsos dentro de recuerdos verdaderos.
La amnesia en individuos jóvenes es usualmente causada por traumatismos craneanos, en
personas de mayor edad pude acompañar al síndrome de demencia cuya forma más común es la
enfermedad de alzhéimer o también se presenta en la enfermedad de Huntington.
¿Cómo mejorar la memoria?
No nacemos con buena o mala memoria, por lo tanto podemos aprender a mejorarla utilizando
diversas estrategias. Por otra parte tenemos que saber que cuando tenemos mucho estrés o
estamos preocupados por diversos problemas, nuestra memoria se ve afectada y tendemos a
recordar peor.
A continuación lo que vamos a hacer es aprender a poner en práctica una serie de estrategias:
1-En la fase de CODIFICACIÓN, lo más importante es prestar atención a la información que nos
llega y que queremos retener.
Podemos entre otras cosas:
-No atender a varias cosas a la vez, pues no haremos bien ninguna.
-No preocuparnos excesivamente por los problemas, pues dificulta el registro de la información.
-Realizar ejercicios de atención, entrenarla. Podemos por ejemplo,
-Leer el periódico, fijarnos en nombres propios y recordarlos después.
-Tachar todas las letras mayúsculas de un texto;
-Hacer ejercicios de sopas de letras, en los que se buscan palabras.
En fin, tareas sencillas que nos ayudan a mantener nuestra atención para poder ponerla después a
trabajar en nuestro quehacer diario.
2-En la fase de RETENCIÓN, se pueden utilizar diversos mecanismos, como:
-Asociación: se trata de asociar la información que nos llega con otra que nos resulte más familiar,
por ejemplo, asociar el nombre de una persona con alguien conocido, un número de teléfono con
alguna fecha conocida, edad, número de piso, etc.
-Categorización: lo que tenemos que hacer es ordenar las cosas según un criterio, utilizando las
características comunes a los objetos. Por ejemplo, recordar la lista de la compra, agrupando por
categorías las frutas, carnes, lácteos, artículos de limpieza, etc.
-Verbalización-Repetición: en este caso, al realizar la acción, repetir en voz alta lo que estamos
haciendo.
-Visualización: Se trata de "ver mentalmente" aquello que queremos recordar. Por ejemplo, para
saber cuantas puertas hay en casa, podemos recorrer la casa mentalmente y "ver" las puertas de
cada habitación; si queremos recordar un objeto, lo imaginamos, lo vemos mentalmente con
todos sus detalles; o imaginar una cara con sus ojos, nariz, etc. para recordarla después.
3-En la fase de RECUERDO, lo que tratamos de hacer es evocar la información que hemos
registrado en las anteriores etapas. Debemos buscar referencias e indicios que hemos recogido en
las fases de registro y retención, debemos repensar, volver al último lugar donde hemos estado,
etc. Pero para esto es muy importante tener en cuenta lo siguiente:
-La tensión y el estrés nos hace sufrir, nos producen alteraciones de todo tipo, tanto psicológicas
como orgánicas. Así mismo, producen trastornos en la memoria, pues dificultan la fase de registro.
Por tanto, debemos aprender a estar más tranquilos. Podemos aprender a relajarnos.
-Las cosas se nos olvidan por varias razones, entre ellas, la falta de uso, interferencias entre lo
antiguo y lo nuevo, fallos en alguna fase de la memoria, etc. Sin embargo, debemos tener en
cuenta que olvidar también es necesario. No podríamos mantener a lo largo de la vida todo lo que
entra por nuestros sentidos. Lo que tenemos que procurar es recordar lo importante y olvidar lo
que no sirve para nada.
Una vez que conocemos las fases de la memoria y los aspectos que pueden estar influyendo en
nuestro rendimiento, seguramente nos vamos a preguntar qué hacemos en concreto en esas
situaciones en la que tenemos pequeños olvidos cotidianos, y que afectan en gran medida a
nuestro bienestar diario, por ser un reto para nuestra memoria.
1.
Los discos (plotters)
2. Las cabezas (heads)
3. El eje
4. Como funciona un disco duro.
5. Memoria RAM
6. Arreglo redundante de discos independientes
7. Definiciones
INTRODUCCION
Siempre que se enciende el computador, los discos sobre los que se almacenan los datos giran a
una gran velocidad (a menos que disminuyan supotencia para ahorrar electricidad).
Los discos duros de hoy, con capacidad de almacenar multigigabytes mantienen el mínimo
principio de una cabeza de Lectura/Escritura suspendida sobre una superficie magnética que gira
velozmente con precisión microscópica.
Pero hay un aspecto de los discos duros que probablemente permanecerá igual. A diferencia de
otros componentes de la PC que obedecen a loscomandos del software, el disco duro hace ruidos
cuando emprende su trabajo. Estos ruidos son recordatorio de que es uno de los pocos
componentes de una PC que tiene carácter mecánico y electrónico al mismo tiempo
Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento secundario. Al
disco duro se le conoce con gran cantidad de denominaciones como disco duro, rígido (frente a los
discos flexibles o por su fabricación a base de una capa rígida de aluminio), fijo (por su situación en
el ordenador de manera permanente). Estas denominaciones aunque son las habituales no son
exactas ya que existen discos de iguales prestacionespero son flexibles, o bien removibles o
transportables, u otras marcas diferentes fabricantes de cabezas.
Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y grandes
ordenadores. Para conectar un disco duro a un ordenador es necesario disponer de una tarjeta
controladora. La velocidad de acceso depende en gran parte de la tecnología del propio disco duro
y de la tarjeta controladora asociada al disco duro.
Estos están compuestos por varios platos, es decir varios discos de material magnético montados
sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las
cabezas de lectura/escritura que mediante un proceso electromagnético codifican / decodifican la
información que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está muy
cerca de la superficie, de forma que casi vuela sobre ella, sobre el colchón de aire formado por su
propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de
polvo puede dañarlos.
Unidad de disco duro:
Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido
de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los
disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte
interior (último). Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado
por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros
como sectores se identifican con una serie de números que se les asignan, empezando por el 1,
pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para
almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del
almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una
unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con
un número, siendo el 0 para la primera. En general su organización es igual a los disquetes. La
capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de
sectores por pista, al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de
corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la
corriente, así será la polaridad de la celda. hara leer, se mide la corriente inducida por el campo
magnético de la celda. Es decir que al pasar sobre una zona detectará un campo magnético que
según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado
un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una corriente que
provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o
en 1 dependiendo del valor del campo magnético provocado por dicha corriente.
Los componentes físicos de una unidad de disco duro son:
LOS DISCOS (Platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio finalmente pulidos y revestidos
por ambos lados con una capa muy delgada de una aleación metálica. Los discos están unidos a un
eje y un motor que los hace guiar a una velocidad constante entre las 3600 y 7200 RPM.
Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de
material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras
que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar
información de control.
LAS CABEZAS (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los
discos. La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco,
sin embargo algunos discos de alto desempeño tienen dos o más cabezas sobre cada superficie, de
manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento
radial. Las cabezas de Lectura/Escritura no tocan el disco cuando este esta girando a toda
velocidad; por el contrario, flotan sobre una capa de aire extremadamente delgada(10
millonésima de pulgada). Esto reduce el desgaste en la superficie del disco durante la operación
normal, cualquier polvo o impureza en el aire puede dañar suavemente las cabezas o el medio. Su
funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que
detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y
amplificada por la electrónica de la unidad de disco.
EL EJE
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos
del disco.
"ACTUADOR" (actuator)
Es un motor que mueve la estructura que contiene las cabezas de lectura entre el centro y el
borde externo de los discos. Un "actuador" usa la fuerza de un electromagneto empujado contra
magnetos fijos para mover las cabezas a través del disco. La controladora manda más corriente a
través del electromagneto para mover las cabezas cerca del borde del disco. En caso de una
perdida de poder, un resorte mueve la cabeza nuevamente hacia el centro del disco sobre una
zona donde no se guardan datos. Dado que todas las cabezas están unidas al mismo "rotor" ellas
se mueven al unísono. Mientras que lógicamente la capacidad de un disco duro puede ser medida
según los siguientes parámetros:
Cilindros (cylinders)
El par de pistas en lados opuestos del disco se llama cilindro. Si el HD contiene múltiples discos
(sean n), un cilindro incluye todos los pares de pistas directamente uno encima de otra (2n pistas).
Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las cabezas de
Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las pistas
del cilindro sin mover el rotor. Como resultado los HD de múltiples discos se desempeñan
levemente más rápido que los HD de un solo disco.
Pistas (tracks)
Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven
entre la pista más externa ó pista cero a la mas interna. Es la trayectoria circular trazada a través
de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está
formada por uno o más Cluster.
Sectores (sectors)
Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los datos en
pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512 bytes. La
controladora del H D determina el tamaño de un sector en el momento en que el disco es
formateado. Algunosmodelos de HD le permiten especificar el tamaño de un sector. Cada pista del
disco esta dividida en 1 ó 2 sectores dado que las pistas exteriores son más grandes que las
interiores, las exteriores contienen más sectores.
Distribución de un disco duro
Cluster
Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La siguiente tabla
nos muestra esta relación.
Tamaño del Drive MB
Tipo de FAT
bits
Sectores por Cluster Tamaño del Cluster Kb
0 –15 12 8 4
16-127 16 4 2
128-255 16 8 4
256-511 16 16 8
512-1023 16 32 16
1024-2048 16 64 32
MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD
Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de búsqueda,
latencia y transferencia. Estas medidas también aparecen en las advertencias, comparaciones y en
las especificaciones. Tiempo de acceso (access time) Termino frecuentemente usado en
discusiones de desempeño, es el intervalo de tiempo entre el momento en que un drive recibe un
requerimiento por datos, y el momento en que un drive empieza a despachar el dato. El tiempo de
acceso de un HD es una combinación de tres factores:
1- Tiempo de Búsqueda (seek time)
Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición actual
hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar
localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda variara en
cada búsqueda. En la actualidad, el tiempo promedio de búsqueda para cualquier búsqueda
arbitraria es igual al tiempo requerido para mirar a través de la tercera parte de las pistas. Los HD
de la actualidad tienen tiempos de búsqueda pista a pista tan cortos como 2 milisegundos y
tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje
completo entre la pista más interna y la más externa) cercano a 15 milisegundos.
2- Latencia (latency)
Cada pista en un HD contiene múltiples sectores una vez que la cabeza de Lectura/Escritura
encuentra la pista correcta, las cabezas permanecen en el lugar e inactivas hasta que el sector
pasa por debajo de ellas. Este tiempo de espera se llama latencia. La latencia promedio es igual al
tiempo que le toma al disco hacer media revolución y es igual en aquellos drivers que giran a la
misma velocidad. Algunos de los modelos más rápidos de la actualidad tienen discos que giran a
10000 RPM o más reduciendo la latencia.
3- CommandOverhead
Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye
determinar la localización física del dato en el disco correcto, direccionar al "actuador" para mover
el rotor a la pista correcta, leer el dato, redireccionarlo al computador.
Transferencia
Los HD también son evaluados por su transferencia, la cual generalmente se refiere al tiempo en la
cual los datos pueden ser leídos o escritos en el drive, el cual es afectado por la velocidad de los
discos, la densidad de los bits de datos y el tiempo de acceso. La mayoría de los HD actuales
incluyen una cantidad pequeña de RAM que es usada como cache o almacenamiento temporal.
Dado que los computadores y los HD se comunican por un bus de Entrada/Salida, el tiempo de
transferencia actual entre ellos esta limitado por el máximo tiempo de transferencia del bus, el
cual en la mayoría de los casos es mucho más lento que el tiempo de transferencia del drive.
COMO FUNCIONA UN DISCO DURO.
1. Una caja metálica hermética protege los componentes internos de las partículas de polvo; que
podrían obstruir la estrecha separación entre las cabezas de lectura/escritura y los discos, además
de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento magnético
de un disco. 2. En la parte inferior de la unidad, una placa de circuito impreso, conocida también
como placa lógica, recibe comandos del controlador de la unidad, que a su vez es controlado por
el sistema operativo. La placa lógica convierte estos comandos en fluctuaciones de tensión que
obligan al actuador de las cabezas a mover estas a lo largo de las superficies de los discos. La placa
también se asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad
constante y de que la placa le indique a las cabezas de la unidad en que momento deben leer y
escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el controlador de disco
forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado a un motor eléctrico hacen
que los discos revestidos magnéticamente giren a varios miles de vueltas por minuto. El número
de discos y la composición del material magnético que lo s recubre determinan la capacidad de la
unidad. Generalmente los discos actuales están recubiertos de una aleación de aproximadamente
la tresmillonésima parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira
del grupo de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos
con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos sobre la
superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los extremos de los brazos
móviles se deslizan a la vez a lo largo de las superficies de los discos giratorios del HD. Las cabezas
escriben en los discos los datos procedentes del controlador de disco alineando las partículas
magnéticas sobre las superficies de los discos; las cabezas leen los datos mediante la detección de
las polaridades de las partículas ya alineadas. 6. Cuando el usuario o su software le indican
al sistema operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del
HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de la unidad,
o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT para determinar en que
Cluster del disco comienza un archivo preexistente, o que zonas del disco están disponibles para
albergar un nuevo archivo. 7. Un único archivo puede diseminarse entre cientos de Cluster
independientes dispersos a lo largo de varios discos. El sistema operativo almacena el comienzo de
un archivo en los primeros Cluster que encuentra enumerados como libres en la FAT. Esta
mantiene un registro encadenado de los Cluster utilizados por un archivo y cada enlace de la
cadena conduce al siguiente Cluster que contiene otra parte mas del archivo. Una vez que los
datos de la FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la
unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para que omita
la operación de las cabezas de lectura/escritura a lo largo de la superficie de los discos, leyendo o
escribiendo los Cluster sobre los discos que giran después de las cabezas. Después de escribir un
nuevo archivo en el disco, el sistema operativo vuelve a enviar las cabezas de lectura/escritura a la
FAT, donde elabora una lista de todos los Cluster del archivo.
INTERFAZ ENHANCED INTEGRATED DRIVE ELECTRONICS (EIDE)
La norma IDE fue desarrollada por Western Digital y CompaqComputers a partir de una interfaz de
disco del AT original que IBM creó en 1984. Desde entonces se convirtió en la interfaz más
utilizada en el entorno PC. A pesar de esto IDE presenta unas limitaciones debido a su
dependencia de la BIOS y al diseño del que parte. Hace poco las limitaciones en el tamaño de los
HD y la velocidad de transferencia no daba problemas, pero como se han mejorado
los procesadores y han salido programas más complejos, ya se notan.
Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto
la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la interfaz
establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI (ATA Packed Interfaz), que
permite conectar unidades de CD-ROM a controladores ATA.
ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el tipo de
periférico que prestan las E/S); según su esquema de translación de direcciones se pueden
encontrar dos métodos en ATA-2:
- Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se
transforman los parámetros de CHS de la BIOS en los de la unidad. Como ventaja tiene su sencillez.
- Mediante LBA(Logical Block Address). Consiste en transformar los parámetros CHS en una
dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de los dispositivos,
etc.
En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528 Mb.
Ventajas De Enhanced IDE:
*Máximo cuatro dispositivos conectados
*Soporta CD-ROM y cinta
*Transparencia de hasta 16.6 Mbps
*Capacidad máxima de 8.4 Gbytes
Velocidades en ATA-2
*11.1 con PIO Modo3
*13.3 Mbps con DMA Modo1
*16.6 Mbps con PIO Modo4
DEFINICIONES DE TERMINOS
ATA (AT Attachment), dispositive de AT. Es el dispositivo IDE que más se usa en la actualidad, por
los que a veces se confunde con el propio IDE. Originalmente se creó para un bus ISA de 16 bits.
ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión del protocolo ATA
para conseguir una serie de comandos yregistros que controlen el funcionamiento de un CD-ROM,
es fácilmente adaptable para una cinta de Backup.
DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente integrado en un
periférico que libera al procesador en la tarea de transferir datos entre dispositivos y memoria. El
acceso se realiza por bloque de datos.</ P>
PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente encargado de
ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la DMA requiere atención del
procesador para su funcionamiento. Como contrapartida es mucho más sencillo y barato.
Controladoras
La interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. Define la
forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, se
denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la
información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere
acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se
encuentra dentro de la placa madre.
Se encuentran gobernados por una controladora y un determinado interface que puede ser:
· ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona
un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo. Actualmente esta
desfasado y ya no hay modelos de disco duro con este tipo de interface.
· ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor
más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de
utilizarse este interface y es difícil de encontrar.
· IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que
usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para
conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por
segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La
especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces
ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al
SCSI y el SCSI-2.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un
conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital
introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de
acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de
lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de
especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el
sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos
que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia.
Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:
* El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y
sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que
incorpora la unidad de disco.
* El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28
bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la
unidad.
Debido a la dificultad que entraña la implementación de la compatibilidad LBA en BIOS, muchos de
los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente
compatibilidad con CHS. El techo de la capacidad que permite las soluciones CHS se sitúa en los 8,4
Gb, que por el momento parecen suficientes.
· SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que
permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión
paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo.
Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y
mejorada de este interface. Es el interface con más futuro, si bien tiene problemas de
compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades
de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar
verdaderamente sólido.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus,
desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho
del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de
32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador
realmente no suele ser más que un adaptador principal para conectar el disco al PC. Como se
puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre
ambos es:
INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo para
conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en
datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces
a nivel de dispositivo.
INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema principal que
pone funciones de control y separación de datos sobre el propio disco (y no en el controlador
externo), SCSI e IDE son interfaces a nivel de sistema.
Distribución de la Información: Grabación y Acceso.
Para grabar información en la superficie, se siguen una serie de códigos, que transforman un
patrón de bits en una secuencia de celdas con diferentes estados de magnetización.
Procesos de grabación
· GCR (GroupCodingRecording - Codificación de grupo de grabación) Es un proceso de
almacenamiento en el que los bits se empaquetan comogrupos y son almacenados bajo un
determinado código.
· ZBR (Zone Bit Recording) Es un proceso de almacenamiento que coloca más sectores sobre las
pistas exteriores del disco que son más largas, pero mantienen un valor constante de rotación.
Esta diseñado para colocar más datos sobre el disco, sólo puede usarse con interfaces inteligentes.
Proceso de Codificación
· FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo para cada uno,
y el omitir el cambio de flujo para cada cero. Esteprocedimiento se puede realizar con una
electrónica de control relativamente simple, pero tiene el inconveniente de que cada bit de datos
consume dos cambios de flujo, limitando mucho la capacidad del disco.
· MFM (ModifiedFrequencyModulation - Modulación de frecuencia modificada) Método de
codificación magnética de la información que crea una correspondencia 1 a 1 entre los bits de
datos y transiciones de flujo (cambios magnéticos) sobre un disco. Emplea una menor densidad de
almacenamiento y presenta una velocidad más baja de transferencia que el RLL.
Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit de datos es
almacenado sobre una región física lo suficientemente grande para contener 2 posibles posiciones
00, 01 ó 10. Entre cada 2 bits de datos hay un bit que se llama de "reloj" y que se usa para validar
las lecturas, así como para sincronizarlas. Este bit hace que sea uno cuando está situado entre 2
bits de datos a cero y se hace cero cuando está situado entre cualquier otra combinación de bits
de datos. Así se hace imposible que se puedan leer más de 3 bits consecutivos con un valor de
cero, o más de un bit seguido a uno. Esto es cierto para todas las informaciones almacenadas en el
disco excepto para las áreas de control del mismo cuyas marcas de comienzo de pista, sector y
datos tienen 4 bits consecutivos a cero en su "adressmark". Evidentemente, estos sistemas,
aunque fiables, son unos grandes consumidores de espacio ya que emplean prácticamente la
mitad del espacio en bits de reloj.
· RLL: (RunLengthLimited - Longitud recorrido limitado) Método de codificar la información
magnéticamente que usa GCR para almacenar bloques en vez de bits individuales de datos.
Permite densidades mayores de almacenamiento y velocidades más altas de transferencia que
MFM. En la práctica, permite incrementar en un 50% la capacidad de un disco respecto al sistema
de grabación MFM. Los métodos de grabación RLL utilizan un conjunto complejo de reglas para
determinar el patrón de pulsos para cada bit basado en los valores de los bits precedentes. Este
sistema se puede clasificar dependiendo de la distancia máxima y mínima de silencios entre dos
pulsos, por ejemplo; el RLL 2,7 tiene una distancia mínima entre pulsos de 2 silencios y una
máxima de 7.
Datos de control del disco
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan
determinados sectores que son defectuosos.
En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del
disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En
los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen
durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros
que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores
defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta
que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia.
Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los
discos son datos, existen zonas donde se almacena información de control.
Entre la información que se encuentran dentro de un sector:
· Numero de sector y cilindro
· El ECC (Error CorrectionCode) DATA.
· La zona de datos
· Zonas de separación entre zonas o entre pistas
También existen pistas extra donde se recogen otras informaciones como:
· Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la
sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en
RLL.
· Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.
· Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la
superficie con datos ante vibraciones o golpes de la unidad.
Tiempos de acceso, Velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios
conocer para comprender su funcionamiento y sus diferencias.
· Tiempo de búsqueda de pista a pista: intervalo de tiempo necesario para desplazar la cabeza de
lectura y escritura desde una pista a otra adyacente.
· Tiempo medio de acceso: tiempo que tarda, como media, para desplazarse la cabeza a la
posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo
necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba
discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los
actuales sistemas 386, 486 y PENTIUMÒ usan discos de menos de 20 milisegundos.
· Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.
· Latencia Promedio: Es el promedio de tiempo para que el disco una vez en la pista correcta
encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad
de transferencia: velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad
central. Depende esencialmente de dos factores: la velocidad de rotación y la densidad de
almacenamiento de los datos en una pista
3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)
Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos
Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados
anteriormente sería:
T.Pista T.MAcceso Rotación Latencia V.Transfrencia
FD 360k
HD AT 30
6-12 mls
8-10 mls
93 mls
40-28 mls
300 rpm
3600 rpm
100 mls
8,3 mls
125-250 Kb / seg
1-5 Mb / seg
El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por
pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la
velocidad y la precisión de los engranajes del cabezal. La latencia depende de la velocidad
de rotación y equivale a la mitad del tiempo que tarda el disco en describir un giro completo. El
rendimiento total también depende de la disposición de los dominios magnéticos, uso de ZBR.
Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o
velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600
rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC
giran a 5400 rpm (un 50% más rápida) y por tanto su latencia es de 5,6 milisegundos. Algunos
discos siguen usando los 3600 rpm para consumir menos energía.
RPM 1 Vuelta cada Latencia
3600 16,66 mseg. 8,33 mseg.
4500 13,33 mseg. 6,66 mseg.
5400 11,11 mseg. 5,55 mseg.
7200 8,33 mseg. 4,16 mseg.
10000 6,00 mseg. 3,00 mseg.
El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta
velocidad la disipación del calor se concierte en un problema. El segundo es que exige a usar
nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no
pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían
demasiado rápido.
Además de todas estas características de velocidades y tiempos de acceso de los discos duros
existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las
transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más
conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o
cachés.
· Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que
almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una
pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de
interleaving.
· Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a
través de programas usar la memoria central. La gestión de esta memoria es completamente
invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos
no solicitados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de
escritura en disco y aumentar la velocidad.
Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos
de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:
· Programad I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes
puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La
tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se
pueden lograr transferencias de 3 a 4 Mbyte. Con el modo de transferencia PIO 4, que es el
método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de
transferencia de 16,6 Mbyte / seg.
· Memorymapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si
los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los
datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida
que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.
· DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La
ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las
transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se
puede pasar de más de 2 Mb. por segundo.
· Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del
bus y transfiere los datos con la ayuda de un controlador Bus Master DMA con control propio. Así
se pueden alcanzar velocidades de 8 a 16 Mb. por segundo.
Últimas Tecnologías y Tendencias
La aceleración de los nuevos discos IDE se basan en dos métodos:
· Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA " Canal de e/s
preparado" se acelera el control PIO. Gracias al control de flujo, la parte electrónica de la unidad
de disco puede regular las funciones de transferencia de datos del microprocesador, y el disco
duro puede comunicarse con el bus a mayor velocidad de manera fiable. El standard PIO modo 3
tiene una transferencia teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6
Mbytes, y el futuro PIO modo 5 promete hasta 33 Mbytes / seg.
· El otro método alternativo denominado FAST Multiword DMA con el controlador DMA (acceso
directo a memoria) sustituye al procesador en elgobierno de las transferencias de datos entre el
disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte
velocidades internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en
modo 3.
Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas tecnologías y
campos científicos (mecánica cuántica, aerodinámica, y elevadas velocidades de rotación). La
combinación de estas tecnologías permite que la capacidad de los discos duros aumente cerca de
un 60 % cada año; cada cinco años se multiplica por diez su capacidad. Los analistas esperan que
este ritmo de crecimiento no se mantenga hasta finales de siglo.
Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la superficie del
disco. Los cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean
éstos mayor densidad de datos posible de cada plato. Pero cuanto más cerca estén los cabezales,
mayor será laprobabilidad de colisión con la superficie. Una solución es recubrir el plato
con materiales protectores, rediseñar las características aerodinámicas de los cabezales, etc.
Además el paso de una mayor cantidad de datos por los cabezales exige perfeccionar los
componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada. Además
no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento
normales. Y todo esto a un precio competitivo.
Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos
materiales. Usa cabezales con mejor relación señal /ruidoque los de tipo inductivo, separando los
de lectura de los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la
densidad de almacenamiento. Además son menos sensibles al aumento de la velocidad
permitiendo velocidades de rotación mayores. Sus inconvenientes son su dificultad y alto precio
de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se investiga en una mejora llamada
GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica cuántica.
Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los
platos con materiales antiadherentes derivados delcarbono. Esto junto con las técnicas de
cabezales de grabación en proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual
permiten acercar los cabezales hasta incluso entrar ocasionalmente en contacto con la superficie
del plato.
A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal
respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se
necesita una preparación especial de la superficie del plato.
Estructura Lógica De Los Discos Duros
Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en
diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.
En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes
homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema
operativo del MS-DOS, sería la siguiente:
Sector de Arranque.
Primera tabla de localización de archivos (FAT).
Una o más copias de la FAT.
Directorio Raíz (eventualmente con etiqueta de volumen).
Zona de datos para archivos y subdirectorios.
Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una
parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes
archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes
estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al
tamaño del volumen correspondiente
· El Sector de Arranque: Al formatear un volumen, el sector de arranque se crea siempre como
primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra
información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-
LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de
arranque (BOOT).
· La Tabla de Asignación de Ficheros (File AllocationTable) (FAT) : Si el DOS quiere crear nuevos
archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente
quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se
corresponde con un número determinado de sectores, que son adyacentes lógicamente en el
volumen. Cada uno de estos grupos de sectores se llamaCluster. El tamaño de las diferentes
entradas de esta tabla en las primeras versiones del DOS era de 12 bits. Con lo que se podían
gestionar hasta 4.096Clústeres, correspondiente a una capacidad aproximada de 8 Mbytes. En
vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el
tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters.
Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas
de información.
· Una o más copias de la FAT: El DOS permite a un programa de formateo crear no sólo una, sino
varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias
de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o
borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto
por una de sus copias, para evitar la pérdida de datos.
· El directorio Raíz: La cantidad máxima de entradas en el directorio raíz se limita por su tamaño,
que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de
datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que,
dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del
directorio raíz en relación al volumen.
· La Zona de Datos: Es la parte del disco duro en la que se almacena los datos de un archivo. Esta
zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman
el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores
de un archivo.
Ventajas e Inconvenientes frente a otros sistemas de almacenamiento.
Floppys (Disquetes):
· Ventajas:
- Bajo coste de fabricación.
- Standarización de los formatos; número de cabezas, sectores, cilindros.
- Es extraible y compatibilidad.
· Inconvenientes:
Poca fiabilidad de los datos almacenados.
Una escasa capacidad de almacenamiento.
Unidades de CD-ROM:
· Ventajas:
- Velocidad de lectura similar a los Discos Duros.
- Gran capacidad a muy bajo coste.
- La cabeza lectora no va incorporada en el disco.
· Inconvenientes:
- Es de sólo lectura.
- El disco únicamente re escribible una sola vez.
- El disco de CD-ROM no lleva los cabezales de lectura / escritura incorporados.
Streamers (Unidades de Cinta):
· Ventajas:
- Seguridad en la grabación de los datos.
- Gran capacidad a bajo coste.
· Inconvenientes:
- Los Discos duros son mucho más rápidos en lectura / escritura, ya que la cinta realiza una lectura
secuencia, mientras que la cabeza lectura de los discos duros se posiciona en cualquier parte la
superficie en tiempos casi despreciable
MEMORIA RAM
· Ventajas:
- Mayor rapidez que los discos duros.
· Inconvenientes:
- Elevado coste en relación a su capacidad.
- La información contenida en la memoria es volátil, mientras que el almacenamiento en discos
duros es estática.
- La memoria de un ordenador es 100 veces menor que la capacidad de los discos duros.
Papel:
· Ventajas:
- Portabilidad.
- Suele deteriorarse con más facilidad que un disco duro.
· Inconvenientes:
- No es ecológico,
- Las búsquedas son machismo más lentas.
- El elevado coste en comparación con la capacidad de las páginas de textos, documentos, etc. Que
es capaz de almacenar un disco duro.
ARREGLO REDUNDANTE DE DISCOS INDEPENDIENTES
Que es tecnología RAID?
El concepto de RAID fue desarrollado por un grupo de científicos en la Universidad de California en
Berkley en 1987. Los científicos investigaban usando pequeños HD unidos en un arreglo (definido
como dos o más HD agrupados para aparecer como un dispositivo único para el servidor) y
compararon el desempeño y los costos de este tipo de configuración de almacenamiento con el
uso de un SLED (Single LargeExpensive Disk), común en aplicaciones de MainFrames.
Su conclusión fue que los arreglos de Hd pequeños y poco costosos ofrecían el mismo o un mejor
desempeño que los SLED. Sin embargo, dado que había mas discos usados en un arreglo el MTBDL
(Mean Time Be fore Data Loss) -calculado dividiendo el MTBF (Mean Time BetweenFailures) por el
número de discos en el arreglo- sería inaceptablemente bajo.
Los problemas entonces fueron como manejar el MTBF y prevenir que la falla de un solo HD
causara pérdida de datos en el arreglo. Para mejorar esto, propusieron 5 tipos de arreglos
redundantes, Definiéndolas como RAID Nivel 1 hasta 5. El nivel del RAID es Simplemente
la arquitectura que determina como se logra la redundancia y como los datos están distribuidos a
través de los HD del arreglo.
Adicional al RAID 1 hasta 5, una configuración de arreglo no redundante que emplea partición de
datos (esto es partir los archivos en bloques pequeños y distribuir estos bloques a través de los HD
del arreglo), esto es conocido como RAID 0.
DEFINICIONES:
RAID 0
También llamado partición de los discos, los datos son distribuidos a través de discos paralelos.
RAID 0 distribuye los datos rápidamente a los usuarios, pero no ofrece mas protección a fallas de
hardware que un simple disco.
RAID 1
También llamado Disk mirroring provee la más alta medida de protección de datos a través de una
completa redundancia. Los datos son copiados a dos discos simultáneamente. La disponibilidad es
alta pero el costo también dado que los usuarios deben comprar dos veces la capacidad de
almacenamiento que requieren.
RAID 0/1
Combina Disk mirroring y partición de datos. El resultado es gran disponibilidad al mas alto
desempeño de entrada y de salida para las aplicaciones denegocios mas criticas. A este nivel como
en el RAID 1 los discos so n duplicados. Dado que son relativamente no costosos, RAID 0/1 es una
alternativa para los negocios que necesitan solamente uno o dos discos para sus datos, sin
embargo, el costo puede convertirse en un problema cuando se requieren mas de dos discos.
RAID 3
Logra redundancia sin mirroring completo. El flujo de los datos es particionado a través de todos
los HD de datos en el arreglo. La información extra que provee la redundancia esta escrito en un
HD dedicado a la parida d. Si cualquier HD del arreglo falla, los datos perdidos pueden ser
reconstruidos matemáticamente desde los miembros restantes del arreglo. RAID 3 es
especialmente apropiado para procesamiento de imagen, colección de datos científicos, y otras
aplicaciones en las cuales grandes bloques de datos guardados secuencialmente deben ser
transferidos rápidamente
RAID 5
Todos los HD en el arreglo operan independientemente. Un registro entero de datos es
almacenado en un solo disco, permitiendo al arreglo satisfacer múltiples requerimientos de
entrada y salida al mismo tiempo. La información a cuten de paridad esta distribuida en todos los
discos, aliviando el cuello de botella de acceder un solo disco de paridad durante operaciones de
entrada y salida concurrentes. RAID 5 está bien recomendado paraprocesos de transacciones on-
line, automatización de oficinas, y otras aplicaciones caracterizadas por gran numero de
requerimientos concurrentes de lectura. RAID 5 provee accesos rápidos a los datos y una gran
medida de protección por un costo mas bajo que el Disk Mirroring
RAID 10
La información se distribuye en bloques como en RAID-0 y adicionalmente, cada disco se duplica
como RAID-1, creando un segundo nivel de arreglo. Se conoce como "striping de arreglos
duplicados". Se requieren, dos canales, dos discos para cada canal y se utiliza el 50% de la
capacidad para información de control. Este nivel ofrece un 100% de redundancia de la
información y un soporte para grandes volúmenes de datos, donde el precio no es un factor
importan te. Ideal para sistemas de misión crítica donde se requiera mayor confiabilidad de la
información, ya que pueden fallar dos discos inclusive (uno por cada canal) y los datos todavía se
mantienen en línea. Es apropiado también en escrituras aleatorias pequeñas.
RAID 30
Se conoce también como "striping de arreglos de paridad dedicada". La información es distribuida
a través de los discos, como en RAID-0, y utiliza paridad dedicada, como RAID-3 en un segundo
canal. Proporciona una alta confiabilidad, igual que el RAID-10, ya que también es capaz de tolerar
dos fallas físicas de discos en canales diferentes, manteniendo la información disponible. RAID-30
es el mejor para aplicaciones no interactivas, tales como señales de video, gráficos e imágenes que
procesan secuencialmente grandes archivos y requieren alta velocidad y disponibilidad.
RAID 50
Con un nivel de RAID-50, la información se reparte en los discos y se usa paridad distribuida, por
eso se conoce como "striping de arreglos de paridad distribuida". Se logra confiabilidad de la
información, un buen rendimiento en general y además soporta grandes volúmenes de datos.
Igualmente, si dos discos sufren fallas físicas en diferentes canales, la información no se pierde.
RAID-50 es ideal para aplicaciones que requieran un almacenamiento altamente confiable, una
elevada tasa de lectura y un buen rendimiento en la transferencia de datos. A este nivel se
encuentran aplicaciones de oficinacon muchos usuarios accediendo pequeños archivos, al igual
que procesamiento de transacciones.
Máximas y mínimas cantidades de HD que se pueden ordenar para los diferentes niveles de RAID
Nivel de
RAID
Mínimo Máximo
5 3 16
4 3 N/A
3 3 N/A
2 N/A N/A
1 2 2
0 2 16
0/1 4 16
RAID 0
RAID 1
RAID 10
RAID 3
RAID 5
RAID 50
Introducción
Una de las etapas de la evolución de los sistemas operativos fue la multiprogramación o
multitarea, esto que trajo consigo que se tuviera en cuenta ungrupo de consideraciones a la hora
de concebir los mismos. Así fueron surgiendo distintas estructuras en el diseño, cada una con sus
características particulares.
Protección
En los primeros sistemas de cómputo que se utilizaron no fue necesario tener en cuenta la
problemática de la protección debido a la forma en que se operaban, es decir se ejecutaba sólo
un programa y éste estaba en posesión de todos los recursos existentes (en caso de error, solo se
afectaba él).
Al desarrollarse los sistemas operativos aun cuando se mantuviera un único programa
en memoria (monoprogramación), se comenzaba a compartir recursos. En este caso, el programa
y el sistema operativo comparten la memoria. Si ocurriera un funcionamiento erróneo del
programa y él sobrescribe el área de memoria del sistema operativo, resulta evidente que existirá
un "crash" de éste.
Otro ejemplo simple se puede notar en el caso del procesamiento en lote. Suponga que un
programa cae en un lazo infinito de lectura de tarjetas. Es evidente que tomará todas las que les
pertenecían y las que le siguen.
El compartir recursos aumenta la utilización eficiente de estos, pero a la vez incrementa las
dificultades. Un error en un programa puede afectar a otros trabajos.
En los sistemas operativos que instrumentan la multiprogramación, pueden ocurrir muchas otras
situaciones no tan evidentes como las indicadas, por esto éste se debe proteger y a la vez brindar
protección a todos los programas que se ejecutan. Todo recurso compartido debe ser protegido,
pero al menos deben disponer de esta característica las entradas y salidas, la memoria y la CPU.
La protección de entrada–salida se logra al no permitir que los programas actúen directamente
sobre los dispositivos, sino a través de llamadas a los manejadores de dispositivos que forman
parte del sistema de operación. De esta forma se puede chequear si la solicitud es correcta o no y
evitar que algo vaya mal.
Para evitar que un programa opere directamente con la entrada–salida, las instrucciones
correspondientes se declaran como privilegiadas (esto tiene que estar instrumentado en
el hardware) y por ello sólo podrán ser utilizadas por parte del sistema operativo.
Lo antes indicado quiere decir que el hardware deberá brindar dualidad en el modo en que los
programas se ejecutan. El primero es el modo "kernel" (omonitor, supervisor, sistema, protegido),
y el segundo es el modo usuario. El SO correrá en modo protegido (con derecho a usar
instrucciones privilegiadas) y todos los demás en modo usuario.
Por supuesto que en la CPU existirá un "bit" que en todo momento indicará el modo en que se
está ejecutando. Este se pondrá a 1 ó 0 cada vez que se produzca un cambio entre el SO y otro
programa. Es de suponer que las instrucciones que permiten variar este "bit" son privilegiadas.
Da la impresión que con los aspectos antes indicados ya se tiene garantizada la protección de las
entradas salidas, pero antes de dar tal afirmación se hace necesario estar seguro que ningún
programa usuario pueda ejecutar en modo supervisor. ¿Qué pasaría si a un programa usuario se le
permite realizar direccionamientos al área de memoria del sistema operativo y modificar un vector
de interrupción? Al ocurrir la interrupción, el hardware pasará la ejecución al modo privilegiado
(ya que va a operar el sistema operativo), pero como se cambió el vector de interrupción, nos
encontramos que el programa usuario se hace dueño del sistema de cómputo con
total impunidad.
Para evitar esta situación y otras similares se impone disponer de un mecanismo de protección de
memoria. Es decir, evitar que un programa usuario pueda acceder al área de trabajo del Sistema
Operativo. En los sistemas multiprogramados también se tiene que impedir tal acción en el área
de otro programa.
La solución a esta problemática requiere que el hardware brinde su ayuda. En un ambiente de
monoprogramación es suficiente con la existencia de unregistro tope o registro límite que separe
el área de trabajo del sistema operativo de la correspondiente al programa usuario.
En este caso, generalmente el sistema operativo se ubica en la parte baja de la memoria y a
continuación comenzaría el área del programa usuario. Cada vez que dicho programa realiza un
acceso a memoria, el hardware chequea que la dirección referida no sea menor que la contenida
en el registro a los efectos de permitirlo. Si se detecta el intento de penetrar en el área no
autorizada ocurrirá una trampa invocándose al SO para que decida la situación (generalmente se
elimina al que provoca "la ofensa").
El SO conserva la posibilidad de acceder cualquier posición de memoria (al correr en modo
privilegiado el hardware no lo controla). Por supuesto la carga del registro indicado solo se puede
hacer en modo "kernel".
Si el ambiente de trabajo es multiprogramado, un solo registro no basta. En este caso, se
requieren dos registros, almacenándose en ellos el límite superior e inferior de memoria que le es
permitido acceder al programa que está en ejecución en cada instante de tiempo (su área de
trabajo).
Lo antes indicado presupone que cada vez que pasa el control del CPU de un programa a otro,
el sistema de operación actualice los registros indicados con los nuevos valores requeridos.
En la actualidad existen otros esquemas de protección de memoria con mayores grados de
sofisticación, en la continuación de la asignatura se hará referencia a algunos de ellos.
La protección del procesador tiene como objetivo evitar que un programa usuario caiga en un lazo
de procesamiento infinito adueñándose de éste por tiempo indefinido. Esto se logra por medio de
un reloj ("timer") de hardware que permite detener el procesamiento y regresar el control, vía una
interrupción, al sistema operativo.
Generalmente se instrumenta un reloj variable por medio de uno fijo y un contador. Dicho
contador recibe un valor por parte del sistema operativo y se decrementa con cada golpe del reloj
de intervalo fijo, cuando alcanza el valor cero se emite la interrupción y el sistema operativo
decide la acción a ejecutar. Por supuesto, las instrucciones que permiten modificar el valor del
reloj son privilegiadas.
Procesos. Tablas de procesos
Antes de continuar estudiando otros aspectos relacionados con los sistemas operativos resulta
conveniente puntualizar el concepto de proceso que constituye uno de los más esenciales en
esta materia.
Un proceso es, básicamente, un programa en ejecución y precisamente por esa razón existe la
tendencia a confundir ambos términos. La diferencia consiste en que un proceso incluye además
del programa (secuencia de código ejecutable) los datos, la pila, el contador de programa, los
valoresalmacenados en los registros y todo aquello que refleja el estado de la ejecución en un
instante.
La importancia de este concepto radica en que un programa por si solo no refleja su estado de
ejecución, lo que resulta esencial a los efectos de continuar su procesamiento futuro si en un
determinado momento se le retira el control del procesador (lo que constituye la base de la
multiprogramación).
Para guardar la información de los procesos que en cada instante están siendo atendidos por el
sistema de operación se utiliza la tabla de procesos. Esta no es más que un arreglo o lista
de estructuras donde cada una de ellas contiene los datos que definen el estado de un proceso
determinado. Las informaciones de un proceso se actualizan en numerosos momentos, pero por lo
menos cada vez que se le va a quitar el uso del procesador.
Los campos que componen cada entrada en la tabla de procesos varían de un sistema operativo a
otro y generalmente son numerosos. Resultan típicos algunos como: estado del proceso, valores
de los registros, contador de programa, identificador, área de memoria utilizada, tabla de ficheros
abiertos, directorio actual, etc.
Todo proceso presente en un sistema operativo se identifica por un número entero que se conoce
por el identificador del proceso (PID).
Para ver el PID de los procesos que corren en un sistema Windows (nt) Crl+Shift+Esc y en
el administrador de tares de Windows en el menú:ver/seleccionar columnas y marcar Identificador
de proceso (PID). En Linux: Escribir en una consola ps –A
Generalmente un proceso puede crear uno o más procesos (procesos hijos) que a su vez pueden
crear otros, llegándose a una estructura arbórea.
knoppix@ttyp0[knoppix]$ pstree -ah
init
|-automount --pid-file=/var/run/autofs/_:mnt_:auto.pid --timeout=2 /mnt/auto
|-bash -login
|-bash -login
|-bash -login
|-bash -login
|-(bdflush)
|-kalarm -caption KAlarm -icon kalarm
| `-xmms -p
| `-xmms -p
| |-xmms -p
| |-xmms -p
| |-xmms -p
| `-xmms -p
|-kalarmd
|-kdeinit
| |-kdeinit
| |-kdeinit
| |-kdeinit
| |-kdeinit
| `-kdeinit
| `-bash
| `-pstree -ah
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdeinit
|-kdesud
|-(keventd)
|-(khubd)
|-kmix
|-knotes
|-krandrtray
|-(ksoftirqd_CPU0)
|-(kswapd)
|-(kupdated)
|-pump -i eth0
`-xsession /etc/init.d/xsession start
|-xinitrc /etc/X11/xinit/xinitrc
| `-kwrapperksmserver
`-xsession /etc/init.d/xsession start
`-XFree86 -noreset -xf86config /etc/X11/XF86Config-4 -dpi 75: 0
Ejemplo de estructura de procesos en UNIX (Linux).
Servicios del Sistema Operativo
Como ya se indicó, una de las dos funciones principales de un sistema operativo es servir de
máquina ampliada o virtual, brindando facilidades a losprogramas de los usuarios y a estos. Para
lograr este objetivo, los sistemas operativos se encargan de programar el trabajo con los
diferentes dispositivos existentes en el sistema de cómputo, separando a los usuarios y programas
de esta tarea compleja y tediosa.
Los servicios a usuarios se brindan, básicamente, por medio de los llamados Programas del
Sistema, mientras que a los programas se les brindan a través de las Llamadas al Sistema.
Los programas del sistema constituyen una colección más o menos grande de programas (no
funciones o subrutinas) suministradas por el fabricante (u otra empresa) que permite
realizar operaciones que son comunes a diferentes usuarios, brindando un ambiente más
adecuado para el desarrollo y explotación de aplicaciones.
Los programas del sistema pueden ser divididos en varias categorías, aunque esto también
depende de cada sistema operativo. Algunos posibles gruposserian : Manipulación de ficheros
(crear, eliminar, renombrar, imprimir, etc.), obtención de información de estado (fecha, hora,
memoria disponible, espacio en disco, etc.), editores de texto, etc.
En resumen, los programas del sistema son aquellos que ejecutan las acciones descritas en
los comandos de éste o que aparecen en los menús en el caso de las interfaces gráficas.
Las llamadas al sistema constituyen la interface entre el sistema de operación y los procesos. Estas
generalmente se hacen por medio de instrucciones en lenguaje ensamblador, aunque en algunos
casos existen facilidades que permiten se realicen desde lenguajes de alto nivel.
En el segundo caso antes indicado, se dan las variantes de que existan funciones
o procedimientos predefinidos en biblioteca que realicen las llamadas al sistema como tal (UNIX,
Windows) o el compilador genera directamente las instrucciones necesarias para esto.
Los mecanismos que ponen en ejecución las llamadas al sistema operativo difieren de uno a otro:
? En el OS/360 existe una instrucción especial (SVC) que provoca una trampa hacia el
sistema. El número de la llamada se da en la instrucción.
? En el CP/M no existe una instrucción especial y por ello el número de la llamada se pone
en el registro C y se salta a la dirección 5 de la memoria.
? En MS-DOS se utiliza la instrucción INT seguida de un número de interrupción (21H).
En todos los casos antes indicados, se requiere de la transferencia de parámetros desde o hacía
el procedimiento que instrumenta la llamada. Este pase de parámetros se ejecuta a través de los
registros del procesador o por medio de un bloque o tabla de memoria (pasándose la dirección en
un registro).
El número de llamadas, la forma y tipo de cada una y los posibles agrupamientos de estas
dependen de cada sistema de operación en específico, aunque en forma general se pudieran
catalogar en 4 grupos:
? Control de procesos.
Incluyen operaciones con los procesos tales como: Crear, eliminar, finalizar, abortar, ejecutar,
enviar señal, esperar por señal, etc.
? Manipulación de ficheros.
Incluyen operaciones con los ficheros tales como: Crear, eliminar, abrir, cerrar, renombrar, leer,
escribir, etc.
? Manipulación de dispositivos.
Incluyen operaciones con los dispositivos tales como: Solicitar, liberar, leer, escribir, etc.
? Intercambio de información.
Incluyen operaciones tales como: Conocer la fecha, conocer la hora, conocer atributos de ficheros,
fijar atributos de ficheros, fijar la fecha, etc.
Además de los grupos antes indicados podría haber otros u otras operaciones dentro de estos.
Otros conjuntos podrían ser:
? Manipulación de directorios y sistemas de ficheros.
? Protección.
? Señalización.
La mejor manera de entender la esencia de las llamadas al sistema consiste en hacer una revisión
detallada de las que están presentes en uno o variossistemas operativos y por ello se recomienda
revisar las páginas de la 23 a la 36 del segundo libro de Tanenbaum, donde se presenta la
explicación de las más importantes presentes en la versión 7 del UNIX.
Intérprete de comandos
Uno de los más importantes programas del sistema es el intérprete de comandos. Es el programa
que sirve de interface entre el sistema operativo y los usuarios de éste. Aun cuando algunos
autores no lo consideran parte del sistema de operación (dado que cada usuario podría crear el
suyo), no hay duda que guarda una estrecha relación con éste.
El interprete de comandos toma el control una vez que el sistema operativo ha sido cargado o el
control de una terminal una vez que un usuario se ha identificado en un sistema de tiempo
compartido.
Los intérpretes de comandos han recibido distintos nombres en diferentes sistemas operativos:
interprete de tarjetas de control, intérprete de línea de comando, procesador de comandos de
consola (CPM), "Shell" (UNIX), etc.
La función del intérprete de comandos es en general bastante simple y consiste en tomar la tarjeta
de control o comando, validar si es correcto o no y en el primer caso realizar la ejecución
correspondiente. El código que ejecuta el comando puede formar parte del propio intérprete o
constituye otro programa del sistema.
Los intérpretes de comandos que presentan interfaces con usuarios más amigables, incluyendo
las, hoy, reconocidas interfaces gráficas, tienen una mayor complejidad dada el uso de menús,
botones, "mouse" y otros recursos.
Aun cuando en la mayoría de los sistemas operativos el interprete de comandos pierde el control
de ejecución tan pronto se inicia un comando y no lo recupera hasta que éste finalice, hay algunos
donde el comando se ejecuta en paralelo (como un proceso hijo del interprete). Un ejemplo de
esto está en el UNIX con el uso del símbolo &.
Estructura de un Sistema Operativo
La estructura de un sistema operativo se puede analizar desde el punto de vista funcional y desde
el punto de vista organizativo de los programas que lo componen.
Desde el punto de vista funcional hay que tener en cuenta que los sistemas operativos son
programas manejados por eventos. Si no hay programa que ejecutar, dispositivo al cual
brindar servicio o usuario que atender entonces no hará nada. Los eventos (mensajes o señales)
que lo ponen en acción serán las interrupciones o las trampas. Por lo tanto, los sistemas de
operación son programas manejados por interrupción.
La naturaleza de los sistemas operativos de ser manejados por interrupción determina su
estructura desde el punto de vista funcional.
Cuando una interrupción o trampa ocurre, de inmediato el hardware transfiere el control al
sistema operativo. Este preserva el estado del proceso que se ejecutaba y a continuación realiza el
tratamiento correspondiente.
Pueden ocurrir tipos diferentes de interrupciones, pero pueden agruparse en tres tipos:
? Llamadas al sistema.
? Interrupción de un dispositivo.
? Un error de programa (detectado por hardware).
Las llamadas al sistema, a estos efectos, pueden dividirse en
? Solicitud de terminación normal (realizada por un proceso cuando va a terminar su
ejecución).
? Solicitud de terminación anormal (realizada al detectarse la existencia de un error).
? Solicitud de recursos (si no están disponibles, entonces el proceso deberá esperar).
? Solicitud de información de estado (la información es transferida).
? Solicitud de entrada/salida.
A los efectos de la acción del sistema operativo los casos 3 y 4 se pueden considerar como iguales
(en el libro de Peterson se le llaman solicitudes que no son de entrada/salida).
Teniendo en cuenta lo antes indicado, en la figura 2.4 (página 54) del Peterson se presenta la
estructura del sistema operativo desde el punto de vista funcional.
De aquí que un sistema operativo estará compuesto por al menos de: manejadores de
dispositivos, atención a interrupciones ("handlers"), un conjunto de subrutinas de llamadas al
sistema y el intérprete de comandos o de tarjetas de control. Como es lógico, el sistema de
ficheros también estará presente. La mayoría de los sistemas operativos brindan funciones
adicionales y por ello habrá complejidades aún mayores.
Desde el punto de vista de la organización de los programas, la estructura de un sistema operativo
puede tomar distintas formas. Estas podrían ser:
- Sistemas Monolíticos.
Se caracterizan por la no existencia de estructura. Se escriben como una colección de
procedimientos donde cada uno de ellos puede llamar a cualquier otro que le brinde un servicio
que necesite. En este caso los procedimientos necesitan tener una interface bien definida en
términos de parámetros y resultados.
Aún en esta variante puede existir una pequeña estructura en lo que se refiere a los servicios
brindados por las llamadas al sistema.
- Sistemas de Capas.
Se caracterizan por estar organizados como una jerarquía de capas, cada una construida sobre la
anterior.
El primer sistema construido en esta forma fue el "THE" a cargo de E. W. Dijkstra y sus alumnos (en
1968). En dicho sistema se consideró la existencia de 6 capas:
0.- Asignación del procesador y multiprogramación.
1.- Administración de memoria y tambor magnético.
2.- Comunicación operador - procesos.
3.- Administración de entrada/salida.
4.- Programas usuarios.
5.- El operador.
Una generalización de este concepto fue aplicada en el sistema operativo MULTICS. Se organizó
como una serie de anillos concéntricos, siendo los más internos los de mayor prioridad. Para que
un procedimiento de un nivel pueda llamar a otro más interno lo tiene que hacer a través de una
llamada al sistema.
- Máquinas Virtuales.
En este esquema, el centro del sistema operativo se ejecuta directamente en el hardware
existente y permite el logro de la multiprogramación. Esta, en lugar de ejecutar varios procesos,
crea varias máquinas virtuales en una segunda capa. Estas máquinas virtuales son copias exactas
del hardware original y por ello cada una de ellas puede ejecutar cualquier sistema operativo que
pueda operar en la máquina original.
Este formato es conocido hace tiempo (desde la IBM/360), pero hoy se utiliza para crear máquinas
virtuales que permitan ejecutar en un sistema operativo programas preparados en otro (Windows
lo utiliza para ejecutar programas de MS-DOS o de versiones anteriores).
- Modelo cliente - servidor.
Es una tendencia de los actuales sistemas de operación que consiste en instrumentar la mayoría
de las funciones en procesos usuarios, construyendo un "kernel" mínimo.
Para solicitar un servicio, un proceso usuario (llamado cliente) envía la solicitud al proceso
servidor, el cual realiza el trabajo y le regresa la respuesta. En este modelo la función principal del
"kernel" consiste en manejar la comunicación entre clientes y servidores (y, lógicamente, la
atención a las interrupciones de los dispositivos).
La división del sistema operativo en partes, cada una de las cuales atiende una faceta de éste,
ejecutándose la mayoría de ellos (de los servidores) en modo usuario, permite dos ventajas
importantes.
La primera consiste en que la aparición de un error en una parte no implica necesariamente que
todo el sistema se caiga (que ocurra un "crash"). La segunda consiste en la fácil adaptación de un
sistema de este tipo para su utilización en un medio distribuido.
Conclusiones
A modo de conclusión hemos podido ver la importancia que tiene la protección de la información
que manejan cada uno de los dispositivos que interactúan con el sistema operativo. Vimos el
concepto de proceso y su significado, como hacen las aplicaciones para comunicarse con el SO a
través de las llamadas al sistema y que estructura de diseño siguen estos.
Bibliografía
Sistemas Operativos Modernos, Andrew S. Tanenbaum, pág. 13-27.
Operating system Design and Implementation, Tanenbaum, pág. 14-42.
Operating System Concepts, Peterson and Silberchatz, pág. 39-54
Introducción a los sistemas operativos grado once

More Related Content

What's hot

Diagnostico para mantenimiento de micros
Diagnostico para mantenimiento de micros Diagnostico para mantenimiento de micros
Diagnostico para mantenimiento de micros Alejandro Hidalgo
 
Mantenimiento de un computador
Mantenimiento de un computadorMantenimiento de un computador
Mantenimiento de un computadorDavid Buitrago
 
Mantenimiento preventivo de hardware
Mantenimiento preventivo de hardwareMantenimiento preventivo de hardware
Mantenimiento preventivo de hardwareAlexander Hernandez
 
Trabajo en clase grupal n1
Trabajo en clase grupal n1Trabajo en clase grupal n1
Trabajo en clase grupal n1Andrea Macas
 
Mantenimiento
MantenimientoMantenimiento
MantenimientoITIN
 
Mantenimiento de computadoras( hardware y software).
Mantenimiento de computadoras( hardware y software).Mantenimiento de computadoras( hardware y software).
Mantenimiento de computadoras( hardware y software).Ricardo Jurado
 
Mantenimiento preventivo y correctivo del pc
Mantenimiento preventivo y correctivo del pcMantenimiento preventivo y correctivo del pc
Mantenimiento preventivo y correctivo del pcgabrielalozano21
 
Mantenimiento de computadoras
Mantenimiento de computadorasMantenimiento de computadoras
Mantenimiento de computadorasjasf1995
 
12. mantenimiento correcctivo y preventivo
12. mantenimiento correcctivo y preventivo12. mantenimiento correcctivo y preventivo
12. mantenimiento correcctivo y preventivoArleth Beta
 

What's hot (14)

Diagnostico para mantenimiento de micros
Diagnostico para mantenimiento de micros Diagnostico para mantenimiento de micros
Diagnostico para mantenimiento de micros
 
Mantenimiento de un computador
Mantenimiento de un computadorMantenimiento de un computador
Mantenimiento de un computador
 
Mantenimiento preventivo de hardware
Mantenimiento preventivo de hardwareMantenimiento preventivo de hardware
Mantenimiento preventivo de hardware
 
Trabajo en clase grupal n1
Trabajo en clase grupal n1Trabajo en clase grupal n1
Trabajo en clase grupal n1
 
Mantenimiento
MantenimientoMantenimiento
Mantenimiento
 
Trabajo de informática
Trabajo de informáticaTrabajo de informática
Trabajo de informática
 
Trabajo de Ederli
Trabajo de EderliTrabajo de Ederli
Trabajo de Ederli
 
Mantenimiento de computadoras( hardware y software).
Mantenimiento de computadoras( hardware y software).Mantenimiento de computadoras( hardware y software).
Mantenimiento de computadoras( hardware y software).
 
Brayitan
BrayitanBrayitan
Brayitan
 
Sena
SenaSena
Sena
 
Mantenimiento preventivo y correctivo del pc
Mantenimiento preventivo y correctivo del pcMantenimiento preventivo y correctivo del pc
Mantenimiento preventivo y correctivo del pc
 
Mantenimiento de computadoras
Mantenimiento de computadorasMantenimiento de computadoras
Mantenimiento de computadoras
 
12. mantenimiento correcctivo y preventivo
12. mantenimiento correcctivo y preventivo12. mantenimiento correcctivo y preventivo
12. mantenimiento correcctivo y preventivo
 
Mantenimiento y limpieza
Mantenimiento y limpiezaMantenimiento y limpieza
Mantenimiento y limpieza
 

Similar to Introducción a los sistemas operativos grado once

Mantenimiento de un computador
Mantenimiento de un computadorMantenimiento de un computador
Mantenimiento de un computadorDavid Buitrago
 
Herramientas de diagnostico
Herramientas de diagnosticoHerramientas de diagnostico
Herramientas de diagnosticojenny Paola
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores32141767
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores32141767
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores32141767
 
Soporte de mantenimiento de una computadora
Soporte de mantenimiento de una computadoraSoporte de mantenimiento de una computadora
Soporte de mantenimiento de una computadoracitlalicervantes
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computadorcarlo2323
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computadorcarlo2323
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computadorcarlo2323
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computadorcarlo2323
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computadorcarlo2323
 
Mantenimiento del computador
Mantenimiento del computadorMantenimiento del computador
Mantenimiento del computadormavil0823
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadoresJMPR9310
 
Mantenimientos de computadores
Mantenimientos de computadores Mantenimientos de computadores
Mantenimientos de computadores dianaiii
 

Similar to Introducción a los sistemas operativos grado once (18)

Mantenimiento de un computador
Mantenimiento de un computadorMantenimiento de un computador
Mantenimiento de un computador
 
Herramientas de diagnostico
Herramientas de diagnosticoHerramientas de diagnostico
Herramientas de diagnostico
 
Trabajo de informática
Trabajo de informáticaTrabajo de informática
Trabajo de informática
 
Trabajo de informática
Trabajo de informáticaTrabajo de informática
Trabajo de informática
 
Trabajo de informática
Trabajo de informáticaTrabajo de informática
Trabajo de informática
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores
 
Soporte de mantenimiento de una computadora
Soporte de mantenimiento de una computadoraSoporte de mantenimiento de una computadora
Soporte de mantenimiento de una computadora
 
Presentación1
Presentación1Presentación1
Presentación1
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computador
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computador
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computador
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computador
 
Mantenimiento de computador
Mantenimiento de computadorMantenimiento de computador
Mantenimiento de computador
 
Mantenimiento del computador
Mantenimiento del computadorMantenimiento del computador
Mantenimiento del computador
 
Mantenimiento de computadores
Mantenimiento de computadoresMantenimiento de computadores
Mantenimiento de computadores
 
Mantenimientos de computadores
Mantenimientos de computadores Mantenimientos de computadores
Mantenimientos de computadores
 

More from LUCY PIEDAD MOSQUERA PEREA (17)

Dia de la madre
Dia de la madreDia de la madre
Dia de la madre
 
Donde esta la franja amarilla serna
Donde esta la franja amarilla sernaDonde esta la franja amarilla serna
Donde esta la franja amarilla serna
 
FELIZ DÍA MAMÁ
FELIZ DÍA MAMÁFELIZ DÍA MAMÁ
FELIZ DÍA MAMÁ
 
Fabula las 4 ranas ..
Fabula las 4 ranas ..Fabula las 4 ranas ..
Fabula las 4 ranas ..
 
La cigarra y la hormiga fábula (1)
La cigarra y la hormiga fábula (1)La cigarra y la hormiga fábula (1)
La cigarra y la hormiga fábula (1)
 
Edición de vídeo
Edición de vídeoEdición de vídeo
Edición de vídeo
 
Diseño teoria
Diseño teoriaDiseño teoria
Diseño teoria
 
El mantenimiento preventivo del pc
El mantenimiento preventivo del pcEl mantenimiento preventivo del pc
El mantenimiento preventivo del pc
 
Los medios de comunicación y la escuela
Los medios de comunicación y la escuelaLos medios de comunicación y la escuela
Los medios de comunicación y la escuela
 
Grado 10 segundo periodo
Grado 10 segundo periodoGrado 10 segundo periodo
Grado 10 segundo periodo
 
Sweet home 3 d tuturial de imagenes
Sweet home 3 d tuturial de imagenesSweet home 3 d tuturial de imagenes
Sweet home 3 d tuturial de imagenes
 
Quien es aquellas que mientras yo dormía...
Quien es aquellas que mientras yo dormía...Quien es aquellas que mientras yo dormía...
Quien es aquellas que mientras yo dormía...
 
Trabajo pelicula (dylan guerrero
Trabajo pelicula (dylan guerreroTrabajo pelicula (dylan guerrero
Trabajo pelicula (dylan guerrero
 
Trabajo pelicula (dylan guerrero
Trabajo pelicula (dylan guerreroTrabajo pelicula (dylan guerrero
Trabajo pelicula (dylan guerrero
 
Feliz dia mamas,,,! a ndres jimenez(amin) (1)
Feliz dia mamas,,,! a ndres jimenez(amin) (1)Feliz dia mamas,,,! a ndres jimenez(amin) (1)
Feliz dia mamas,,,! a ndres jimenez(amin) (1)
 
Tecnologia y algo mas
Tecnologia y algo masTecnologia y algo mas
Tecnologia y algo mas
 
Qué es slideshare
Qué es slideshareQué es slideshare
Qué es slideshare
 

Introducción a los sistemas operativos grado once

  • 1. INTRODUCCION A LOS SISTEMAS OPERATIVOS INTRODUCCIÓN El mantenimiento del computador es aquel que debemos realizar al computador cada cierto tiempo, bien sea para corregir fallas existentes o para prevenirlas. El periodo de mantenimiento depende de diversos factores: la cantidad de horas diarias de operación, el tipo de actividad (aplicaciones) que se ejecutan, el ambiente donde se encuentra instalada (si hay polvo, calor, etc.), el estado general (si es un equipo nuevo o muy usado), y el resultado obtenido en el último mantenimiento. Una PC de uso personal, que funcione unas cuatro horas diarias, en un ambiente favorable y dos o menos años de operación sin fallas graves, puede resultar aconsejable realizar su mantenimiento cada dos o tres meses de operación, aunque algunas de las actividades de mantenimiento pudieran requerir una periodicidad menor. En cambio si la PC se usa más de 4 horas diarias, tiene mucho tiempo de operación, se recomienda hacer un mantenimiento por lo menos una vez al mes. No debe considerarse dentro de esta actividad la limpieza externa y el uso sistemático de cubiertas protectoras de polvo, insectos y suciedad ambiental, ni tampoco la realización de copias de seguridad (backup), o la aplicación de barreras anti-virus, proxies o cortafuegos (firewalls) que dependen de las condiciones específicas de operación y entorno ambiental. MANTENIMIENTO DEL PC Se puede definir Mantenimiento del PC como una serie de rutinas periódicas que debemos realizar a la PC, necesarias para que la computadoraofrezca un rendimiento óptimo y eficaz a la hora de su funcionamiento. De esta forma podemos prevenir o detectar cualquier falla que pueda presentar el computador. RAZONES PARA HACER UN MANTENIMIENTO AL PC Las computadoras funcionan muy bien y están protegidas cuando reciben mantenimiento. Si no se limpian y se organizan con frecuencia, el disco durose llena de información, el sistema de archivos se desordena y el rendimiento general disminuye. Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la información estará más desprotegida y será más difícil de recuperar.
  • 2. El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los cuales son: 1. Diagnóstico. 2. Limpieza. 3. Desfragmentación. DIAGNOSTICO La computadora trabaja más de lo que normalmente se cree. Está constantemente dando prioridad a las tareas, ejecutando órdenes y distribuyendo lamemoria. Sin embargo, con el tiempo ocurren errores en el disco duro, los datos se desorganizan y las referencias se vuelven obsoletas. Estos pequeños problemas se acumulan y ponen lento el sistema operativo, las fallas del sistema y software ocurren con más frecuencia y lasoperaciones de encendido y apagado se demoran más. Para que el sistema funcione adecuadamente e incluso para que sobre todo no se ponga tan lento, se debe realizar un mantenimiento periódico. Asegurándonos de incluir en la rutina del mantenimiento estas labores: Exploración del disco duro para saber si tiene errores y solucionar los sectores alterados. Limpieza de archivos. Desfragmentación el disco duro. LIMPIEZA Para garantizar un rendimiento optimo y eficaz de la computadora, debemos mantenerla limpia y bien organizada. Debemos eliminar los programas antiguos, programas que no utilicemos y las unidades de disco para liberar la memoria y reducir la posibilidad deconflicto del sistema. Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden corregir estas son: 1. Poco espacio disponible. 2. Espacio ocupado por archivos innecesarios. 3. Alto porcentaje de fragmentación.
  • 3. Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos archivos innecesarios tenga la computadora, estará más protegida de amenazas como el hurto de la identidad en Internet. Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en ocasiones no especifican la causa), algunas aplicaciones no se inician, o se cierran después de abiertas, etc. Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe bajar del 10% de su capacidad total, y cuando se llega a este límite deben borrarse archivos innecesarios, o desinstalar aplicaciones que no se usen, o comprimir archivos. Todas las aplicaciones de Windows generan archivos temporales. Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios donde se alojan. En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones anormales, o Windows "se cuelga" o por una deficiente programación de la aplicación. Estos archivos temporales deben borrarse del disco duro. Existen otro tipo de archivos que pueden borrarse, y no son temporales: la papelera de reciclaje, el caché de Internet (Windowstemporary internet files) y algunas carpetas que permanecen el disco después que se baja o se instala un programa. El caché de Internet debe borrarse si resulta estrictamente necesario, ya que después de borrado no podrán verse las páginas visitadas sin estar conectado. Debe hacerse mediante la función explícita del navegador, y además ajustarse el tamaño del caché. Un usuario experimentado puede intentar otras posibilidades, como por ejemplo eliminar DLL duplicadas, instaladores, datos de aplicaciones desinstaladas, etc. Debe obrar con mucho cuidado cuando haga esta "limpieza profunda" y si no hay plena seguridad de que un archivo en cuestión puede ser borrado, no debe eliminarlo de la papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su ubicación original si resultara necesario. En general lo que se debe realizar son estas labores: Eliminar los programas antiguos y archivos temporales. Eliminar la información obsoleta
  • 4. Asegurarnos de guardar de manera segura la información. Eliminar las entradas de registro inválidas y los accesos directos dañados. DESFRAGMENTACIÓN De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento. La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de información (aunque este evento no siempre puede detectarse con anticipación). Alto porcentaje de fragmentación: Durante el uso de una PC existe un ininterrumpido proceso de borrado de archivos e instalación de otrosnuevos. Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se fracciona, continuando en el próximo espacio vacío. Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida que aumenta, la velocidad disminuye en razón del incremento de los tiempos de acceso al disco ocasionado por la fragmentación, pudiendo hacerse notable. Todas las versiones de Windows incluyen el desfragmentador de disco. El proceso de desfragmentación total consume bastante tiempo (en ocasiones hasta horas), y aunque puede realizarse como tarea de fondo no resulta conveniente la ejecución simultanea de otro programa mientras se desfragmenta el disco, debiendo desactivarse también el protector de pantalla. CONCLUSIÓN El problema es que las computadoras se han vuelto tan confiables y convenientes, que damos por hecho su operación eficaz. Sin embargo, al igual que una casa o un automóvil, las computadoras ocasionalmente requieren atención. Si se realiza las siguientes labores de mantenimiento con frecuencia la computadora funcionará de manera segura y sin problemas: 1. Diagnóstico. 2. Limpieza. 3. Desfragmentación. De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento.
  • 5. Por esta razón periódicamente debemos utilizar el Scandisk u otro utilitario para detectar si hay errores en el disco duro, y de haberlos tratar de repararlo. Una vez esto hecho procedemos a realizar una limpieza profunda de todos los archivos innecesarios que ponen lento al sistema, tales archivos son: programas antiguos, archivos temporales de internet, instaladores de programas, entrada de registros inválidas, accesos directos dañados, los archivos contenido en la papelera de reciclaje, entre otros. De esta manera conseguiremos una PC más rápida, eficiente, optima, segura y menos propensa a perder información. 1. Antecedentes de la memoria. El aprendizaje se define en términos de los cambios relativamente permanentes debidos a la experiencia pasada, y la memoria es una parte crucial delproceso de aprendizaje, sin ella, las experiencias se perderían y el individuo no podría beneficiarse de la experiencia pasada. A menos de que, de cierta manera, el aprendizaje previo pueda grabarse, no podría utilizarse en fecha posterior y por ello no se estaría en posición de beneficiarse de la experiencia pasada. Sin embargo, es muy difícil tratar de definir el aprendizaje y la memoria de manera independiente uno de otra, ya que ambos representan dos lados de la misma moneda: a) el aprendizaje depende de la memoria para su permanencia y, de manera inversa, B) la memoria no tendría "contenido" si no tuviera lugar el aprendizaje. Por tanto, puede definirse a la memoria como la retención del aprendizaje o la experiencia; En palabras de Blakemore (1988), "En el sentido más amplio, el aprendizaje es la adquisición de conocimiento y la memoria es el almacenamiento de una representación interna de tal conocimiento. Existe otro paralelo interesante entre los dos temas hermanos del aprendizaje y la memoria, a saber, que ambos, tuvieron una prominente representación en los primeros días de la psicología como ciencia. William James (1890), uno de los primeros de la psicología, fue sin lugar a dudas el primero en hacer una distinción formal entre memoria primaria y secundaria, las cuales corresponden, en forma respectiva, a la memoria a corto y a largo plazo; esta distinción reside en el centro del muy influyente modelo de almacenamiento múltiple de Atkinson y Shiffrin (1968). En general, se considera que HermannEbbinghaus (1885) es el pionero en el estudio experimental de la memoria, al haberse utilizado a sí mismo para estudiar fenómenos básicos tales como las curvas de aprendizaje y las curvas de olvido y al inventar sílabas sin sentido para dicho propósito. Durante gran parte de la primera mitad del siglo XX, la memoria no constituyó un tema respetable para los psicólogos experimentales, lo que refleja eldominio del conductismo. Sin embargo, algunos conductictas, en particular en EUA, estudiaron la "conducta verbal" utilizando el aprendizaje de pares asociados, en el cual se representan pares de palabras no relacionadas, donde el primer miembro del par representa el "estímulo" y el segundo la "respuesta". En este enfoque asociacionista hizo que el estudio de la "memoria" tuviera una posición firme dentro del marco conceptual conductista y se le observa de manera más clara en la teoría de interferencia que es una de las principales teorías del olvido.
  • 6. Desde la revolución cognoscitiva en el decenio de 1950, la memoria se ha vuelto un tema integral dentro del enfoque del procesamiento deinformación, cuyo núcleo es la analogía con la computadora. 2. Memoria implícita y explícita. A. Memoria implícita y aprendizaje implícito B. Para Reber, el aprendizaje implícito es un proceso de inducción para adquirir información compleja y abstracta sobre cualquier ambiente, independientemente de la conciencia de los sujetos sobre el proceso de adquisición o sobre la información adquirida. Esto, desde ya, no implica ausencia de atención. Diversos paradigmas experimentales avalan la tesis de que las personas abstraen inconscientemente regularidades ambientales y utilizan esto para controlar la conducta. Para Reber, así, el aprendizaje implícito tendría tres atributos: opera independientemente de la conciencia, produce un conocimiento tácito abstracto que representa el ambiente, y puede usarse implícitamente para solucionarproblemas y tomar decisiones ante nuevos estímulos. En cuanto a la memoria implícita, por ella se entiende la expresión de conocimiento adquirido en un episodio anterior, a través de una prueba que no hace referencia conciente o explícita a tal episodio de aprendizaje. Los estudios sobre el priming de repetición y sobre las disociaciones de la memoria avalan la tesis de la existencia de una memoria implícita o inconsciente. C. Memoria explícita. Es la clase de memoria que se hace consciente y puede ser expresada directamente. A algunos estudiantes les gusta expresar su memoria explícita con sus propias palabras en los exámenes de temas. Otros prefieren elegir las respuestas de una lista, en los exámenes de selección múltiple. Recuperación. El recuerdo puede tomar diferentes formas. Sin embargo, todas son maneras de recuperar o localizar la información que se ha almacenado; también representa diferentes modos de medir la memoria dentro del laboratorio. Reconocimiento: es una manera sensorial de recordar, donde algo o alguien parece familiar sin que necesariamente se le pueda nombrar o identificar de algún modo. O puede reconocerse que ciertos objetos o rostros han estado presentes en una situación de prueba cuando los reactivos meta se encuentran allí junto con otros reactivos distractores (que originalmente no estaban presentes), es el tipo de recuerdo implicado en los exámenes de opción múltiple, las respuestas entre las cuales se tiene que elegir una pueden considerarse como señales de recuperación. Rememoración es la forma más rigurosa de recuerdo y en general incluye la búsqueda activa dentro de los almacenes de memoria. Cuando se rememora, se reproduce algo
  • 7. aprendido tiempo atrás y con frecuencia las señales de recuperación han desaparecido o son muy escasas. Éste es el tipo de recuerdo implicado en los ensayos por un tiempo. Reaprendizaje es la medida más sensible de todas, aun cuando algo parece haberse "olvidado" del todo, puede ser más fácil aprenderlo una segunda vez de lo que lo fue originalmente. En los experimentos por lo común esto se expresa como una: Puntuación De Ahorro = Ensayos Origniales- Ensayos De Aprendizaje/ Ensayos Originales X 100/1 Memoria RECONSTRUCTIVA: Es el tipo de recuerdo implicado cuando la información se pasa de una persona a otra, con frecuencia de boca en boca como en la difusión de rumores o chismes. No es sólo la reproducción simple del pasado sino la interpretación de éste a la luz de las propias creencias, esquemas, expectativas y demás, y por ello, con frecuencia implica una distorsión de la verdad objetiva. Confabulación: Se refiere al tipo de error de memoria que con frecuencia se comete bajo condiciones de alta motivación o excitación, si se es incapaz de recordar cierto asunto, se puede fabricar algo que parezca apropiado. Reintegración: es la reminiscencia de experiencias pasadas con base en unas cuantas señales, que pueden ser recuerdos, olores particulares, melodías, de hecho casi cualquier cosa que pueda servir como recordatorio. Memoria dependiente de señales: se refiere a la similitud o diferencia entre el estado o el contexto en el cual tuvo lugar el aprendizaje original y en el cual se le recuerda. Imaginería: es la base de muchos tipos de estratagemas mnemotécnicos (auxiliares de memoria) y existe mucha evidencia de que se puede recordar mejor el material verbal si se le puede "enganchar" con alguna imagen visual. 3. Procesamiento de información de memorias múltiples. A. Memoria sensorial. B. Aunque la mayor parte de la investigación y teorización se ha concentrado en MCP y MLP, de manera lógica el lugar para comenzar está en lamemoria sensorial, ya que proporciona un informe preciso del ambiente como lo experimenta el sistema sensorial, es decir, se conserva una especie de "copia literal" del estímulo durante un breve periodo después de la exposición; se olvida cualquier información a la que no se presta atención o se procesa todavía más. Por tanto es claro que la memoria sensorial se relaciona en forma estrecha con el registro y es probable que sea más preciso y útil considerarla como parte del proceso de percepción y como un requisito necesario para el almacenamiento en sí. De acuerdo con Lloyd y colaboradores es probable que menos de una centésima de toda la información sensorial que cada segundo impacto contra los sentidos humanos alcance la
  • 8. conciencia y, de esta, sólo una vigésima parte logre llegar a algo que se asemeje a un almacenamiento estable. Es claro que, si la capacidad de memoria se en encontrara limitada a la memoria sensorial, la capacidad para retener información acerca del mundo sería extremadamente limitada, lo mismo que precaria. Sin embargo, de acuerdo con los modelos de memoria tales como el modelo de almacenamiento múltiple de Atkinson y Shiffrin, parte de la información de la memoria sensorial se pasa con éxito a la MCP, lo que permite que se almacene la información durante el tiempo suficiente como para poder utilizarla, y por esta razón con frecuencia se le denomina memoria funcional. Puede mantenerse información de la MCP de 15 a 30 segundos pero puede extenderse mediante ensayo o repetición. Tiene una codificaciónacústica. C. Memoria A Corto Plazo D. Memoria a largo plazo. En general se piensa que la MLP tiene una capacidad ilimitada. Se puede ver como un depósito de todas las cosas en la memoria que no se utilizan en el momento pero que potencialmente pueden recuperarse. Permite recuperar el pasado y utilizar esa información para lidiar con el presente; en cierto sentido, la MLP permite vivir de manera simultánea en el pasado y en el presente. La información puede mantenerse desde unos cuantos minutos hasta varios años (que, de hecho, pueden abarcar la vida entera del individuo). Su codificación es Semántica, Visual y Acústica. 4. Atención asociada a memoria. Se llama atención al proceso por el cual notamos los estímulos importantes e ignoramos los estímulos irrelevantes. Sin ella, nuestras mentes seguramente estarían sumergidas en un agitado y confuso océano de estímulos. En medio del tráfico, salas de fiestas, reuniones e incluso en un tranquilo paseo por el bosque, nuestros sentidos están desbordados con más información de la que nuestra mente puede manejar a su vez. Nos manejamos en esas situaciones porque atendemos selectivamente a la información importante. Como sabemos, los estímulos irrelevantes pueden interferir con los estímulos relevantes. Es difícil concentrarse en una lectura, cuando los estudiantes están susurrando acerca de algo interesante. Sin embargo, a veces, los estímulos irrelevantes pueden ser ignorados. Ansiedad y memoria. La mayoría de nosotros hemos tenido pánico una u otra vez, durante un examen, el pánico es especialmente probable cuando hay mucho en juego. De repente nos sentimos abrumados por el miedo al fracaso. Todo lo que no pudimos recordar en el examen frecuentemente empezará a volver a nuestra mente después de éste, cuando se haya calmado de nuevo. Holmes argumenta que la ansiedad por sí misma, no impide la recuperación. La ansiedad produce extraños pensamientos, tal como "no seré capaz de enfrentarme a mi padre" o "esto no es justo porque he trabajado mucho". Holmes argumenta que estos pensamientos son los que impiden en
  • 9. la recuperación de las respuestas a las preguntas del examen. Hedl y Bartlett hallaron, que la ansiedad reduce la memoria de reconocimiento para las frases incluso cuando la necesidad de recuperación es minimizada. Es importante, por lo tanto, controlar su nivel de ansiedad directamente. Decisión y memoria. Buckhout sostiene que dos testigos con iguales recuerdos podrían decidir cosas bastante diferentes y desarrolló un test para identificar al buen testigo. Basó su test en la Teoría de detección de señales, que hace posible medir los factores de decisión y memoria de forma separadas. Para hacer el test, presentó una película con representación de un crimen y entonces presentó veintidós afirmaciones ciertas y veintidós falsas sobre el incidente. Los testigos puntúan con un acierto si dicen "sí" a una afirmación verdadera y puntúan con un error cuando dicen "sí" a una aseveración falsa. El porcentaje de aciertos y errores se utiliza para calcular la medida de la sensibilidad del testigo. Si los testigos dicen "sí" a la mayoría de las aseveraciones falsas y verdaderas, entonces obviamente, no tienen sensibilidad sobre la certeza de las afirmaciones y su puntuación es 0 Si por otro lado, los testigos casi siempre dicen "sí" a las declaraciones ciertas y casi nunca dicen "sí a las declaraciones falsas, es que son muy sensibles y obtienen una puntuación alta. Esta teoría intenta explicar los juicios perceptivos de las personas mediante el análisis de su sensibilidad a estímulos sensoriales, además de los criterios que utilizan para tomar decisiones. Olvido El olvido se puede comprender como un fracaso para transferir información de la MCP a la MLP, deterioro de la huella, desplazamiento, interferencia, como la pérdida de información una vez que ha ocurrido la transferencia, deterioro por desuso, prevención de la consolidación, o como el fracaso para recuperar información de la MLP (interferencia, olvido motivado, olvido dependiente de señales) o como cambios en recuerdos a LP. En cuanto se refiere a la teoría del deterioro, parece ser que el paso del tiempo en sí no es importante, sino más bien lo que sucede entre el aprendizaje y la rememoración. Éste es el centro de atención de la teoría de interferencia. El olvido dependiente de señales se refiere de manera conjunta al olvido dependiente del estado y del contexto. Los estados psicológicos y fisiológicos representan señales internas y las variables ambientales o contextuales representan señales o rutas externas para recuperar información almacenada. El olvido motivado por represión se basa en la teoría psicoanalítica de Freud y ha estimulado gran cantidad de investigación y debate. La evidencia experimental no representa un fuerte sustento para el concepto, pero la evidencia clínica acerca de amnesia psicogénica, trastorno de estréspostraumático, etcétera, sí constituye una fuente de sustentación. 5. Patologías de la memoria. Las alteraciones más comunes de la memoria son las amnesias: Amnesia anterógrada: imposibilidad para asimilar nueva información. Amnesia Retrógrada: Incapacidad para evocar hechos previamente almacenados.
  • 10. Muchas veces el defecto de memoria no es total, sino parcial, se evidencia dificultad para recordar, no imposibilidad de hacerlo. Es común que las amnesias se acompañen de confabulaciones es decir, completar los espacios vacíos de memoria con recuerdos ficticios o inexactos. También se puede presentar intrusiones, es decir recuerdos falsos dentro de recuerdos verdaderos. La amnesia en individuos jóvenes es usualmente causada por traumatismos craneanos, en personas de mayor edad pude acompañar al síndrome de demencia cuya forma más común es la enfermedad de alzhéimer o también se presenta en la enfermedad de Huntington. ¿Cómo mejorar la memoria? No nacemos con buena o mala memoria, por lo tanto podemos aprender a mejorarla utilizando diversas estrategias. Por otra parte tenemos que saber que cuando tenemos mucho estrés o estamos preocupados por diversos problemas, nuestra memoria se ve afectada y tendemos a recordar peor. A continuación lo que vamos a hacer es aprender a poner en práctica una serie de estrategias: 1-En la fase de CODIFICACIÓN, lo más importante es prestar atención a la información que nos llega y que queremos retener. Podemos entre otras cosas: -No atender a varias cosas a la vez, pues no haremos bien ninguna. -No preocuparnos excesivamente por los problemas, pues dificulta el registro de la información. -Realizar ejercicios de atención, entrenarla. Podemos por ejemplo, -Leer el periódico, fijarnos en nombres propios y recordarlos después. -Tachar todas las letras mayúsculas de un texto; -Hacer ejercicios de sopas de letras, en los que se buscan palabras. En fin, tareas sencillas que nos ayudan a mantener nuestra atención para poder ponerla después a trabajar en nuestro quehacer diario. 2-En la fase de RETENCIÓN, se pueden utilizar diversos mecanismos, como: -Asociación: se trata de asociar la información que nos llega con otra que nos resulte más familiar, por ejemplo, asociar el nombre de una persona con alguien conocido, un número de teléfono con alguna fecha conocida, edad, número de piso, etc. -Categorización: lo que tenemos que hacer es ordenar las cosas según un criterio, utilizando las características comunes a los objetos. Por ejemplo, recordar la lista de la compra, agrupando por categorías las frutas, carnes, lácteos, artículos de limpieza, etc. -Verbalización-Repetición: en este caso, al realizar la acción, repetir en voz alta lo que estamos haciendo. -Visualización: Se trata de "ver mentalmente" aquello que queremos recordar. Por ejemplo, para saber cuantas puertas hay en casa, podemos recorrer la casa mentalmente y "ver" las puertas de cada habitación; si queremos recordar un objeto, lo imaginamos, lo vemos mentalmente con todos sus detalles; o imaginar una cara con sus ojos, nariz, etc. para recordarla después. 3-En la fase de RECUERDO, lo que tratamos de hacer es evocar la información que hemos registrado en las anteriores etapas. Debemos buscar referencias e indicios que hemos recogido en las fases de registro y retención, debemos repensar, volver al último lugar donde hemos estado,
  • 11. etc. Pero para esto es muy importante tener en cuenta lo siguiente: -La tensión y el estrés nos hace sufrir, nos producen alteraciones de todo tipo, tanto psicológicas como orgánicas. Así mismo, producen trastornos en la memoria, pues dificultan la fase de registro. Por tanto, debemos aprender a estar más tranquilos. Podemos aprender a relajarnos. -Las cosas se nos olvidan por varias razones, entre ellas, la falta de uso, interferencias entre lo antiguo y lo nuevo, fallos en alguna fase de la memoria, etc. Sin embargo, debemos tener en cuenta que olvidar también es necesario. No podríamos mantener a lo largo de la vida todo lo que entra por nuestros sentidos. Lo que tenemos que procurar es recordar lo importante y olvidar lo que no sirve para nada. Una vez que conocemos las fases de la memoria y los aspectos que pueden estar influyendo en nuestro rendimiento, seguramente nos vamos a preguntar qué hacemos en concreto en esas situaciones en la que tenemos pequeños olvidos cotidianos, y que afectan en gran medida a nuestro bienestar diario, por ser un reto para nuestra memoria. 1. Los discos (plotters) 2. Las cabezas (heads) 3. El eje 4. Como funciona un disco duro. 5. Memoria RAM 6. Arreglo redundante de discos independientes 7. Definiciones
  • 12. INTRODUCCION Siempre que se enciende el computador, los discos sobre los que se almacenan los datos giran a una gran velocidad (a menos que disminuyan supotencia para ahorrar electricidad). Los discos duros de hoy, con capacidad de almacenar multigigabytes mantienen el mínimo principio de una cabeza de Lectura/Escritura suspendida sobre una superficie magnética que gira velozmente con precisión microscópica. Pero hay un aspecto de los discos duros que probablemente permanecerá igual. A diferencia de otros componentes de la PC que obedecen a loscomandos del software, el disco duro hace ruidos cuando emprende su trabajo. Estos ruidos son recordatorio de que es uno de los pocos componentes de una PC que tiene carácter mecánico y electrónico al mismo tiempo Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento secundario. Al disco duro se le conoce con gran cantidad de denominaciones como disco duro, rígido (frente a los discos flexibles o por su fabricación a base de una capa rígida de aluminio), fijo (por su situación en el ordenador de manera permanente). Estas denominaciones aunque son las habituales no son exactas ya que existen discos de iguales prestacionespero son flexibles, o bien removibles o transportables, u otras marcas diferentes fabricantes de cabezas. Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y grandes ordenadores. Para conectar un disco duro a un ordenador es necesario disponer de una tarjeta
  • 13. controladora. La velocidad de acceso depende en gran parte de la tecnología del propio disco duro y de la tarjeta controladora asociada al disco duro. Estos están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las cabezas de lectura/escritura que mediante un proceso electromagnético codifican / decodifican la información que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está muy cerca de la superficie, de forma que casi vuela sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo puede dañarlos. Unidad de disco duro: Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último). Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera. En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector. Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda. hara leer, se mide la corriente inducida por el campo magnético de la celda. Es decir que al pasar sobre una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una corriente que provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado por dicha corriente.
  • 14. Los componentes físicos de una unidad de disco duro son: LOS DISCOS (Platters) Están elaborados de compuestos de vidrio, cerámica o aluminio finalmente pulidos y revestidos por ambos lados con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que los hace guiar a una velocidad constante entre las 3600 y 7200 RPM. Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control. LAS CABEZAS (Heads) Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los discos. La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco, sin embargo algunos discos de alto desempeño tienen dos o más cabezas sobre cada superficie, de manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento radial. Las cabezas de Lectura/Escritura no tocan el disco cuando este esta girando a toda velocidad; por el contrario, flotan sobre una capa de aire extremadamente delgada(10 millonésima de pulgada). Esto reduce el desgaste en la superficie del disco durante la operación normal, cualquier polvo o impureza en el aire puede dañar suavemente las cabezas o el medio. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.
  • 15. EL EJE Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco. "ACTUADOR" (actuator) Es un motor que mueve la estructura que contiene las cabezas de lectura entre el centro y el borde externo de los discos. Un "actuador" usa la fuerza de un electromagneto empujado contra magnetos fijos para mover las cabezas a través del disco. La controladora manda más corriente a través del electromagneto para mover las cabezas cerca del borde del disco. En caso de una perdida de poder, un resorte mueve la cabeza nuevamente hacia el centro del disco sobre una zona donde no se guardan datos. Dado que todas las cabezas están unidas al mismo "rotor" ellas se mueven al unísono. Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros: Cilindros (cylinders) El par de pistas en lados opuestos del disco se llama cilindro. Si el HD contiene múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno encima de otra (2n pistas). Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las cabezas de Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las pistas del cilindro sin mover el rotor. Como resultado los HD de múltiples discos se desempeñan levemente más rápido que los HD de un solo disco. Pistas (tracks) Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven entre la pista más externa ó pista cero a la mas interna. Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster. Sectores (sectors) Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los datos en pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512 bytes. La
  • 16. controladora del H D determina el tamaño de un sector en el momento en que el disco es formateado. Algunosmodelos de HD le permiten especificar el tamaño de un sector. Cada pista del disco esta dividida en 1 ó 2 sectores dado que las pistas exteriores son más grandes que las interiores, las exteriores contienen más sectores. Distribución de un disco duro Cluster Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La siguiente tabla nos muestra esta relación. Tamaño del Drive MB Tipo de FAT bits Sectores por Cluster Tamaño del Cluster Kb 0 –15 12 8 4 16-127 16 4 2 128-255 16 8 4 256-511 16 16 8 512-1023 16 32 16 1024-2048 16 64 32
  • 17. MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de búsqueda, latencia y transferencia. Estas medidas también aparecen en las advertencias, comparaciones y en las especificaciones. Tiempo de acceso (access time) Termino frecuentemente usado en discusiones de desempeño, es el intervalo de tiempo entre el momento en que un drive recibe un requerimiento por datos, y el momento en que un drive empieza a despachar el dato. El tiempo de acceso de un HD es una combinación de tres factores: 1- Tiempo de Búsqueda (seek time) Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda variara en cada búsqueda. En la actualidad, el tiempo promedio de búsqueda para cualquier búsqueda arbitraria es igual al tiempo requerido para mirar a través de la tercera parte de las pistas. Los HD de la actualidad tienen tiempos de búsqueda pista a pista tan cortos como 2 milisegundos y tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje completo entre la pista más interna y la más externa) cercano a 15 milisegundos. 2- Latencia (latency) Cada pista en un HD contiene múltiples sectores una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas permanecen en el lugar e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera se llama latencia. La latencia promedio es igual al tiempo que le toma al disco hacer media revolución y es igual en aquellos drivers que giran a la misma velocidad. Algunos de los modelos más rápidos de la actualidad tienen discos que giran a 10000 RPM o más reduciendo la latencia. 3- CommandOverhead Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye determinar la localización física del dato en el disco correcto, direccionar al "actuador" para mover el rotor a la pista correcta, leer el dato, redireccionarlo al computador. Transferencia Los HD también son evaluados por su transferencia, la cual generalmente se refiere al tiempo en la cual los datos pueden ser leídos o escritos en el drive, el cual es afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso. La mayoría de los HD actuales incluyen una cantidad pequeña de RAM que es usada como cache o almacenamiento temporal. Dado que los computadores y los HD se comunican por un bus de Entrada/Salida, el tiempo de transferencia actual entre ellos esta limitado por el máximo tiempo de transferencia del bus, el cual en la mayoría de los casos es mucho más lento que el tiempo de transferencia del drive.
  • 18. COMO FUNCIONA UN DISCO DURO. 1. Una caja metálica hermética protege los componentes internos de las partículas de polvo; que podrían obstruir la estrecha separación entre las cabezas de lectura/escritura y los discos, además de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento magnético de un disco. 2. En la parte inferior de la unidad, una placa de circuito impreso, conocida también como placa lógica, recibe comandos del controlador de la unidad, que a su vez es controlado por el sistema operativo. La placa lógica convierte estos comandos en fluctuaciones de tensión que obligan al actuador de las cabezas a mover estas a lo largo de las superficies de los discos. La placa también se asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad constante y de que la placa le indique a las cabezas de la unidad en que momento deben leer y escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el controlador de disco forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado a un motor eléctrico hacen que los discos revestidos magnéticamente giren a varios miles de vueltas por minuto. El número de discos y la composición del material magnético que lo s recubre determinan la capacidad de la unidad. Generalmente los discos actuales están recubiertos de una aleación de aproximadamente la tresmillonésima parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira del grupo de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos sobre la superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los extremos de los brazos móviles se deslizan a la vez a lo largo de las superficies de los discos giratorios del HD. Las cabezas escriben en los discos los datos procedentes del controlador de disco alineando las partículas magnéticas sobre las superficies de los discos; las cabezas leen los datos mediante la detección de las polaridades de las partículas ya alineadas. 6. Cuando el usuario o su software le indican al sistema operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de la unidad, o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT para determinar en que Cluster del disco comienza un archivo preexistente, o que zonas del disco están disponibles para albergar un nuevo archivo. 7. Un único archivo puede diseminarse entre cientos de Cluster independientes dispersos a lo largo de varios discos. El sistema operativo almacena el comienzo de un archivo en los primeros Cluster que encuentra enumerados como libres en la FAT. Esta mantiene un registro encadenado de los Cluster utilizados por un archivo y cada enlace de la cadena conduce al siguiente Cluster que contiene otra parte mas del archivo. Una vez que los datos de la FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para que omita la operación de las cabezas de lectura/escritura a lo largo de la superficie de los discos, leyendo o escribiendo los Cluster sobre los discos que giran después de las cabezas. Después de escribir un nuevo archivo en el disco, el sistema operativo vuelve a enviar las cabezas de lectura/escritura a la FAT, donde elabora una lista de todos los Cluster del archivo.
  • 19. INTERFAZ ENHANCED INTEGRATED DRIVE ELECTRONICS (EIDE) La norma IDE fue desarrollada por Western Digital y CompaqComputers a partir de una interfaz de disco del AT original que IBM creó en 1984. Desde entonces se convirtió en la interfaz más utilizada en el entorno PC. A pesar de esto IDE presenta unas limitaciones debido a su dependencia de la BIOS y al diseño del que parte. Hace poco las limitaciones en el tamaño de los HD y la velocidad de transferencia no daba problemas, pero como se han mejorado los procesadores y han salido programas más complejos, ya se notan. Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la interfaz establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI (ATA Packed Interfaz), que permite conectar unidades de CD-ROM a controladores ATA. ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el tipo de periférico que prestan las E/S); según su esquema de translación de direcciones se pueden encontrar dos métodos en ATA-2: - Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se transforman los parámetros de CHS de la BIOS en los de la unidad. Como ventaja tiene su sencillez. - Mediante LBA(Logical Block Address). Consiste en transformar los parámetros CHS en una dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de los dispositivos, etc. En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528 Mb. Ventajas De Enhanced IDE: *Máximo cuatro dispositivos conectados *Soporta CD-ROM y cinta *Transparencia de hasta 16.6 Mbps *Capacidad máxima de 8.4 Gbytes Velocidades en ATA-2 *11.1 con PIO Modo3 *13.3 Mbps con DMA Modo1 *16.6 Mbps con PIO Modo4 DEFINICIONES DE TERMINOS
  • 20. ATA (AT Attachment), dispositive de AT. Es el dispositivo IDE que más se usa en la actualidad, por los que a veces se confunde con el propio IDE. Originalmente se creó para un bus ISA de 16 bits. ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión del protocolo ATA para conseguir una serie de comandos yregistros que controlen el funcionamiento de un CD-ROM, es fácilmente adaptable para una cinta de Backup. DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente integrado en un periférico que libera al procesador en la tarea de transferir datos entre dispositivos y memoria. El acceso se realiza por bloque de datos.</ P> PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente encargado de ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la DMA requiere atención del procesador para su funcionamiento. Como contrapartida es mucho más sencillo y barato. Controladoras La interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. Define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa madre. Se encuentran gobernados por una controladora y un determinado interface que puede ser: · ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo. Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo de interface. · ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar. · IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2. Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de
  • 21. acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia. Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones: * El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora la unidad de disco. * El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la unidad. Debido a la dificultad que entraña la implementación de la compatibilidad LBA en BIOS, muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS. El techo de la capacidad que permite las soluciones CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes. · SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y mejorada de este interface. Es el interface con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar verdaderamente sólido. Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg. Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador realmente no suele ser más que un adaptador principal para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre ambos es: INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel de dispositivo.
  • 22. INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema. Distribución de la Información: Grabación y Acceso. Para grabar información en la superficie, se siguen una serie de códigos, que transforman un patrón de bits en una secuencia de celdas con diferentes estados de magnetización. Procesos de grabación · GCR (GroupCodingRecording - Codificación de grupo de grabación) Es un proceso de almacenamiento en el que los bits se empaquetan comogrupos y son almacenados bajo un determinado código. · ZBR (Zone Bit Recording) Es un proceso de almacenamiento que coloca más sectores sobre las pistas exteriores del disco que son más largas, pero mantienen un valor constante de rotación. Esta diseñado para colocar más datos sobre el disco, sólo puede usarse con interfaces inteligentes. Proceso de Codificación · FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo para cada uno, y el omitir el cambio de flujo para cada cero. Esteprocedimiento se puede realizar con una electrónica de control relativamente simple, pero tiene el inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho la capacidad del disco. · MFM (ModifiedFrequencyModulation - Modulación de frecuencia modificada) Método de codificación magnética de la información que crea una correspondencia 1 a 1 entre los bits de datos y transiciones de flujo (cambios magnéticos) sobre un disco. Emplea una menor densidad de almacenamiento y presenta una velocidad más baja de transferencia que el RLL. Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit de datos es almacenado sobre una región física lo suficientemente grande para contener 2 posibles posiciones 00, 01 ó 10. Entre cada 2 bits de datos hay un bit que se llama de "reloj" y que se usa para validar las lecturas, así como para sincronizarlas. Este bit hace que sea uno cuando está situado entre 2 bits de datos a cero y se hace cero cuando está situado entre cualquier otra combinación de bits de datos. Así se hace imposible que se puedan leer más de 3 bits consecutivos con un valor de cero, o más de un bit seguido a uno. Esto es cierto para todas las informaciones almacenadas en el disco excepto para las áreas de control del mismo cuyas marcas de comienzo de pista, sector y datos tienen 4 bits consecutivos a cero en su "adressmark". Evidentemente, estos sistemas, aunque fiables, son unos grandes consumidores de espacio ya que emplean prácticamente la mitad del espacio en bits de reloj.
  • 23. · RLL: (RunLengthLimited - Longitud recorrido limitado) Método de codificar la información magnéticamente que usa GCR para almacenar bloques en vez de bits individuales de datos. Permite densidades mayores de almacenamiento y velocidades más altas de transferencia que MFM. En la práctica, permite incrementar en un 50% la capacidad de un disco respecto al sistema de grabación MFM. Los métodos de grabación RLL utilizan un conjunto complejo de reglas para determinar el patrón de pulsos para cada bit basado en los valores de los bits precedentes. Este sistema se puede clasificar dependiendo de la distancia máxima y mínima de silencios entre dos pulsos, por ejemplo; el RLL 2,7 tiene una distancia mínima entre pulsos de 2 silencios y una máxima de 7. Datos de control del disco Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos. En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia. Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control. Entre la información que se encuentran dentro de un sector: · Numero de sector y cilindro · El ECC (Error CorrectionCode) DATA. · La zona de datos · Zonas de separación entre zonas o entre pistas También existen pistas extra donde se recogen otras informaciones como: · Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL. · Pistas de reserva, normalmente usadas como reserva de sectores defectuosos. · Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad.
  • 24. Tiempos de acceso, Velocidades y su medición Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias. · Tiempo de búsqueda de pista a pista: intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente. · Tiempo medio de acceso: tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUMÒ usan discos de menos de 20 milisegundos. · Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco. · Latencia Promedio: Es el promedio de tiempo para que el disco una vez en la pista correcta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de transferencia: velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores: la velocidad de rotación y la densidad de almacenamiento de los datos en una pista 3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos) Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados anteriormente sería: T.Pista T.MAcceso Rotación Latencia V.Transfrencia FD 360k HD AT 30 6-12 mls 8-10 mls 93 mls 40-28 mls 300 rpm 3600 rpm 100 mls 8,3 mls 125-250 Kb / seg 1-5 Mb / seg El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la velocidad y la precisión de los engranajes del cabezal. La latencia depende de la velocidad de rotación y equivale a la mitad del tiempo que tarda el disco en describir un giro completo. El rendimiento total también depende de la disposición de los dominios magnéticos, uso de ZBR. Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600 rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400 rpm (un 50% más rápida) y por tanto su latencia es de 5,6 milisegundos. Algunos discos siguen usando los 3600 rpm para consumir menos energía.
  • 25. RPM 1 Vuelta cada Latencia 3600 16,66 mseg. 8,33 mseg. 4500 13,33 mseg. 6,66 mseg. 5400 11,11 mseg. 5,55 mseg. 7200 8,33 mseg. 4,16 mseg. 10000 6,00 mseg. 3,00 mseg. El trabajar a velocidades elevadas plantea varios problemas: El primer problema es que a esta velocidad la disipación del calor se concierte en un problema. El segundo es que exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían demasiado rápido. Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o cachés. · Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving. · Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad. Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos: · Programad I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbyte. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbyte / seg.
  • 26. · Memorymapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg. · DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo. · Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un controlador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo. Últimas Tecnologías y Tendencias La aceleración de los nuevos discos IDE se basan en dos métodos: · Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA " Canal de e/s preparado" se acelera el control PIO. Gracias al control de flujo, la parte electrónica de la unidad de disco puede regular las funciones de transferencia de datos del microprocesador, y el disco duro puede comunicarse con el bus a mayor velocidad de manera fiable. El standard PIO modo 3 tiene una transferencia teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5 promete hasta 33 Mbytes / seg. · El otro método alternativo denominado FAST Multiword DMA con el controlador DMA (acceso directo a memoria) sustituye al procesador en elgobierno de las transferencias de datos entre el disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte velocidades internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en modo 3. Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas tecnologías y campos científicos (mecánica cuántica, aerodinámica, y elevadas velocidades de rotación). La combinación de estas tecnologías permite que la capacidad de los discos duros aumente cerca de un 60 % cada año; cada cinco años se multiplica por diez su capacidad. Los analistas esperan que este ritmo de crecimiento no se mantenga hasta finales de siglo. Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la superficie del disco. Los cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean éstos mayor densidad de datos posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será laprobabilidad de colisión con la superficie. Una solución es recubrir el plato con materiales protectores, rediseñar las características aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por los cabezales exige perfeccionar los componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada. Además
  • 27. no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento normales. Y todo esto a un precio competitivo. Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos materiales. Usa cabezales con mejor relación señal /ruidoque los de tipo inductivo, separando los de lectura de los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la densidad de almacenamiento. Además son menos sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica cuántica. Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los platos con materiales antiadherentes derivados delcarbono. Esto junto con las técnicas de cabezales de grabación en proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los cabezales hasta incluso entrar ocasionalmente en contacto con la superficie del plato. A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se necesita una preparación especial de la superficie del plato. Estructura Lógica De Los Discos Duros Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos. En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo del MS-DOS, sería la siguiente: Sector de Arranque. Primera tabla de localización de archivos (FAT). Una o más copias de la FAT. Directorio Raíz (eventualmente con etiqueta de volumen). Zona de datos para archivos y subdirectorios. Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes
  • 28. estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente · El Sector de Arranque: Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP- LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT). · La Tabla de Asignación de Ficheros (File AllocationTable) (FAT) : Si el DOS quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llamaCluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. Con lo que se podían gestionar hasta 4.096Clústeres, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas de información. · Una o más copias de la FAT: El DOS permite a un programa de formateo crear no sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para evitar la pérdida de datos. · El directorio Raíz: La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen. · La Zona de Datos: Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo. Ventajas e Inconvenientes frente a otros sistemas de almacenamiento. Floppys (Disquetes): · Ventajas: - Bajo coste de fabricación.
  • 29. - Standarización de los formatos; número de cabezas, sectores, cilindros. - Es extraible y compatibilidad. · Inconvenientes: Poca fiabilidad de los datos almacenados. Una escasa capacidad de almacenamiento. Unidades de CD-ROM: · Ventajas: - Velocidad de lectura similar a los Discos Duros. - Gran capacidad a muy bajo coste. - La cabeza lectora no va incorporada en el disco. · Inconvenientes: - Es de sólo lectura. - El disco únicamente re escribible una sola vez. - El disco de CD-ROM no lleva los cabezales de lectura / escritura incorporados. Streamers (Unidades de Cinta): · Ventajas: - Seguridad en la grabación de los datos. - Gran capacidad a bajo coste. · Inconvenientes: - Los Discos duros son mucho más rápidos en lectura / escritura, ya que la cinta realiza una lectura secuencia, mientras que la cabeza lectura de los discos duros se posiciona en cualquier parte la superficie en tiempos casi despreciable MEMORIA RAM · Ventajas: - Mayor rapidez que los discos duros. · Inconvenientes:
  • 30. - Elevado coste en relación a su capacidad. - La información contenida en la memoria es volátil, mientras que el almacenamiento en discos duros es estática. - La memoria de un ordenador es 100 veces menor que la capacidad de los discos duros. Papel: · Ventajas: - Portabilidad. - Suele deteriorarse con más facilidad que un disco duro. · Inconvenientes: - No es ecológico, - Las búsquedas son machismo más lentas. - El elevado coste en comparación con la capacidad de las páginas de textos, documentos, etc. Que es capaz de almacenar un disco duro. ARREGLO REDUNDANTE DE DISCOS INDEPENDIENTES Que es tecnología RAID? El concepto de RAID fue desarrollado por un grupo de científicos en la Universidad de California en Berkley en 1987. Los científicos investigaban usando pequeños HD unidos en un arreglo (definido como dos o más HD agrupados para aparecer como un dispositivo único para el servidor) y compararon el desempeño y los costos de este tipo de configuración de almacenamiento con el uso de un SLED (Single LargeExpensive Disk), común en aplicaciones de MainFrames. Su conclusión fue que los arreglos de Hd pequeños y poco costosos ofrecían el mismo o un mejor desempeño que los SLED. Sin embargo, dado que había mas discos usados en un arreglo el MTBDL (Mean Time Be fore Data Loss) -calculado dividiendo el MTBF (Mean Time BetweenFailures) por el número de discos en el arreglo- sería inaceptablemente bajo. Los problemas entonces fueron como manejar el MTBF y prevenir que la falla de un solo HD causara pérdida de datos en el arreglo. Para mejorar esto, propusieron 5 tipos de arreglos redundantes, Definiéndolas como RAID Nivel 1 hasta 5. El nivel del RAID es Simplemente la arquitectura que determina como se logra la redundancia y como los datos están distribuidos a través de los HD del arreglo.
  • 31. Adicional al RAID 1 hasta 5, una configuración de arreglo no redundante que emplea partición de datos (esto es partir los archivos en bloques pequeños y distribuir estos bloques a través de los HD del arreglo), esto es conocido como RAID 0. DEFINICIONES: RAID 0 También llamado partición de los discos, los datos son distribuidos a través de discos paralelos. RAID 0 distribuye los datos rápidamente a los usuarios, pero no ofrece mas protección a fallas de hardware que un simple disco. RAID 1 También llamado Disk mirroring provee la más alta medida de protección de datos a través de una completa redundancia. Los datos son copiados a dos discos simultáneamente. La disponibilidad es alta pero el costo también dado que los usuarios deben comprar dos veces la capacidad de almacenamiento que requieren. RAID 0/1 Combina Disk mirroring y partición de datos. El resultado es gran disponibilidad al mas alto desempeño de entrada y de salida para las aplicaciones denegocios mas criticas. A este nivel como en el RAID 1 los discos so n duplicados. Dado que son relativamente no costosos, RAID 0/1 es una alternativa para los negocios que necesitan solamente uno o dos discos para sus datos, sin embargo, el costo puede convertirse en un problema cuando se requieren mas de dos discos. RAID 3 Logra redundancia sin mirroring completo. El flujo de los datos es particionado a través de todos los HD de datos en el arreglo. La información extra que provee la redundancia esta escrito en un HD dedicado a la parida d. Si cualquier HD del arreglo falla, los datos perdidos pueden ser reconstruidos matemáticamente desde los miembros restantes del arreglo. RAID 3 es especialmente apropiado para procesamiento de imagen, colección de datos científicos, y otras aplicaciones en las cuales grandes bloques de datos guardados secuencialmente deben ser transferidos rápidamente RAID 5 Todos los HD en el arreglo operan independientemente. Un registro entero de datos es almacenado en un solo disco, permitiendo al arreglo satisfacer múltiples requerimientos de entrada y salida al mismo tiempo. La información a cuten de paridad esta distribuida en todos los discos, aliviando el cuello de botella de acceder un solo disco de paridad durante operaciones de entrada y salida concurrentes. RAID 5 está bien recomendado paraprocesos de transacciones on- line, automatización de oficinas, y otras aplicaciones caracterizadas por gran numero de
  • 32. requerimientos concurrentes de lectura. RAID 5 provee accesos rápidos a los datos y una gran medida de protección por un costo mas bajo que el Disk Mirroring RAID 10 La información se distribuye en bloques como en RAID-0 y adicionalmente, cada disco se duplica como RAID-1, creando un segundo nivel de arreglo. Se conoce como "striping de arreglos duplicados". Se requieren, dos canales, dos discos para cada canal y se utiliza el 50% de la capacidad para información de control. Este nivel ofrece un 100% de redundancia de la información y un soporte para grandes volúmenes de datos, donde el precio no es un factor importan te. Ideal para sistemas de misión crítica donde se requiera mayor confiabilidad de la información, ya que pueden fallar dos discos inclusive (uno por cada canal) y los datos todavía se mantienen en línea. Es apropiado también en escrituras aleatorias pequeñas. RAID 30 Se conoce también como "striping de arreglos de paridad dedicada". La información es distribuida a través de los discos, como en RAID-0, y utiliza paridad dedicada, como RAID-3 en un segundo canal. Proporciona una alta confiabilidad, igual que el RAID-10, ya que también es capaz de tolerar dos fallas físicas de discos en canales diferentes, manteniendo la información disponible. RAID-30 es el mejor para aplicaciones no interactivas, tales como señales de video, gráficos e imágenes que procesan secuencialmente grandes archivos y requieren alta velocidad y disponibilidad. RAID 50 Con un nivel de RAID-50, la información se reparte en los discos y se usa paridad distribuida, por eso se conoce como "striping de arreglos de paridad distribuida". Se logra confiabilidad de la información, un buen rendimiento en general y además soporta grandes volúmenes de datos. Igualmente, si dos discos sufren fallas físicas en diferentes canales, la información no se pierde. RAID-50 es ideal para aplicaciones que requieran un almacenamiento altamente confiable, una elevada tasa de lectura y un buen rendimiento en la transferencia de datos. A este nivel se encuentran aplicaciones de oficinacon muchos usuarios accediendo pequeños archivos, al igual que procesamiento de transacciones. Máximas y mínimas cantidades de HD que se pueden ordenar para los diferentes niveles de RAID Nivel de RAID Mínimo Máximo 5 3 16 4 3 N/A
  • 33. 3 3 N/A 2 N/A N/A 1 2 2 0 2 16 0/1 4 16 RAID 0 RAID 1 RAID 10 RAID 3
  • 34. RAID 5 RAID 50 Introducción Una de las etapas de la evolución de los sistemas operativos fue la multiprogramación o multitarea, esto que trajo consigo que se tuviera en cuenta ungrupo de consideraciones a la hora de concebir los mismos. Así fueron surgiendo distintas estructuras en el diseño, cada una con sus características particulares. Protección En los primeros sistemas de cómputo que se utilizaron no fue necesario tener en cuenta la problemática de la protección debido a la forma en que se operaban, es decir se ejecutaba sólo un programa y éste estaba en posesión de todos los recursos existentes (en caso de error, solo se afectaba él). Al desarrollarse los sistemas operativos aun cuando se mantuviera un único programa en memoria (monoprogramación), se comenzaba a compartir recursos. En este caso, el programa y el sistema operativo comparten la memoria. Si ocurriera un funcionamiento erróneo del programa y él sobrescribe el área de memoria del sistema operativo, resulta evidente que existirá un "crash" de éste. Otro ejemplo simple se puede notar en el caso del procesamiento en lote. Suponga que un programa cae en un lazo infinito de lectura de tarjetas. Es evidente que tomará todas las que les pertenecían y las que le siguen.
  • 35. El compartir recursos aumenta la utilización eficiente de estos, pero a la vez incrementa las dificultades. Un error en un programa puede afectar a otros trabajos. En los sistemas operativos que instrumentan la multiprogramación, pueden ocurrir muchas otras situaciones no tan evidentes como las indicadas, por esto éste se debe proteger y a la vez brindar protección a todos los programas que se ejecutan. Todo recurso compartido debe ser protegido, pero al menos deben disponer de esta característica las entradas y salidas, la memoria y la CPU. La protección de entrada–salida se logra al no permitir que los programas actúen directamente sobre los dispositivos, sino a través de llamadas a los manejadores de dispositivos que forman parte del sistema de operación. De esta forma se puede chequear si la solicitud es correcta o no y evitar que algo vaya mal. Para evitar que un programa opere directamente con la entrada–salida, las instrucciones correspondientes se declaran como privilegiadas (esto tiene que estar instrumentado en el hardware) y por ello sólo podrán ser utilizadas por parte del sistema operativo. Lo antes indicado quiere decir que el hardware deberá brindar dualidad en el modo en que los programas se ejecutan. El primero es el modo "kernel" (omonitor, supervisor, sistema, protegido), y el segundo es el modo usuario. El SO correrá en modo protegido (con derecho a usar instrucciones privilegiadas) y todos los demás en modo usuario. Por supuesto que en la CPU existirá un "bit" que en todo momento indicará el modo en que se está ejecutando. Este se pondrá a 1 ó 0 cada vez que se produzca un cambio entre el SO y otro programa. Es de suponer que las instrucciones que permiten variar este "bit" son privilegiadas. Da la impresión que con los aspectos antes indicados ya se tiene garantizada la protección de las entradas salidas, pero antes de dar tal afirmación se hace necesario estar seguro que ningún programa usuario pueda ejecutar en modo supervisor. ¿Qué pasaría si a un programa usuario se le permite realizar direccionamientos al área de memoria del sistema operativo y modificar un vector de interrupción? Al ocurrir la interrupción, el hardware pasará la ejecución al modo privilegiado (ya que va a operar el sistema operativo), pero como se cambió el vector de interrupción, nos encontramos que el programa usuario se hace dueño del sistema de cómputo con total impunidad. Para evitar esta situación y otras similares se impone disponer de un mecanismo de protección de memoria. Es decir, evitar que un programa usuario pueda acceder al área de trabajo del Sistema Operativo. En los sistemas multiprogramados también se tiene que impedir tal acción en el área de otro programa. La solución a esta problemática requiere que el hardware brinde su ayuda. En un ambiente de monoprogramación es suficiente con la existencia de unregistro tope o registro límite que separe el área de trabajo del sistema operativo de la correspondiente al programa usuario.
  • 36. En este caso, generalmente el sistema operativo se ubica en la parte baja de la memoria y a continuación comenzaría el área del programa usuario. Cada vez que dicho programa realiza un acceso a memoria, el hardware chequea que la dirección referida no sea menor que la contenida en el registro a los efectos de permitirlo. Si se detecta el intento de penetrar en el área no autorizada ocurrirá una trampa invocándose al SO para que decida la situación (generalmente se elimina al que provoca "la ofensa"). El SO conserva la posibilidad de acceder cualquier posición de memoria (al correr en modo privilegiado el hardware no lo controla). Por supuesto la carga del registro indicado solo se puede hacer en modo "kernel". Si el ambiente de trabajo es multiprogramado, un solo registro no basta. En este caso, se requieren dos registros, almacenándose en ellos el límite superior e inferior de memoria que le es permitido acceder al programa que está en ejecución en cada instante de tiempo (su área de trabajo). Lo antes indicado presupone que cada vez que pasa el control del CPU de un programa a otro, el sistema de operación actualice los registros indicados con los nuevos valores requeridos.
  • 37. En la actualidad existen otros esquemas de protección de memoria con mayores grados de sofisticación, en la continuación de la asignatura se hará referencia a algunos de ellos. La protección del procesador tiene como objetivo evitar que un programa usuario caiga en un lazo de procesamiento infinito adueñándose de éste por tiempo indefinido. Esto se logra por medio de un reloj ("timer") de hardware que permite detener el procesamiento y regresar el control, vía una interrupción, al sistema operativo. Generalmente se instrumenta un reloj variable por medio de uno fijo y un contador. Dicho contador recibe un valor por parte del sistema operativo y se decrementa con cada golpe del reloj de intervalo fijo, cuando alcanza el valor cero se emite la interrupción y el sistema operativo decide la acción a ejecutar. Por supuesto, las instrucciones que permiten modificar el valor del reloj son privilegiadas. Procesos. Tablas de procesos Antes de continuar estudiando otros aspectos relacionados con los sistemas operativos resulta conveniente puntualizar el concepto de proceso que constituye uno de los más esenciales en esta materia. Un proceso es, básicamente, un programa en ejecución y precisamente por esa razón existe la tendencia a confundir ambos términos. La diferencia consiste en que un proceso incluye además del programa (secuencia de código ejecutable) los datos, la pila, el contador de programa, los valoresalmacenados en los registros y todo aquello que refleja el estado de la ejecución en un instante. La importancia de este concepto radica en que un programa por si solo no refleja su estado de ejecución, lo que resulta esencial a los efectos de continuar su procesamiento futuro si en un determinado momento se le retira el control del procesador (lo que constituye la base de la multiprogramación). Para guardar la información de los procesos que en cada instante están siendo atendidos por el sistema de operación se utiliza la tabla de procesos. Esta no es más que un arreglo o lista de estructuras donde cada una de ellas contiene los datos que definen el estado de un proceso determinado. Las informaciones de un proceso se actualizan en numerosos momentos, pero por lo menos cada vez que se le va a quitar el uso del procesador. Los campos que componen cada entrada en la tabla de procesos varían de un sistema operativo a otro y generalmente son numerosos. Resultan típicos algunos como: estado del proceso, valores de los registros, contador de programa, identificador, área de memoria utilizada, tabla de ficheros abiertos, directorio actual, etc. Todo proceso presente en un sistema operativo se identifica por un número entero que se conoce por el identificador del proceso (PID).
  • 38. Para ver el PID de los procesos que corren en un sistema Windows (nt) Crl+Shift+Esc y en el administrador de tares de Windows en el menú:ver/seleccionar columnas y marcar Identificador de proceso (PID). En Linux: Escribir en una consola ps –A Generalmente un proceso puede crear uno o más procesos (procesos hijos) que a su vez pueden crear otros, llegándose a una estructura arbórea. knoppix@ttyp0[knoppix]$ pstree -ah init |-automount --pid-file=/var/run/autofs/_:mnt_:auto.pid --timeout=2 /mnt/auto |-bash -login |-bash -login |-bash -login |-bash -login |-(bdflush) |-kalarm -caption KAlarm -icon kalarm | `-xmms -p | `-xmms -p | |-xmms -p | |-xmms -p | |-xmms -p | `-xmms -p |-kalarmd |-kdeinit | |-kdeinit | |-kdeinit | |-kdeinit | |-kdeinit | `-kdeinit
  • 39. | `-bash | `-pstree -ah |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdeinit |-kdesud |-(keventd) |-(khubd) |-kmix |-knotes |-krandrtray |-(ksoftirqd_CPU0) |-(kswapd) |-(kupdated) |-pump -i eth0 `-xsession /etc/init.d/xsession start |-xinitrc /etc/X11/xinit/xinitrc | `-kwrapperksmserver `-xsession /etc/init.d/xsession start
  • 40. `-XFree86 -noreset -xf86config /etc/X11/XF86Config-4 -dpi 75: 0 Ejemplo de estructura de procesos en UNIX (Linux). Servicios del Sistema Operativo Como ya se indicó, una de las dos funciones principales de un sistema operativo es servir de máquina ampliada o virtual, brindando facilidades a losprogramas de los usuarios y a estos. Para lograr este objetivo, los sistemas operativos se encargan de programar el trabajo con los diferentes dispositivos existentes en el sistema de cómputo, separando a los usuarios y programas de esta tarea compleja y tediosa. Los servicios a usuarios se brindan, básicamente, por medio de los llamados Programas del Sistema, mientras que a los programas se les brindan a través de las Llamadas al Sistema. Los programas del sistema constituyen una colección más o menos grande de programas (no funciones o subrutinas) suministradas por el fabricante (u otra empresa) que permite realizar operaciones que son comunes a diferentes usuarios, brindando un ambiente más adecuado para el desarrollo y explotación de aplicaciones. Los programas del sistema pueden ser divididos en varias categorías, aunque esto también depende de cada sistema operativo. Algunos posibles gruposserian : Manipulación de ficheros (crear, eliminar, renombrar, imprimir, etc.), obtención de información de estado (fecha, hora, memoria disponible, espacio en disco, etc.), editores de texto, etc. En resumen, los programas del sistema son aquellos que ejecutan las acciones descritas en los comandos de éste o que aparecen en los menús en el caso de las interfaces gráficas. Las llamadas al sistema constituyen la interface entre el sistema de operación y los procesos. Estas generalmente se hacen por medio de instrucciones en lenguaje ensamblador, aunque en algunos casos existen facilidades que permiten se realicen desde lenguajes de alto nivel. En el segundo caso antes indicado, se dan las variantes de que existan funciones o procedimientos predefinidos en biblioteca que realicen las llamadas al sistema como tal (UNIX, Windows) o el compilador genera directamente las instrucciones necesarias para esto. Los mecanismos que ponen en ejecución las llamadas al sistema operativo difieren de uno a otro: ? En el OS/360 existe una instrucción especial (SVC) que provoca una trampa hacia el sistema. El número de la llamada se da en la instrucción. ? En el CP/M no existe una instrucción especial y por ello el número de la llamada se pone en el registro C y se salta a la dirección 5 de la memoria. ? En MS-DOS se utiliza la instrucción INT seguida de un número de interrupción (21H).
  • 41. En todos los casos antes indicados, se requiere de la transferencia de parámetros desde o hacía el procedimiento que instrumenta la llamada. Este pase de parámetros se ejecuta a través de los registros del procesador o por medio de un bloque o tabla de memoria (pasándose la dirección en un registro). El número de llamadas, la forma y tipo de cada una y los posibles agrupamientos de estas dependen de cada sistema de operación en específico, aunque en forma general se pudieran catalogar en 4 grupos: ? Control de procesos. Incluyen operaciones con los procesos tales como: Crear, eliminar, finalizar, abortar, ejecutar, enviar señal, esperar por señal, etc. ? Manipulación de ficheros. Incluyen operaciones con los ficheros tales como: Crear, eliminar, abrir, cerrar, renombrar, leer, escribir, etc. ? Manipulación de dispositivos. Incluyen operaciones con los dispositivos tales como: Solicitar, liberar, leer, escribir, etc. ? Intercambio de información. Incluyen operaciones tales como: Conocer la fecha, conocer la hora, conocer atributos de ficheros, fijar atributos de ficheros, fijar la fecha, etc. Además de los grupos antes indicados podría haber otros u otras operaciones dentro de estos. Otros conjuntos podrían ser: ? Manipulación de directorios y sistemas de ficheros. ? Protección. ? Señalización. La mejor manera de entender la esencia de las llamadas al sistema consiste en hacer una revisión detallada de las que están presentes en uno o variossistemas operativos y por ello se recomienda revisar las páginas de la 23 a la 36 del segundo libro de Tanenbaum, donde se presenta la explicación de las más importantes presentes en la versión 7 del UNIX. Intérprete de comandos Uno de los más importantes programas del sistema es el intérprete de comandos. Es el programa que sirve de interface entre el sistema operativo y los usuarios de éste. Aun cuando algunos
  • 42. autores no lo consideran parte del sistema de operación (dado que cada usuario podría crear el suyo), no hay duda que guarda una estrecha relación con éste. El interprete de comandos toma el control una vez que el sistema operativo ha sido cargado o el control de una terminal una vez que un usuario se ha identificado en un sistema de tiempo compartido. Los intérpretes de comandos han recibido distintos nombres en diferentes sistemas operativos: interprete de tarjetas de control, intérprete de línea de comando, procesador de comandos de consola (CPM), "Shell" (UNIX), etc. La función del intérprete de comandos es en general bastante simple y consiste en tomar la tarjeta de control o comando, validar si es correcto o no y en el primer caso realizar la ejecución correspondiente. El código que ejecuta el comando puede formar parte del propio intérprete o constituye otro programa del sistema. Los intérpretes de comandos que presentan interfaces con usuarios más amigables, incluyendo las, hoy, reconocidas interfaces gráficas, tienen una mayor complejidad dada el uso de menús, botones, "mouse" y otros recursos. Aun cuando en la mayoría de los sistemas operativos el interprete de comandos pierde el control de ejecución tan pronto se inicia un comando y no lo recupera hasta que éste finalice, hay algunos donde el comando se ejecuta en paralelo (como un proceso hijo del interprete). Un ejemplo de esto está en el UNIX con el uso del símbolo &. Estructura de un Sistema Operativo La estructura de un sistema operativo se puede analizar desde el punto de vista funcional y desde el punto de vista organizativo de los programas que lo componen. Desde el punto de vista funcional hay que tener en cuenta que los sistemas operativos son programas manejados por eventos. Si no hay programa que ejecutar, dispositivo al cual brindar servicio o usuario que atender entonces no hará nada. Los eventos (mensajes o señales) que lo ponen en acción serán las interrupciones o las trampas. Por lo tanto, los sistemas de operación son programas manejados por interrupción. La naturaleza de los sistemas operativos de ser manejados por interrupción determina su estructura desde el punto de vista funcional. Cuando una interrupción o trampa ocurre, de inmediato el hardware transfiere el control al sistema operativo. Este preserva el estado del proceso que se ejecutaba y a continuación realiza el tratamiento correspondiente. Pueden ocurrir tipos diferentes de interrupciones, pero pueden agruparse en tres tipos: ? Llamadas al sistema.
  • 43. ? Interrupción de un dispositivo. ? Un error de programa (detectado por hardware). Las llamadas al sistema, a estos efectos, pueden dividirse en ? Solicitud de terminación normal (realizada por un proceso cuando va a terminar su ejecución). ? Solicitud de terminación anormal (realizada al detectarse la existencia de un error). ? Solicitud de recursos (si no están disponibles, entonces el proceso deberá esperar). ? Solicitud de información de estado (la información es transferida). ? Solicitud de entrada/salida. A los efectos de la acción del sistema operativo los casos 3 y 4 se pueden considerar como iguales (en el libro de Peterson se le llaman solicitudes que no son de entrada/salida). Teniendo en cuenta lo antes indicado, en la figura 2.4 (página 54) del Peterson se presenta la estructura del sistema operativo desde el punto de vista funcional. De aquí que un sistema operativo estará compuesto por al menos de: manejadores de dispositivos, atención a interrupciones ("handlers"), un conjunto de subrutinas de llamadas al sistema y el intérprete de comandos o de tarjetas de control. Como es lógico, el sistema de ficheros también estará presente. La mayoría de los sistemas operativos brindan funciones adicionales y por ello habrá complejidades aún mayores. Desde el punto de vista de la organización de los programas, la estructura de un sistema operativo puede tomar distintas formas. Estas podrían ser: - Sistemas Monolíticos. Se caracterizan por la no existencia de estructura. Se escriben como una colección de procedimientos donde cada uno de ellos puede llamar a cualquier otro que le brinde un servicio que necesite. En este caso los procedimientos necesitan tener una interface bien definida en términos de parámetros y resultados. Aún en esta variante puede existir una pequeña estructura en lo que se refiere a los servicios brindados por las llamadas al sistema.
  • 44. - Sistemas de Capas. Se caracterizan por estar organizados como una jerarquía de capas, cada una construida sobre la anterior. El primer sistema construido en esta forma fue el "THE" a cargo de E. W. Dijkstra y sus alumnos (en 1968). En dicho sistema se consideró la existencia de 6 capas: 0.- Asignación del procesador y multiprogramación. 1.- Administración de memoria y tambor magnético. 2.- Comunicación operador - procesos. 3.- Administración de entrada/salida. 4.- Programas usuarios. 5.- El operador. Una generalización de este concepto fue aplicada en el sistema operativo MULTICS. Se organizó como una serie de anillos concéntricos, siendo los más internos los de mayor prioridad. Para que un procedimiento de un nivel pueda llamar a otro más interno lo tiene que hacer a través de una llamada al sistema. - Máquinas Virtuales.
  • 45. En este esquema, el centro del sistema operativo se ejecuta directamente en el hardware existente y permite el logro de la multiprogramación. Esta, en lugar de ejecutar varios procesos, crea varias máquinas virtuales en una segunda capa. Estas máquinas virtuales son copias exactas del hardware original y por ello cada una de ellas puede ejecutar cualquier sistema operativo que pueda operar en la máquina original. Este formato es conocido hace tiempo (desde la IBM/360), pero hoy se utiliza para crear máquinas virtuales que permitan ejecutar en un sistema operativo programas preparados en otro (Windows lo utiliza para ejecutar programas de MS-DOS o de versiones anteriores). - Modelo cliente - servidor. Es una tendencia de los actuales sistemas de operación que consiste en instrumentar la mayoría de las funciones en procesos usuarios, construyendo un "kernel" mínimo. Para solicitar un servicio, un proceso usuario (llamado cliente) envía la solicitud al proceso servidor, el cual realiza el trabajo y le regresa la respuesta. En este modelo la función principal del "kernel" consiste en manejar la comunicación entre clientes y servidores (y, lógicamente, la atención a las interrupciones de los dispositivos). La división del sistema operativo en partes, cada una de las cuales atiende una faceta de éste, ejecutándose la mayoría de ellos (de los servidores) en modo usuario, permite dos ventajas importantes. La primera consiste en que la aparición de un error en una parte no implica necesariamente que todo el sistema se caiga (que ocurra un "crash"). La segunda consiste en la fácil adaptación de un sistema de este tipo para su utilización en un medio distribuido. Conclusiones
  • 46. A modo de conclusión hemos podido ver la importancia que tiene la protección de la información que manejan cada uno de los dispositivos que interactúan con el sistema operativo. Vimos el concepto de proceso y su significado, como hacen las aplicaciones para comunicarse con el SO a través de las llamadas al sistema y que estructura de diseño siguen estos. Bibliografía Sistemas Operativos Modernos, Andrew S. Tanenbaum, pág. 13-27. Operating system Design and Implementation, Tanenbaum, pág. 14-42. Operating System Concepts, Peterson and Silberchatz, pág. 39-54