jueves, 13 de enero de 2011

Precios



*Precios obtenidos de la pagina oficial de "Efecto 2000"

Controladoras




 MFM

Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia.

Por esto, eran conocidos de forma genérica en el mundillo informático como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora. 

Como se puede comprobar, estas controladoras eran una pieza de hardware distinta del disco duro, que debía ser “pinchada” en nuestro ordenador para poder usar los discos duros MFM.

En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 0,6 MB/segundo en MFM y 1 MB/segundo para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL.




IDE y EIDE

El término IDE (Integrated Drive Electronics) procede del año 1986, cuando las firmas Compaq corporation, Western Digital y Control Data Corporation trabajaban juntas en un proyecto común. Se trataba de integrar un chip controlador fabricado por Western Digital en una unidad de disco duro. Como su propio nombre indica, esta tecnología permitía integrar la controladora en el propio disco duro, de modo que no se necesitaba una tarjeta externa. 

En 1988, se formó un grupo industrial denominado CAM (Common Access Method o método de acceso común), el cual desarrolló un estándar que cubría la integración de dispositivos controladores en unidades de almacenamiento, y su conexión al PC.

Dicho estándar fue aprobado en 1991, bajo el nombre de ATA (AT Attachment). Mientras que IDE se refiere a las unidades de almacenamiento que integran el circuito controlador asociado, ATA hace referencia a la interfaz para interconectar los dispositivos IDE y el PC.  

La interfaz IDE presentaba una serie de problemas, entre los que sobresalían la baja velocidad de transferencia y la imposibilidad de montar en el sistema más de dos discos duros. Como solución apareció la interfaz ATA-2, conocida como EIDE (Enhanced IDE). Hoy en día cuando hablamos de IDE, realmente estamos hablando de EIDE.

Tal y como acabamos de introducir, en una unidad de almacenamiento IDE el dispositivo controlador correspondiente se encuentra integrado en la propia unidad. Esto hace que sean necesarios menos componentes, y que la integración entre unidad y controlador sea óptima, y realizada por el fabricante. Como se puede intuir, esto proporciona muchas ventajas. En primer lugar, la conexión al bus del sistema es realmente simple. Dicha conexión se suele realizar de forma directa, mediante conectores soldados sobre la placa base. Esto evita utilizar ranuras de expansión, dejándolas libres para otros dispositivos.

Además, el coste de producción de una placa base con conectores IDE es menor que el que implica disponer de una tarjeta controladora. Otro factor importante es la reducción del número de cables necesarios, ya que la unión entre dispositivo y controlador ya viene implementada en el propio dispositivo. El controlador –al estar integrado se halla conectado al dispositivo mediante conexiones de pequeña longitud, consiguiendo que la resistencia a interferencias sea óptima, y en general mejores prestaciones.

Por otro lado, el fabricante no se debe preocupar por respetar ninguna interfaz estándar entre el controlador y el dispositivo, detalle que flexibiliza el diseño y permite, así, obtener mejores productos. En otras palabras, cada unidad y su controlador forman un producto independiente. Todos estos detalles justifican que los anteriores controladores MFM desparecieran rápidamente.

SCSI

Además de IDE, hay otra interfaz que goza de una enorme aceptación, denominada SCSI (Small Computer System Interface).  La interfaz SCSI permite al PC intercambiar datos con todo tipo de dispositivos: discos duros, CDROM, impresoras, etc. Algunos PC soportan SCSI en la propia placa base, pero no se trata de la opción más usual. Normalmente, es necesario instalar una tarjeta adaptadora SCSI en una de las ranuras de expansión del sistema, que es la que permite la conexión de los dispositivos (interna o externamente).
Dicha tarjeta es fácil de encontrar y se instala de forma sencilla. Una de las principales ventajas de SCSI es el gran número de dispositivos que puede controlar. Mientras que IDE sólo soporta dos unidades y EIDE llega hasta cuatro, SCSI permite la conexión de hasta 8 dispositivos (incluyendo la tarjeta controladora SCSI), utilizando tan sólo una ranura de expansión. Además, la velocidad de transferencia es superior a la que caracteriza a la interfaz IDE. Si se desea aumentar la capacidad de expansión, se puede instalar una segunda tarjeta controladora SCSI, lo que permite conectar 7 periféricos más. Mejor aún, existen tarjetas controladoras que soportan 15 periféricos, consumiendo tan sólo una ranura de expansión.

Por supuesto, es posible instalar discos IDE y SCSI simultáneamente en un PC. La unidad IDE seguirá siendo el disco de arranque y los dispositivos SCSI proporcionarán capacidad de almacenamiento adicional.
También es interesante señalar que, en caso de no disponer de ranuras de expansión libres, existen adaptadores que permiten conectar dispositivos SCSI al puerto paralelo. Los dispositivos trabajarán a una velocidad considerablemente menor, pero esta solución puede resultar interesante en algunos casos.

Los dispositivos y tarjetas controladoras SCSI pueden presentar diferentes tipos de conectores. El conector tipo Centronics de 50 contactos se utiliza con las variantes SCSI, Fast SCSI y Ultra SCSI a 8 bits. Este conector se conoce también bajo el nombre de conector SCSI-1, y está presente en multitud de discos duros, escáneres y grabadoras de CD.  Otras variantes utilizan otros tipos distintos de conectores
Los dispositivos SCSI se conectan a la tarjeta controladora en forma de cadena, definiendo un bus que opera de forma independiente al resto del PC. En efecto –y al contrario que en la interfaz IDE- el bus SCSI permite que los dispositivos intercambien información sin necesidad de consumir tiempo de procesamiento de la CPU. Esto último explica la superioridad de SCSI sobre IDE en términos de velocidad. Cada dispositivo SCSI dispone de dos conectores, de forma que uno de ellos se conecta al dispositivo anterior en la cadena, y el otro se conecta al dispositivo siguiente. Uno de los extremos de la cadena se une al conector externo de la tarjeta
controladora. Ésta es la configuración típica, en que la tarjeta controladora forma uno de los extremos de la cadena.

Además, la tarjeta controladora dispone de un segundo conector, destinado a la conexión de dispositivos internos. Estos formarán otra cadena -instalada en el interior del PC– y por tanto la tarjeta adaptadora ya no quedará en un extremo. Una vez la cadena ha sido implementada, es necesario conectar unos elementos denominados terminadores en sus extremos. La instalación de terminadores es obligatoria, ya que evitan comportamientos no deseados en las señales de alta frecuencia que circulan por el bus. Los terminadores vienen incluidos al comprar dispositivos SCSI, por lo que su adquisición no acarrea problemas. Un dispositivo SCSI suele incorporar un terminador aplicado en el conector destinado al siguiente componente de la cadena. Por tanto, sólo habrá que quitarlo si hay que añadir otro dispositivo después de él. La tarjeta controladora suele incorporar un terminador en el conector destinado a dispositivos internos. Sólo será necesario eliminarlo si se va a extender la cadena con dispositivos internos.

En cualquier caso, la regla a recordar es que los terminadores deben colocarse en los extremos de la cadena (que pueden ser dispositivos SCSI o la propia tarjeta controladora). En cuanto al direccionamiento del bus, los dispositivos incluidos en la cadena se acceden –desde el punto de vista de la BIOS a través de un identificador o ID (que irá de 0 a 7, o bien de 0 a 15, dependiendo del número de dispositivos soportados). 

Sin embargo, cada dispositivo puede ser interpretado como un conjunto de hasta 8 unidades lógicas.
Hoy en día, la velocidad del interfaz IDE se esta acercando mucho a la del interfaz SCSI, e incluso llega a superarla en varios modelos. Sin embargo, la gran ventaja de SCSI consiste en que permite que los dispositivos SCSI trabajen entre ellos sin cargar de trabajo a la CPU, por lo que un dispositivo SCSI a igual velocidad teórica que un dispositivo IDE, es más rápido.


SATA

Tradicionalmente, cuando se quería obtener velocidad se optaba por un bus paralelo mejor que por uno serie. En serie los bits se envían de uno en uno y, en principio, tardan más que en paralelo, donde se envían en grupos de 8, 16... Según el ancho del bus. Por ello se usaban preferentemente buses paralelo y los serie  estaban relegados a aplicaciones de baja velocidad. El problema es que los buses paralelos cada vez son más anchos y esto supone que necesitan cada vez más conductores. Esto dificulta el diseño de chips, placas y conectores, por lo que la tendencia natural es volver a sistemas de transmisión en serie mejorados, que eliminan el problema del elevado número de conductores. 

El bus FireWire, en serie, proviene del SCSI y está sustituyéndolo en numerosas aplicaciones de forma ventajosa. El USB reemplaza al clásico Centronics (paralelo) e incluso para el PCI hay proyectos de convertirlo a un bus serie (PCI Express). En el caso del ATA no podía ser menos, la conversión a Serial ATA ofrece una primera ventaja al eliminar las anchas fajas de cables que perjudicaban la ventilación del interior de los equipos, reducir el espacio ocupado por los conectores y eliminar una gran cantidad de conexiones en chipsets y placas base, simplificando y abaratando los diseños. De un diseño con 16 señales de control y un bus de 16 bits, usando conectores de 40 pines, se pasa a otro de dos pares diferenciales y tres masas, en un cable de siete hilos. Técnicamente, el paso de 16 a un bit supone la necesidad de incrementar la velocidad de reloj para mantener la velocidad de transferencia. Esto es así porque con 16 bits de anchura se transmiten dos bytes con cada pulso de reloj, de modo que para conseguir una velocidad de 100 MB/s (ATA-6) sería necesario un reloj de 50 MHz. En la práctica se transmiten dos bytes en la subida de flancos y otros dos en la bajada (DDR), reduciendo la velocidad necesaria a 25 MHz. En cambio con un bit serían necesarios ocho pulsos de reloj, de manera que la velocidad del mismo debe ser elevada a 1 GHz para conseguir los mismos 100 MB/s (teniendo en cuenta que la codificación que se emplea tiene una eficiencia del 80%). Como la especificación Serial ATA-1 funciona a 150 MB/s, la velocidad real del reloj será de 1,5 GHz. Trabajar con frecuencias tan elevadas genera numerosos problemas de transmisión, que se resuelven utilizando señales diferenciales de bajo voltaje en lugar de las señales sencillas que se empleaban en el ATA paralelo. Esto crea la necesidad de utilizar cables con dos pares diferenciales en lugar de sólo con dos hilos, y a la vez habilita al nuevo protocolo para trabajar a velocidades aún superiores a los 150 MB/s en futuras versiones. 

Pero no se cambia un bus de conexión sólo para que los cables ocupen menos, las ventajas son mucho más profundas. Para empezar, ya no se trata de un bus, puesto que no interconecta varios dispositivos, sino de un puerto o conexión punto a punto en la que cada disco se conecta por separado y sin compartir el ancho de banda con otros elementos. 

De este modo, se necesitará un conector Serial ATA en la placa base por cada disco que se quiera conectar. La primera consecuencia de esto es que desaparece la necesidad de distinguir como maestro y esclavo a los discos que se conectan en un mismo bus, de manera que se simplifica la instalación y configuración de equipos. A efectos del resto del sistema, todos los discos Serial ATA aparecerán como maestros conectados en controladoras diferentes, siendo su manejo totalmente transparente y sin necesidad de controladores adicionales, puesto que se realiza una emulación del ATA estándar (paralelo) que normalmente se implementará en la BIOS.
No obstante es posible que, de forma opcional, se permita configurar el sistema para que simule la presencia de un disco maestro y otro esclavo conectados a una misma controladora. Además, los discos ya no tienen que compartir el ancho de banda, lo que permite acceder a varios de forma simultánea sin que se produzcan cuellos de botella. El ATA estándar, como debe de ser compatible con la primera implementación, tiene que soportar señales de 5 voltios. Sin embargo esto es un problema, pues con la reducción cada vez mayor de los diseños de los chips, resulta cada vez más complicado que los circuitos puedan soportar esa tensión. En Serial ATA se reducen los niveles empleados hasta 0,25 V (con señales diferenciales) lo que permite diseñar circuitos aún más pequeños.
El cable serial ATA consiste en dos pares diferenciales y tres masas. En el conector, cada uno de los pares se sitúa entre dos masas, siendo la central común para ambos. En el cable, cada par transcurre en el interior de un blindaje de masa, es decir, formando un cable twinaxial. Puesto que son dos pares, tenemos una configuración de doble twinaxial. Su longitud máxima es de un metro, más del doble de la permitida en el ATA estándar. En realidad ni siquiera son imprescindibles las masas, sino que se implementan como una forma de reducir los acoplamientos parásitos (crosstalk), al igual que en el cable de 80 hilos en ATA-4, y permiten alcanzar mayores distancias. Además, en la especificación Serial ATA se ha previsto que existan dispositivos de conexión directa (sin cable), para lo cual deberán conectarse tanto los hilos de datos como los de alimentación que también se han rediseñado.

 La conexión de alimentación de dispositivos Serial ATA también ha sufrido modificaciones, abandonándose el gran conector de cuatro pines que se empleaba hasta ahora en discos duros y CDROM y hasta el más pequeño usado en las disqueteras. La nueva conexión tiene15 hilos (2 reservados para futuros usos) y proporciona alimentación a 12, 5 y 3,3 voltios, a pesar de lo cual ocupa bastante menos y está diseñada para poder hacer una conexión directa del dispositivo a la placa. No obstante, se ha previsto la convivencia de un conector de alimentación compatible con los anteriores en los dispositivos, para facilitar la transición.


SAS

En 1996 se crea la SCSI Trade Association. Y en diciembre de 2001 la SCSI Trade Association define los requisitos de mercado para la especificación Serial Attached SCSI y asume la responsabilidad de promover esta tecnología a la industria.

En mayo de 2002, se transfirió la especificación al T10 Technical Committee para comenzar con su estandarización. Ésta se planificó para estar terminada a mediados de 2003. En noviembre de 2003, Serial Attached SCSI estándar es publicada por ANSI.

En 2004 aparecen los primeros productos y dispositivos utilizando esta tecnología, en su mayoría discos duros y adaptadores. Se espera que con el tiempo vayan apareciendo mayor variedad de dispositivos.

Serial Attached SCSI o SAS, es una interfaz de transferencia de datos en serie, sucesor del SCSI (Small Computer System Interface) paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión de forma rapida.

La organización que se encuentra detrás del desarrollo de la especificación SAS es la SCSI Trade Association. Se trata de una organización sin ánimo de lucro ubicada en California que se formó en 1996 para promover el uso y el conocimiento sobre SCSI paralelo.

La primera versión apareció a finales de 2003: SAS 300, que conseguía un ancho de banda de 3Gb/s, lo que aumentaba considerablemente la velocidad de su predecesor (SCSI Ultra 320MB/s). La siguiente evolución, SAS 600, consigue una velocidad de hasta 6Gb/s, mientras que se espera llegar a una velocidad de alrededor de 12Gb/s alrededor del año 2010.

Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.

Además, el conector es el mismo que en la interfaz SCSI y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costos. Por lo tanto, los discos SCSI pueden ser utilizados por controladoras SAS pero no a la inversa, una controladora SCSI no reconoce discos SAS.

Al fusionar el rendimiento y la fiabilidad de la interfaz serie con los entornos SCSI existentes, SAS aporta mayor libertad a las soluciones de almacenamiento sin perder la base tradicional sobre la que se construyó el almacenamiento para empresas, otorgando las siguientes características:
  • Acelera el rendimiento del almacenamiento en comparación con la tecnología SCSI paralela
  • Garantiza la integridad de los datos
  • Protege las inversiones en TI
  • Habilita la flexibilidad en el diseño de sistemas con unidades de disco SATA en un compartimento sencillo

martes, 21 de diciembre de 2010

Estructura Lógica del Disco Duro

El disco duro de un PC es un dispositivo que utiliza como medio de grabación el magnetismo. Acorde con eso, las superficies de los platos están cubiertos por una sustancia magnetizable (básicamente óxido de hierro). Los cabezales irradian con pulsos estas superficies para grabar mientras los platos giran a altas velocidades.


El índice de ubicación de los platos se denomina FAT (File Allocation Table) y es el equivalente al índice del contenido de un libro. Previendo que un accidente (error de escritura, ataque de virus, borrado accidental del operador) puede dañar la FAT, se establece (bajo control del Sistema Operativo) la existencia de una segunda FAT de respaldo. Esta no es visible a simple vista sino con herramientas de Software especiales que se utilizan para reparar datos perdidos.


Como norma general, los datos no se escriben en las pistas en forma secuencial (imaginemos el tiempo que se requeriría si cada vez que se deseara escribir un dato adicional relacionado con uno anterior, tuviéramos que esperar a que el plato diera la vuelta para que los dos platos quedaran juntos). Esto se puede ver con programas especiales (Defrag de Windows, por ejemplo) que muestran la superficie del disco en forma de mapa con “baches” de espacio.


Esta forma de operación si bien acelera la operación de escritura, produce en contraposición la demora en su operación contraria: LA LECTURA. Dado que las porciones de un archivo quedan dispersos, la lectura es un trabajo extraordinario para el disco considerando que su velocidad de rotación esta alrededor de los 5600, 7200 ó 10000 RPM.


Aparte de la conexión física y el bus utilizado por el disco duro, en la transferencia de datos, existe un factor no menos importante: la forma en que se graban y leen los datos internamente, esto es, si se trabaja con sistemas de archivos FAT 16, FAT 32 o NTFS.




martes, 14 de diciembre de 2010

Estructura Física del Disco Duro

En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro sujetos por un eje.





Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 micropulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información.


La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.


Los platos giran a 5600, 7200 ó 10000 revoluciones por minuto, el movimiento genera circunferencias con datos llamadas pistas. Cada pista a su vez se considera como un conjunto de segmentos denominados sectores o clústers.


Si nos ubicamos encima de una pista, geométricamente lo estamos haciendo sobre las pistas que tienen el mismo número a través de todas las caras y platos. Esta forma de ver las pistas se llama Cilíndro, por tanto un cilíndro es el conjunto de pistas con la misma ubicación pero en distintas caras y discos.
Ejemplo: cilíndro 3 = pista 3 de la cara 0 + pista 3 de la cara 1 + pista 3 de la cara 2... etc.


Según su capacidad y geometría de diseño, un disco puede tener 2, 4 o más cabezas de lectura/escritura. Normalmente un archivo de almacena diseminado en pistas, sectores y cilíndros grabandose en las distintas caras de los discos simultáneamente.


El trabajo del disco empieza cuando un programa en coordinación con el sistema operativo comienza a escribir sobre la superficie de los platos. Por cada grupo de datos escrito se crea una entrada de registro en un sector creando un índice maestro ubicando los datos (llamado FAT = File Allocation Table). Esta información es dada a conocer a la CPU por la electrónica del propio disco.

jueves, 9 de diciembre de 2010

Introducción

El disco duro, es el principal dispositivo de almacenamiento de información de los sistemas informáticos. Tanto el sistema operativo, las aplicaciones o programas como los archivos de datos, se encuentran almacenados en esta unidad de gran velocidad y no volatil, por lo que ofrece mayor fiabilidad y eficiencia en el manejo de la información.

El avance tecnológico ha apuntado siempre hacia la mejora de dos parámetros: mayor capacidad y velocidad. También se ha perseguido la reducción de tamaño, aunque en un nivel de importancia inferior a los parámetros anteriores.



Historia

El disco duro inició su carrera en los años 50, y no ha parado de avanzar hasta la actualidad (de hecho, sigue avanzando). El primer disco duro fue desarrollado por IBM en 1956. Recibió el nombre de RAMAC  y constaba internamente de 50 discos de 24” cada uno. La capacidad total ofrecida era de 5 MB. 
Sin embargo, el padre del disco duro moderno nació en 1973, también de la mano de IBM. Su nombre era 3340, y constaba de dos módulos de 30 MB, uno fijo y el otro extraíble.

Estableciendo símiles entre algunas de sus características y las de un conocido rifle, fue bautizado con el apodo Winchester. Aunque mucho más avanzados, los discos duros actuales se basan totalmente en los conceptos introducidos en aquel disco duro.
Uno de los conceptos principales radica en que las cabezas de lectura/escritura son flotantes (es decir, no existe contacto físico con la superficie del disco). De hecho una parte fundamental del avance consiste en optimizar la distancia entre las cabezas y el disco sin llegar al contacto.

La entrada del disco duro en el mundo del PC se produjo con el lanzamiento de la variante PC XT. Se incorporaba un disco duro ST-412 de 10 MB, fabricado por Seagate.