Guía para montar un ordenador de bajo consumo


En Noticias3D hay un artículo bastante interesante sobre la creación de el montaje de un equipo informático (Ordenador) de sobremesa de bajo consumo (Sobre los 50w en total), para lograr este propósito aconsejan

  • No reciclar equipos antiguos ya que en muchos casos es posible que superen el consumo que marcan como sostenible (50w), aunque se puede aprovechar alguna que otra pieza (Ej: Memoria RAM, Unidad Óptica, Caja,…).
  • Utilizar productos de tipo “Green” (“Verdes”) que tienen menor consumo que los convencionales (Aunque también hay que tener en cuenta que ofrecen un rendimiento algo menor que los modelos de la gama “convencional”).

En cuanto a los componentes a tener en cuenta comentan como opciones en:

  • Placas base (Mother Board o Mainboard) están los formatos MicroATX (También llamado µATX o mATX) y Mini-ITX, el primero es una variante de menor tamaño (244 mm * 244 mm; 9.6 pulgadas * 9.6 pulgadas) que el estandar ATX (305 mm * 244 mm; 12 pulgadas * 9,6 pulgadas)/eATX (305 mm * 330 mm; 12 pulgadas * 13 pulgadas) por lo que las piezas (Memoria RAM, Tarjetas,…) suelen ser retrocompatibles, mientras que Mini-ITX (170 mm x 170 mm; 6,7 pulgadas x 6,7 pulgadas) es un formato más reducido que mATX y que por otra parte no suele ser compatible con los componentes (Memoria RAM, Tarjetas,…) que se utilizan en equipos ATX/mATX. En cualquier caso este tipo de placas base suelen integrar la tarjeta gráfica bien en el chipset (Como se hacía hasta hace poco) o bien en el procesador como ocurre por ejemplo con algunos procesadores Intel y AMD actuales.

Placa base micro ATX

Placa base Mini-ITX

  • Como procesadores (CPU: Central Processing Unit, Unidad Central de Procesamiento), las alternativas en bajo consumo son los Intel Atom (Existen modelos con/sin HT (Hyper-threading), 1 núcleo, 2 núcleos, 4 núcleos,…), los AMD Fusion Zacate (E-350.) y los Via Nano (Aunque estos últimos son más difíciles de encontrar). Otra alternativa pueden ser los procesadores de bajo consumo que tienen tanto Intel como AMD para equipos de sobremesa aunque el consumo aumentará ligeramente.
  • Fuente de alimentación: Lo ideal sería que estuviese adaptada al consumo del equipo, teniendo en cuenta que ronda los 50w, lo ideal sería una fuente de unos 100 ó 150w, por lo que las únicas opciones viables son una fuente Mini-ITX o bien usar una fuente integrada en caja. Una alternativa puede ser utilizar una fuente de alimentación de 200 ó 300 w con PFC Activo y que al menos tenga la certificación 80 Plus (Hay más información en esta entrada del Blog sobre esta certificación), ya que este tipo de fuentes ayudan a reducir el consumo eléctrico.
  • Memoria RAM: El consumo de este componente no es muy significativo sin embargo algunos fabricantes como Kingston están sacando al mercado series “green” de bajo consumo como su serie HyperX LoVo (Low Voltage) que están disponibles DDR3 1333 y DDR3 1600 y funcionan con un voltaje de entre 1,25 y 1,35v (Una memoria RAM DDR3 1333/1600 convencional tiene un consumo de 1,5v aproximadamente). En principio con 2 GB (2.048 MB) debería ser más que suficiente, aunque teniendo en cuenta el precio actual de la memoria RAM puede ser interesante tener 4 GB (4.96 MB), ya que podríamos utilizar una parte de la memoria RAM como RamDisk (En esta entrada del Blog hay más información).

  • Sistema de almacenamiento: Lo más normal teniendo en cuenta la relación precio/prestaciones sería un disco duro (HDD: Hard Disk Drive) de 5.400 Rpms tipo “Green” (De bajo consumo) de la capacidad que pensemos utilizar (Teniendo en cuenta que siempre es mejor que sobre espacio a corto/medio plazo a que nos falte, ya que las cajas de este tipo de equipos suelen ser pequeñas por lo que no tienen mucha capacidad de ampliación y por otro lado aumentar el número de discos en el equipo incrementaría el consumo de watios, por ejemplo un WD Caviar Green de 1 TB de 3,5″ (Tamaño de ordenador de sobremesa o escritorio) consume unos 5,30 w en Read/Write (Lectura/Escritura), sin embargo un disco duro como el Caviar Blue (6,80 w) o el Caviar Black (6,80 w), ambos de 7.200 Rpms tienen un consumo mayor en Read/Write. Por otra parte los modelos de mayor capacidad como por ejemplo el Caviar Green de 2 TB (5,30 w) y el Caviar Black de 2 TB (10,7 w) aunque tienen mayor consumo lo “compensan” con su mayor capacidad, ya que por ejemplo si tenemos dos Caviar Green de 1 TB cada uno (2 TB en total, tendríamos un consumo total de unos 10,6w en lugar de 5,30 w en el caso de usar un único disco duro de 2 TB). Otros discos de bajo consumo son los Samsung Ecogreen de 5.400 Rpms, los Hitachi Deskstar 5K1000y los Seagate Barracuda LP de 5.900 Rpms. Otra opción si queremos reducir el consumo puede ser usar discos de 2,5″ (De tamaño portátil) que deberían tener un consumo menor que es de los modelos de 3,5″. Por otro lado si buscamos el máximo rendimiento con el menor consumo la opción más viable sería un SSD (Solid State Device, Dispositivo de Estado Sólido), aunque hay que tener en cuenta que su relación precio/espacio es pésima aunque sus prestaciones superan a cualquier disco duro actual (Incluyendo a los SCSI/SAS de 10.000 y 15.000 Rpms).

WD Caviar Green

SSD Crucial M4

  • Caja: Teniendo en cuenta que el formato de la placa base (Bien sea mATX o Mini-ITX) va a determinar el tipo de caja, es interesante tener en cuenta que las cajas con refrigeración activa (Con ventiladores) no es muy aconsejables debido al posible ruido que puede generar el equipo (Esto en parte dependería de las Rpms y del tamaño del ventilador; generalmente a más Rpms, más ruido), por lo que sería más aconsejable que la caja tuviese zonas perforadas con rejillas tipo Mesh que ayuden a evacuar el aire caliente por convección. Otra opción puede ser instalar un regulador de Rpms (Rheobus) para controlar las Rpms y ruido que generen los ventiladores que tengamos instalados (En esta entrada del Blog hay una guía para elegir un rheobus.

Barebone Shuttle

Este tipo de ordenadores se suele utilizar para uso:

  • Ofimático (Procesador de textos, Hoja de cálculo, Base de datos,…).
  • Internet (Web, eMail, Descargas,…)
  • Reproducción imágenes, audio (Ej: Música MP3) y vídeo (Películas), teniendo en cuenta que dependiendo de la potencia del equipo es posible que el equipo es posible que no sea capaz de reproducir formatos de vídeo en alta definición 1080p (1.920 x 1.080 píxeles) con un gran bitrate.

De hecho actualmente existe un nicho de mercado que recoge este tipo de equipos bajo el nombre de Nettop (Se puede decir que son el equivalente de los NetBook portátiles pero para sobremesa/escritorio) y que tienen un coste inferior al de un equipo de sobremesa.

Lógicamente este tipo de equipos de bajo consumo son idóneos para:

  • Edición fotográfica con imágenes de alta resolución.
  • Edición de vídeo.
  • Juegos 3D de última generación.
  • Autocad en 2D y 3D.

Se puede encontrar más información en:

Tasa de fallos de componentes informáticos en 2011


En la web francesa Hardware.fr publicaron este pasado mes de abril de 2011 unas tablas con las tasas de error de algunas piezas de hardware informático (Así mismo el año pasado publicaron otro artículo similar el 12 de abril de 2010 y otro el 2 de diciembre de 2010), entre las que figuran tablas de:

SSD con controladora Sand Force 1200 y fabricados a 25 nm


Hasta hace poco tiempo los SSD (Solid State Device, Dispositivos de Estado Sólido) que usaban la controladora Sand Force 1200 (SF-1200) o alguna de sus variantes se fabricaban a 34 nanómetros (34 nm), sin embargo desde hace unos meses los fabricantes de SSD han ido migrando a los 25 nm (Hay más información en esta entrada del Blog).

Corsair Force F60 de 34 nm (CSSD-F60GB2-BRKT)

Algunos de los fabricantes que ya han migrado a 25 nm o bien han iniciado el proceso son:

  • OCZ (Su modelo más conocido es el Vertex2): Dando lugar a numerosas quejas de usuarios de los Vertex2 (Más información en este hilo del Foro de Noticias3D), por las que el fabricante ha tenido que “rectificar” su política (Mas información en este otro hilo del Foro de Noticias3D).
  • Corsair (Serie Force): Para evitar confusiones a sus clientes potenciales ha optado por indicar la capacidad real como ha sido en el caso del F115 (SKU# CSSD-F115GB2-BRKT-A) que sustituye al F120 (SKU# CSSD-F120GB2-BRKT); o bien renombrar los modelos coincidentes con una “A” al modelo en cuestión si tenía la misma capacidad que el anterior como por ejemplo ha pasado con el F80A (SKU# CSSD-F80GB2-BRKT-A), e incluso más recientemente con el F60 (SKU# CSSD-F60GB2-BRKT) y F60A (Este último aparece listado en Alternate, una tienda online española, aunque no aparece en el catálogo online de Corsair).
  • G. Skill: Para evitar confusiones, ha comercializado un modelo “nuevo” (Phoenix EVO de 25 nm) para sustituir a los “antiguos” Phoenix Pro de 34 nm (Información de Hardzone).

Corsair Force F60A de 25 nm (CSSD-F60GB2-BRKT-A)

Por otra parte otros fabricantes como Mushkin han optado por no migrar a los 25 nm hasta que la fiabilidad y prestaciones de los modelos de 25 nm sean similares a la de los de 34 nm (Información de MadBoxPC); así mismo habría que saber si otros fabricantes de SSD que utilizan controladoras SF-1200 como por ejemplo Patriot (Con su modelo Inferno), entre otros) han migrado también a los 25 nm o por el contrario siguen fabricando sus SSD con 34 nm.

Errores de componentes informáticos: Condensadores (Capacitores) hinchados


Actualmente muchos componentes informáticos, entre ellos:

  • Placas base (Motherboard o Mainboard).
  • Tarjetas Gráficas (SVGA o VGA).
  • Tarjetas de sonido.
  • Tarjetas de Red.
  • Tarjetas Capturadoras de vídeo.
  • Etc.

Utilizan entre otros componentes electrónicos los condensadores (Capacitores) cuya función es almacenar energía, los más comunes son:

  • Electrolíticos: El material dieléctrico es ácido electrolítico (Con el tiempo suelen hincharse e incluso derramar líquido por lo que es necesario sustituirlos por unos nuevo o bien cambiar la pieza completa).
  • Sólidos: Utilizan una combinación de Polímero orgánico sólido (Solid Organic Polymer), son de mayor calidad que los anteriores, de hecho algunos fabricantes como Asus o Gigabyte lo implementan en sus productos más actuales, en el caso de Asus por ejemplo la vida estimada de una condensador sólido es de unas 5.000 horas a 105º C, (Un electrolítico tiene un tiempo de vida de unas 2.000 horas), sin embargo el tiempo de vida de los condensadores (Al igual que muchos componentes electrónicos varía con la temperatura), según la escala de Asus:
    • 105º C equivalen a unas 5.000 horas (0,57 años) funcionando 24 horas al día.
    • 85º C equivalen a unas 50.000 horas (5,7 años) funcionando 24 horas al día.
    • 75º C equivalen a unas 158.114 horas (18 años) funcionando 24 horas al día.
    • 65 º C equivalen a unas 500.000 horas (57 años) funcionando 24 horas al día.
    • 60º C equivalen a 889.140 horas (101,5 años) funcionando 24 horas al día.

Como se puede apreciar la vida de un condensador (Capacitor) varía en función de la temperatura por esta razón es importante que un equipo informático este bien refrigerado ya que los componentes principales de un ordenador:

  • Procesador (CPU).
  • Placa base (Chipset).
  • Tarjeta gráfica (SVGA).
  • Fuente de alimentación.

Llevan su correspondiente disipador/ventilador, sin embargo la refrigeración de caja puede ayudar a que los componentes anteriores no se sobrecalienten excesivamente ayudando de paso a refrigerar indirectamente otros componentes del equipo como son:

  • Discos duros (Sólo en el caso de ventiladores frontales que estén delante del/de los disco/s duro/s).
  • Componentes electrónicos de algunas piezas del equipo (Mosfet, Condensadores,…).

Normalmente en muchos componentes electrónicos no suele apreciarse un desgaste/fallo externo, sin embargo en los condensadores si es posible ver físicamente si fallan, ya que en muchos casos suelen hincharse e incluso pueden derramar líquido (Información de Bad Caps), en ambos casos nos indica un fallo del/de los condensador/es (En estas dos fotografías pueden apreciarse tres condensadores hinchados, mientras que el resto de condensadores aparentemente están en buen estado).

Vista general de placa base con condensadores hinchados (Pulsar para ampliar)

Detalle condensadores hinchados (Pulsar para ampliar)

Para reparar este problema, existen dos soluciones posibles:

  1. Sustituir todos los condensadores hinchados y/o con líquido derramado por unos nuevos soldándolos, esta opción suele ser poco viable ya que requiere condensadores equivalentes y por otro lado el acabado de soldar “manualmente” no será el mismo que el de fábrica.
  2. Sustituir la pieza por una nueva, aunque en este caso puede llevar aparejado una sustitución indirecta de más piezas, por ejemplo si tenemos un ordenador con: Procesador Pentium III con Socket 370, Placa base Socket 370 con condensadores hinchados, 1 GB SDRAM PC133 y una gráfica AGP, encontrar a día de hoy en 2011 una placa base nueva para Socket 370 es imposible, la única opción viable sería tirar de segunda mano y el material comprado al no ser nuevo y tener un tiempo de uso más o menos parecido podría fallar en un futuro próximo por lo que en muchos casos sería más viable incluso sustituir el equipo por un nuevo, pero esto implicaría probablemente un cambio de:
    • Placa base por tener los condensadores hinchados.
    • Procesador (Al cambiar de placa el procesador no suele ser compatible con la nueva salvo que tenga el mismo Socket y además este soportado por el fabricante de la placa base).
    • Memoria RAM (La RAM actual es DDR2 ó DDR3 (Esta última es más reciente) en lugar de ser DDR400 ó SDRAM PC133).
    • Tarjeta gráfica (Los modelos actuales son PCI Express (PCIe) no AGP).
    • Fuente de alimentación (Si es muy antigua posiblemente no tenga los conectores que se utilizan actualmente).

Hay que tener en cuenta que utilizar una placa base  con condensadores hinchados (Suele ser el componente más habitual que presenta este tipo de problema), puede generar problemas en el uso del equipo entre ellos:

  • Fallos de placa base antes del POST (Power On Self Test, Auto Diagnóstico Al Encender).
  • Fallos en memoria RAM.
  • Reinicios aleatorios y/o constantes.
  • Fallos durante el arranque y/o instalación del Sistema Operativo.
  • Congelamiento del Sistema Operativo aleatorio y/o frecuente.
  • BSOD (Blue Screens of Death) aleatorias y/o frecuentes durante el uso del equipo.
  • BSOD durante actividad del disco duro (IDE/ATA, SATA, RAID, SCSI,…).
  • Temperatura del procesador (CPU) anormalmente alta en Idle (Sin carga).
  • CPU vCore (Voltaje del procesador) y otros Voltajes erráticos y/o fuera de parámetros normales.

SSD de 25nm: ¿Son tan buenos como parecen?


Corsair Force F60 (SSD de 34 nm)

Actualmente muchos de los SSD (Solid State Device, Dispositivo de Estado Sólido) que hay en el mercado son de 34nm, sin embargo algunos fabricantes están “migrando” a los 25nm, esto tiene varias ventajas para ellos:

  • Reducir costes de fabricación (Lo cual debería repercutir en el usuario final al poder comprar un producto más barato aunque no siempre es así), ya que de una misma oblea sale una mayor cantidad de unidades.
  • En el caso de los SSD podría aumentarse la capacidad de almacenamiento de las unidades.
  • Reducir la temperatura (Aunque en memoria Nand Flash es poco improbable ya que apenas se calientan).
  • Mayor fiabilidad.
  • Mayor rendimiento.
  • Menor consumo (En el caso de la memoria Nand Flash es poco improbable que se reduzca el consumo de forma significativa ya que es bastante bajo).

Sin embargo esta migración a los 25nm va a tener varias desventajas para el usuario:

  • Menor rendimiento (Según las pruebas realizadas por Corsair en sus nuevos SSD de 25 nm, estos tienen entre un 3 y un 4 % menos de rendimiento que los modelos equivalentes de 34 nm de la generación anterior), aunque únicamente sería visible en Benchmarks o Test de rendimiento, ya que en el uso diario no sería apreciable.
  • Menor capacidad de almacenamiento útil ya que para mantener la fiabilidad del dispositivo el Spare Area (Área de Reserva) debe ser mayor que la de los modelos de 34 nm, esto se debe a que los ciclos de escritura para Nand Flash de 25nm es de 3.000 ciclos (Es decir una memoria Nand Flash de 25nm puede ser escrita 3.000 veces sin que de “problemas”), sin embargo una memoria Nand Flash de 34nm soporta hasta 5.000 ciclos.

Por ahora los únicos fabricantes que han migrado a 25nm son OCZ la cual ha tenido graves problemas con sus usuarios ya que al descubrirse el “pastel” ha habido quejas masivas de sus usuarios y Corsair que por lo que parece ha aprendido la lección y comercializará sus modelos con otras referencias diferentes a las de los modelos actuales, pasando los Corsair F80 de 80 GB y F120 de 120 GB de 34 nm, a denominarse Corsair Force 80A (80 GB) y Force 115 (115 GB) de 25 nm.

Es de suponer que el resto de fabricantes de SSD (G.Skill, Mushkin, Crucial, Intel,…) que migren a 25 nm hagan algo similar a lo que ha hecho Corsair si no quieren producir una “desbandada” de usuarios que se vayan a otras marcas como les ha ocurrido a OCZ con sus Vertex2/Agility2, que han tenido que comenzar un programa de reemplazo de unidades a raíz de las quejas de los usuarios.

Se puede encontrar más información en:

Racetrack: Futuras unidades de almacenamiento mágnetico de alto rendimiento de IBM


Según parece el “Gigante Azul” (IBM (International Business Machines) para más señas) esta estudiando un sistema de almacenamiento magnético denominado Racetrack que se caracteriza por:

  • Aumentar la capacidad de almacenamiento.
  • Reducido tamaño.
  • Mejor rendimiento. Se espera que sea superior a los SSD, Solid State Devices (Dispositivos de Estado Sólido):
    • No tienen partes móviles (Al igual que los SSD actuales).
    • Tendrán hasta 100.000 veces la velocidad de escritura de un SSD actual.
    • Admiten un número de escrituras infinitas (Los SSD actuales tienen un número de escrituras limitadas).

Esta tecnología de almacenamiento se basa en el uso de nanotecnología “aprovechando” huecos que no se han utilizado hasta ahora; aunque según ha comentado la propia IBM por lo menos hasta dentro de 10 años (Quizás para el año 2020) no veremos los resultados, aunque si saldrán prototipos dentro de unos 3 años (2013).

Se puede encontrar más información en:

¿Almacenamiento en soporte físico u online?


Hasta hace poco lo habitual era guardar los datos en soportes de almacenamiento físico como por ejemplo:

  • Disquetes de 3,5″ con 1,44 MB (Actualmente apenas se utilizan).
  • Unidades Zip/Jazz de varios GB (Actualmente apenas se utilizan), eran “disquetes” removibles de alta capacidad aunque no eran compatibles con los discos de 3,5″.
  • CDs (650/700 MB)/DVDs (DVD5 de 4,38 GB y DVD9 de 7,92 GB “efectivos”).
  • Discos duros (HDD: Hard Disk Drive) bien internos (Conectados mediante IDE/UDMA, SATA, SCSI o SAS que con los conectores más comunes) o externos (Utilizando como bus USB 2.0, Firewire400/800, eSATA, USB 3.0,…), actualmente tienen capacidades de varios cientos de GB (De hecho actualmente el “tope” son 2 TB (2.000 GB), aunque se espera que aparezcan discos de mayor capacidad en breve).
  • Memorias Flash USB (Ls denominados “Pendrives”).
  • Tarjetas de memoria (Compact Flash (CF), Secure Digital (SD), Multimedia Card (MMC), Memory Stick,…).
  • SSD (Solid State Device, Dispositivos de Estado Sólido basados en memoria flash. Son las unidades de almacenamiento que sustituiran a los discos duros actuales en un futuro próximo, aunque actualmente tienen un precio “prohibitivo” para dedicarlos a almacenamiento de datos (Una unidad de 60 GB de ultima generación ronda los 120 €), aunque para discos de Sistema (Almacenamiento de Sistema Operativo, Programas y Juegos) son muy buena elección ya que actualmente son los dispositivos de almacenamiento más rápidos, incluso superan en rendimiento a los discos SCSI/SAS de 10.000 y 15.000 Rpms, cuando en un entorno doméstico se utilizan discos de 7.200 Rpms o como mucho discos SATA Western Digital Raptor/Velociraptor de 10.000 Rpms, aunque estos ultimos han perdido la batalla con los SSD en rendimiento no asi en capacidad, un Velociraptor de 300 GB ronda los 140 € mas portes en Alternate, curiosamente el modelo de 150 GB tiene el mismo precio pero la mitad de capacidad).

Disco duro (HDD: Hard Disk Drive)

 

Las ventajas de un almacenamiento en soporte físico son:

  • Tenemos un acceso a los datos instántaneo (Lógico ya que solo tenemos que conectar la unidad al ordenador).
  • El mantenimiento y ordenamiento de la información la realizamos nosostros mismos (El usuario/administrador es quien decide los datos que deben ser replicados y cuales son “innecesarios” en caso de fallo).
  • Al tenerlos en un soporte físico se pueden extraer contenido fácilmente a otros soportes (Por ejemplo si tenemos videos personales en formato DVD, podremos grabarlos en un DVD sin muchos problemas).
  • El mantenimiento de copias de seguridad esta más controlado, existen programas que permiten realizar copias cada cierto tiempo de carpetas/particiones determinadas.
  • En principio requiere menos seguridad (No es necesario poner el nombre de usuario (Login) ni contraseña (Password), aunque en algunos sistemas de almacenamiento externo existe esa posibilidad para aumentar la seguridad de los datos, incluso existen sistemas de almacenamiento externo que usan sistemas de seguridad biométricos mediante huella digital para dar acceso a los datos o denegarlo).

Pero también tienen sus desventajas:

  • Un fallo mecánico (En el caso de un disco duro) o electrónico (En el caso de un disco duro, memoria flash,…) puede estropear la unidad de almacenamiento con nuestros datos dentro, haciendo practicamente imposible la recuperación de los mismo (En casos muy graves la única solución es recurrir a una empresa especializada en recuperación de datos pero este proceso no es precisamente barato).
  • Un malware (Virus, Gusanos,…) puede dañar los datos y/o las unidades lógicas (Particiones) dificultando el acceso a los datos.
  • Puede haber un borrado de datos por algun usuario/administrador bien de forma involuntaria (Por despiste) o bien hecha a conciencia (Por ejemplo un usuario malintencionado que entre en el equipo bien de forma remota o fisicamente) y borre datos importantes.
  • Averías de los sistemas de alamcenamiento debidas al desgaste de los componentes mecánicos (Todos los discos duro terminan averiandose tarde o temprano, ya que tienen una gran cantidad de piezas moviles que sufren un desgaste con el tiempo de uso).
  • Posibilidad de que roben la unidad físicamente.
  • Es necesario que el usuario/administrador tengan una política de copias de seguridad (Por ejemplo realizar un copia mensual de los datos poco importantes y una semanal de los datos críticos, de esta forma en caso de fallo tendriamos los datos del mes anterior y los de la semana pasada, sin embargo si hacemos una copia de seguridad de los datos poco importantes trimestralmente y una copia mensual de los datos críticos en caso de fallo recuperariamos los datos no criticos de hace tres meses y los críticos del mes anterior).
  • Otro problema es el espacio que ocupan físicamente los soportes de almacenamiento físico (Discos duros, CDs, DVDs,…) que requieren algun sistema para archivarlos de forma adecuada.
  • Así mismo un cambio de formato de almacenamiento afectas a los soportes, ya que por ejemplo hace años lo “normal” eran los discos de 3,5″ con 1,44 MB, despues aparecieron las unidades Zip/Jazz y practicamente al par las primeras grabadoras de CDs de 650/700 MB, poco despues las grabadoras de DVD de una capa (DVD5 con 4,38 GB “utiles”) y posteriomente las de doble capa (DVD9 con 7,92 GB “utiles”), mientras que los discos duros han crecido en capacidad de forma increible (Actualmente hay discos duros de 1 y 2 TB, o lo que es lo mismo 1.000 y 2.000 GB) y unidades flash (USB o en formato tarjeta) con varios GB de capacidad. Por lo que se hace aconsejable elegir bien el tipo de soporte (Quizas actualmente la mejor opcion sea el uso de discos duros de gran capacidad ya que apenas ha variado con el tiempo mientras que otros formatos (Ej: Zip/Jazz) o bien ha desaparecido del mercado o bien se han ido “mejorando”  como ha sido el caso de las unidades ópticas (Primero salieron los CDs, despues los DVDs y ahora están los Blu-Ray que admiten hasta 25 GB por capa).

Sin embargo actualmente esta apareciendo los soportes online o almacenamiento en red (También llamado Cloud Computing, Computación en Nube) tanto gratuitos como de pago que puede ser en el ámbito de:

  • Una Intranet (Ej: Red local de una pequeña empresa).
  • Una VPN (Virtual Private Network, Red Privada Virtual).
  • La propia Internet (La Red de Redes).

Cuyas ventajas son:

  • Tenemos acceso a nuestros datos desde cualquier lugar siempre y cuando exista una conexión a internet (Ej: ADSL, Cable, 3G, GPRS,…), los datos normalmente se almacenan en servidores “apilados” que reciben el nombre de Datacenter (Centros de Datos) o CPD (Centro de Procesamiento de Datos), información de Wikipedia.
  • Almacenamiento de datos en servidores remotos (No son accesibles localmente por lo que se aumenta la seguridad física de los datos evitando en lo posible que usuario malintencionados puedan acceder localmente a los datos y/o robar las unidades de almacenamiento).
  • No es necesario cambiar el formato de los archivos, aunque si podría ser necesario tener un programa compatible con el tipo de formato para poder abrirlo/editarlo.
  • Mayor seguridad, no hay que preocuparse por mantenimiento (Copias de seguridad), malware (Virus, Gusanos,…), ya que otros (Los administradores del sitio donde se almacenan los datos) se encargan de ello.
  • Es posible hacer copias de los datos online (En servidor remoto), en nuestro ordenador de forma local por si queremos aumentar la seguridad de los Back-Ups (Copias de seguridad) de los datos críticos.
  • El espacio ocupado por nuestros datos online se almacena en servidores remotos, es decir que no necesitariamos unidades de almacenamiento físicas (Ej: Discos duros) para almacenamiento local.
  • En muchos casos el almacenamiento online es gratuito, aunque existen opciones de pago con más ventajas (Ej: Mayor capacidad de almacenamiento).
  • Permite la reproducción de audio y video en “streaming” (Al vuelo), no es necesario descargar el fichero en nuestro equipo (Se reproduce a medida que avanza) esto por norma general suele funcionar sin embargo si la red esta muy colapsada o bien nuestra conexión no es tan rápida como debería pueden producirse parones o “cortes” durante la reproducción del archivo audiovisual.

Data Center (CPD: Centro de Procesamiento de Datos)

 

Sin embargo el almacenamiento en red también tiene sus desventajas:

  • Si no disponemos de conexión a Internet por la razón que sea no tendremos acceso a nuestros datos online, por lo que para poder acceder a nuestros datos online siempre será necesario disponer de una conexión a Internet forzosamente (Cosa que no ocurre con el almacenamiento físico o almacenamiento local).
  • No tenemos ningún control sobre los datos, por ejemplo si la empresa lleva a cabo tareas de mantenimiento es posible que nuestro servidor de almacenamiento online este fuera de línea (Off line o Inaccesible) cuando es posible que necesitamos tener acceso a ellos de forma “urgente”.
  • Por otra parte se supone que las empresas de almacenamiento online, se dedican precisamente a almacenar datos de usuarios pero tampoco se puede estar seguro al 100% que donde tengamos alojados nuestros datos los utilicen de algún modo e incluso manipularlos de alguna forma.
  • En caso de desastre (Ej: Un fallo en el servidor) podrían perderse los datos aunque en estos casos lo normal es que las empresas tengan copias de seguridad (Back-Ups) para restaurarlos, claro que es posible que la copia de seguridad restaurada no sea de “ayer” (Día anterior al desastre) sino que tenga otra fecha (Ej: La semana pasada) y por tanto los datos restaurados no estarían actualizados a día de “hoy” sino a la fecha de restauración.
  • Los portales de Streaming (Ej: Youtube,…) son los que deciden que contenidos se pueden subir y cuales no (Por norma general aquellos contenidos con derechos de autor (Copyright) suelen ser borrados lo antes posible para evitar una posible demanda por parte del autor o compañia representante (Ej: SGAE, RIAA) por reproducir un contenido audivisual sin autorización), de hecho sitios como MegaUpload, MediaFire,… que se dedican a alojar archivos en la red verifican que los archivos no tengan copyright, en caso de tenerlo actuan en consecuencia (Lo normal es que borren el archivo).
  • Limitación del ancho de banda, por ejemplo en España actualmente la conexión más rápida sin tener en cuenta la opcion de 50 Mbps/3 Mbps de ONO son las conexiones ADSL/Cable de como mucho unos 20 Megas (20 Mbps/1 Mbps) aunque en pequeñas ciudades y zonas rurales es más frecuente ver conexiones de 6 Mbps/300 Kbps o incluso menos lo cual limita bastante el uso de los sistemas de almacenamiento online porque hay que tener en cuenta que antes de tener alojados nuestros archivos en la Red (Internet) hay que subirlos a la misma, pero la velocidad de subida que tenemos actualmente es bastante “baja”:
    • 3 Mbps (Unos 384 KB/Seg).
    • 1 Mbps (Unos 128 KB/Seg).
    • 300 Kbps (Unos 38,4 KB/Seg).

En comparacion con la velocidad de bajada:

  • 50 Mbps (Unos 6.400 KB/Seg, aproximadamente 6,25 MB/Seg).
  • 20 Mbps (Unos 2.560 KB/Seg, aproximadamente 2,25 MB/Seg).
  • 10 Mbps (Unos 1.280 KB/Seg, aproximadamente 1,25 MB/Seg).
  • 6 Mbps (Unos 768 KB/Seg, aproximadamente 0,75 MB/Seg).
  • 3 Mbps (Unos 384 KB/Seg, aproximadamente 0,375 MB/Seg).

Es decir que si por ejemplo queremos subir 100 MB (0,1 GB) teniendo en cuenta las velocidades de subida actuales tardaríamos aproximadamente:

  • Unos 4 minutos y 24 segundos aproximadamente con una conexión de 3 Mbps (Unos 384 KB/Seg).
  • Unos 13 minutos y 18 segundos aproximadamente con una conexión de 1 Mbps (Unos 128 KB/Seg).
  • Unos 44 minutos y 24 segundos aproximadamente con una conexión de 300 Kbps (Unos 38,4 KB/Seg).

Logicamente cuanto mayor sea el archivo mayor sería el tiempo de subida del mismo, es decir para subir por ejemplo un archivo de 300 MB tardaríamos aproximadamente el triple de tiempo con las conexiones comentadas anteriormente.

Se puede encontrar más información en:

Conexiones de datos de alta velocidad para dispositivos de almacenamiento interno


Actualmente el conector de datos más común en ordenadores domésticos es:

  • Serial ATA (SATA150) que soporta hasta 150 MB/Seg por conector, en principio este ancho de banda es más que suficiente para cualquier disco duro (HDD: Hard Disk Drive) mecánico actual, aunque se queda corto para los SSD (Solid State Device, Dispositivo de Estado Sólido) basados en memoria flash (En estas entradas del Blog: SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros y Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) hay más información sobre estos dispositivos).
  • Serial ATA2 (SATA300) que soporta hasta 300 MB/Seg por conector, en principio este ancho de banda es suficiente para casi cualquier SSD (Solid State Device, Dispositivo de Estado Sólido) actual a excepción de los Crucial C300 que son SATA3 (SATA600) ya que su capacidad de lectura es de 355 MB/Seg (Usando SATA300 se “quedan” en 265 MB/Seg).

Para solucionar el problema de ancho de banda sobre todo para los futuros SSD de altas prestaciones (Sin tener que recurrir al bus PCI Express (PCIe) como hacen por ejemplo los Revo Drive de OCZ, en esta entrada del Blog hay más información sobre este dispositivo) se puede utilizar:

  • Serial ATA 3 (SATA600) soporta hasta 6 Gbps (Unos 600 MB/Seg) por conector, actualmente es una buena opción ya que ningún SSD con conexión SATA supera los 400 MB/Seg.
  • SAS (Serial Attached SCSI) es una conexión que ha sustituido al antiguo SCSI (Small Computer System Interface), se utiliza en Servidores profesionales debido al alto coste tanto de las controladoras como de los dispositivos de almacenamiento, de hecho su evolución es similar a SATA (Los discos SAS son incompatibles con conexiones Serial ATA), la norma actual es SAS 6 Gbps (SAS 600) que soporta hasta 600 MB/Seg y se espera que para 2010 llegue hasta los 12 Gbps denominandose SAS 1200 que tendria aproximadamente 1,2 GB/Seg de ancho de banda.

Sin embargo ya hay proyectos para aumentar aun más la tasa de transferencia de los dispositivos internos como es el caso del conector:

  • High Speed Data Link (HDSL) de OCZ que utiliza un cable SAS de alta calidad, actualmente tiene un ancho de banda de 2 Gbps pero se espera que llegue en un futuro hasta 20 Gbps (Probablemente en un futuro tenga mejoras de velocidad como ocurre con la mayoría de conexiones de datos), HDSL se utiliza en los nuevos OCZ Ibis que tienen 4 controladoras Sand Force 1200 (SF-1200) en RAID 0 llegando a ofrecer unas prestaciones de hasta 804 MB/Seg en lectura y 675 MB/Seg en escritura (Información de Infochaos Digital).
  • Light Peak desarrollado por Intel que utiliza un cable de fibra óptica e inicialmente tendra un ancho de banda de 10 Gbps,  que en un futuro proximo podria llegar hasta los 100 Gbps, en principio se espera que aprezca en 2011.

Estos conectores permiten “apilar” los discos en niveles RAID (En esta entrada del Blog hay más información) siempre y cuando la controladora lo soporte, mientras que el uso de SSD con conexión PCIe no permite la “apilación” porque los discos trabajarian de forma individual.

Se puede encontrar más información en:

SSD Mushkin Callisto Deluxe de 40 GB: SSD de alto rendimiento, baja capacidad y relativamente económico


Hasta hace poco tiempo los SSD (Solid State Device, Dispositivo de Estado Sólido) de alto rendimiento tenian y tienen precios caros, especialmente en modelos de 120 GB o más capacidad, de hecho los modelos de 60 GB rondan los 150 – 160 € (La relación €/GB es de entre 2,5 y 2,66 €/GB) que no es un mal precio si tenemos las ventajas que ofrecen los SSD, entre ellas:

  • Menor latencia (Tiempo de acceso) que es inferior a 1 ms (Los discos duros domésticos de 7.200 Rpms suelen tener unos 9 ms en el mejor de los casos), lo que se traduce en mayor rapidez a la hora de cargar el Sistema Operativo y abrir programas/juegos.
  • Mayor rendimiento en tasas de lectura y escritura secuencial.
  • Mejor rendimiento en tadas de lectura y escritura aleatoria (Esto en parte depende de las prestaciones de la controladora).
  • Mayor cantidad de IOPS (Input Ouput Per Second), realizan más operaciones de entrada/salida (E/S) por segundo que los discos duros.
  • Mayor fiabilidad (No tienen parte móviles).
  • Menor consumo.
  • Generan menos calor.

Sin embargo según la información de Noticias3D, parece ser que Mushkin va a comercializar un SSD de 40 GB basado en Sand Force 1200 (SF-1200) aunque todavía no aparece en la web de Mushkin, realmente esto no es nada “nuevo” ya que fabricantes como OCZ (Vertex2 de 40 GB) y Corsair (Force F40), también tienen modelos de 40 GB; la diferencia es que en lugar de costar unos 140 – 145 € (Sin gastos de envío), el Mushkin Callisto Deluxe de 40 GB sale por unos 108 € (La relación €/GB sería de unos 2,7 €) sin gastos de envío en PCComponentes (Una tienda online española, aunque a fecha de la entrada (26 de agosto) actualmente esta “Agotado”), es decir que a igualdad de producto y rendimiento (Los tres modelos comentados anteriormente llevan una controladora Sand Force 1200/SF-1200) el Mushkin es más barato, de hecho las versiones de 40 GB de OCZ y Corsair se acercan bastante en precio a algunos SSD de 60 GB basados también en SF-1200 como el caso del:

  • Mushkin Callisto Deluxe de 60 GB (Ronda los 148 € sin gastos de envío).
  • G.Skill Phoenix Pro de 60 GB (Ronda los 150 – 155 € sin gastos de envío).
  • OCZ Vertex2 de 60 GB (Ronda los 158 € sin gastos de envío).
  • Corsair Force F60 de 60 GB (Ronda los 173 € sin gastos de envío).

Las ventajas del SSD Mushkin Callisto a pesar de su relativo alto precio (Unos 11o €) es su gran rendimiento ya que si tomamos como referencia el OCZ Vertex 2 de 40 GB (Ambos deben tener un rendimiento similar ya que se basan en la misma controladora) son:

  • Uso de una controladora Sand Force 1200 (SF-1200) que es de las más actuales y de mayor rendimiento.
  • Una tasa secuencial de hasta 280 MB/Seg en lectura y 270 MB/Seg en escritura (Los modelos de 60 GB tienen 285/275 MB/Seg en lectura/escritura, por lo que la diferencia de rendimiento es mínima).
  • Hasta 45.000 IOPS en Random Write de 4KB (Los modelos de 60 GB tienen hasta 50.000 IOPS, de nuevo la diferencia de rendimiento es mínima).

Como se puede ver tiene practicamente el mismo rendimiento que las unidades de 60 GB basadas en controladora Sand Force 1200 (SF-1200) pero menor coste (También es cierto que tiene menor capacidad de almacenamiento que los modelos de 60 GB), de hecho si lo comparamos con modelos de precios y capacidades similares como por ejemplo:

  • Intel X25-V de 40 GB (Controladora Intel): Hasta 170 MB/Seg en lectura y 35 MB/Seg en escritura (Ronda los 110 € (Unos 2,75 €/GB) sin contar gastos de envio).
  • OCZ Onyx de 32 GB (Controladora Indilix Amigos): Hasta 125 MB/Seg en lectura y 70 MB/Seg en escritura (Ronda los 82 € (Unos 2,56 €/GB) sin contar gastos de envio).
  • Corsair V32 Nova (Controladora Indilix Barefoot): Hasta 195 MB/Seg en lectura y 70 MB/Seg en escritura (Ronda los 115 € (Unos 3,59 €/GB) sin contar gastos de envio).

Se puede decir que el Mushkin Callisto Deluxe de 40 GB (Ronda los 108 € (Unos 2,7 €/GB) sin gastos de envío) tiene mejor relacion precio/prestaciones que los anteriores ya que:

  • Es un modelo más actual.
  • Su controladora tiene mayor rendimiento.
  • Tiene una capacidad similar o incluso superior (Caso del OCZ Onyx y Corsair Nova).

Es más teniendo en cuenta el precio tampoco sería mala idea montar un RAID 0 (Stripping) con dos Mushkin Callisto de 40 GB de esta forma conseguiríamos:

  • Un SSD de 80 GB (40 GB x2) al sumar la capacidad de ambos SSD por el precio aproximadado de un SSD de 80 GB, como por ejemplo:
    • Intel X25-M de 80 GB (Controladora Intel; hasta 170 MB/Seg en lectura y 70 MB/Seg en escritura) ronda los 215 € sin portes.
    • G.Skill Phoenix Pro de 80 GB (Controladora Sand Force 1200 (SF-1200); hasta 285 MB/Seg en lectura y 275 MB/Seg en escritura) ronda los 200 € sin portes.
    • OCZ Vertex2 de 90 GB (Controladora Sand Force 1200 (SF-1200); hasta 285 MB/Seg en lectura y 275 MB/Seg en escritura) ronda los 210 € sin portes (Este modelo no creo que sea “interesante” porque por 10 € más esta el Vertex2 de 120 GB).
    • Vertex2 de 120 GB (Controladora Sand Force 1200 (SF-1200); hasta 285 MB/Seg en lectura y 275 MB/Seg en escritura) ronda los 220 € sin portes (Este modelo puede ser interesante si necesitamos una capacidad de almacenamiento superior a los 80 GB y no nos importa “perder” rendimiento (De todas formas el rendimiento de un único SSD es más que notable respecto al uso de un disco duro aun siendo este de 10.000 ó 15.000 Rpms).
  • Una tasa de lectura de unos 560 MB/Seg (280 MB/Seg x2) al montarlos en RAID 0 (Stripping).
  • Una tasa de escritura de unos 540 MB/Seg (270 MB/Seg x2) al montarlos en RAID 0 (Stripping).

Aunque hay que tener en cuenta que un RAID 0 con SSD tiene varias desventajas:

  • Actualmente los SSD en RAID no soportan TRIM (Es un sistema que evita la degradacion (Pérdida) de rendimiento en el SSD con el uso en escritura de datos en lectura de datos apenas se degrada).
  • En caso de deshacer el RAID nos quedaríamos con dos unidades de 40 GB que pueden ser “pequeñas” según para que tipo de usuarios (No es lo mismo un usario ofimático que utiliza unos pocos programas, que por ejemplo un usuario Gamer que utiliza además de los programas más comunes, tiene instalados varios juegos de ordenador que ocupan varios GB cada uno).

Así mismo RAID 0 no es tolerante a fallos, por lo que si uno de los SSD del RAID fallase, la información del mismo puede darse por pérdida, por esta razón es necesario tener copias de seguridad de los archivos que consideremos “críticos” (Documentos, Fotografías, Vídeos, Música,…).

Próximas controladoras Sand Force Phoenix para SSD de alto rendimiento


Los SSD de última generación basados en:

  • Sand Force 1200 (SF-1200) con un rendimiento  hasta 285 MB/Seg en lectura y 275 MB/Seg en escritura.
  • Crucial C300 (Utilizan una controladora Marvell) con un rendimiento de hasta 355 MB/Seg en lectura usando SATA600/SATA3 (Con SATA300/SATA2 tienen hasta 265 MB/Seg) y una tasa de escritura variable de hasta:
    • 215 MB/Seg para el modelo de 256 GB.
    • 140 MB /Seg para el modelo de 128 GB.
    • 75 MB/Seg para el modelo de 64 GB.

Son los que tienen mayor rendimiento actualmente (Aunque los C300 destacan más en lectura que en escritura, a diferencia de los Sand Force 1200/SF-1200 que son más equilibrados en lectura y escritura). Sin embargo parece que en Computex 2010 (Una de las ferias de informática que se celebran anualmente en Taipei, Taiwan) el fabricante Photofast ha presentado el Monster2-SVF2 (Información de Tweak Town en inglés), cuyas caracteristicas principales son:

  • Uso de una controladora Sand Force Phoenix de nueva generación.
  • Rendimiento de hasta 520 MB/Seg en lectura y 520 MB/Seg en escritura (520/520 MB/Seg en lectura/escritura) secuencial.
  • Utilización del bus SATA600 (SATA 6 Gbps o SATA3), ya que usando SATA300 se quedaría limitado a menos de 300 MB/Seg que es el máximo ancho de banda disponible en SATA300.
  • Según parece se comercializara a finales del año 2010 o principios del 2011.

A la vista del rendimiento de este próximo SSD, parece claro que el estándar Serial ATA 600 (SATA600) posiblemente dure “poco” en el mercado al tener poco ancho de banda para las próximas generaciones de SSD.