PCI SIG anuncia un bus PCI Express (PCIe) externo


PCI-SIG el organismo encargado de gestionar las especificaciones del bus PCI Express (PCIe, información de Wikipedia) que sustituirá en breve al antiguo bus PCI (Peripheral Component Interconnect, Interconexión de Componentes Periféricos; información de Wikipedia), el cuál estaba limitado a un máximo de 133 MB/Seg usando un bus de 32 Bits (El más común), mientras que el nuevo bus PCIe se rige por “líneas” (Lanes), teniendo en cuenta que el bus PCIe v1.1 de 2007 tenía una transferencia de 250 MB/Seg (Casi el doble que el bus PCIe) para un puerto PCIe 1x, aunque PCIe 1x), además hay que tener en cuenta que el PCIe es “escalable” desde 1x hasta 16x.

Ahora el PCI-SIG esta pensando en crear un bus PCIe externo basado en la versión 3.0 (Hasta 1 GB/Seg) que utilizaría 4 líneas (PCIe 4x), lo que supone un ancho de banda total de 4 GB/Seg. Esto supondría un competidor para buses externos actuales como por ejempo:

  • USB 3.0 (Hasta 4.800 Mbps (4,8 Gbps), unos 600 MB/Seg): Es un bus de conexión externo que ha evolucionado desde el anterior USB 2.0 (Hasta 480 Mbps, unos 60 MB/Seg).
  • eSATA600 (Hasta 600 MB/Seg): Es un protocolo de almacenamiento que ha evolucionado desde el anterior SATA300 (Hasta 300 MB/Seg).
  • Intel Thunderbolt (Intel Light Pak): Inicialmente soportará hasta 10 Gbps (1.280 MB/Seg; equivalente a 1,28 GB/Seg).

La creación de este nuevo bus PCIe externo supondría una ventaja para conectar dispositivos que requieran un gran ancho de banda como por ejemplo:

  • Futuros SSD (Solid State Device, Dispositivo de Estado Sólido) externos que superen los 600 MB/Seg en lectura/escritura (Actualmente los SSD SATA600 “ocupan” el ancho de banda con unos 500 MB/Seg aproximadamente, aunque también es cierto que actualmente existen SSD en formato PCIe que tienen mayor rendimiento que los SSD SATA).
  • Tarjetas gráficas PCIe externas.
  • Sistemas de almacenamiento DAS (Direct Attached Storage, Almacenamiento Directo Adjunto) con varios SSD.

Se puede encontrar más información en:

Anuncios

Memorias USB 3.0: Mach Xtreme FX Series y Super Talent (Express Duo, Express Drive y DriveRAID)


En esta entrada del Blog comente la memoria flash A-Data Nobility N005 una de las primeras memorias flash USB 3.0 de alto rendimiento (Hasta 85 MB/Seg en lectura y 55 MB/Seg en escritura), según parece los fabricantes de memoria flash comienzan a diseñar productos que utilizan el nuevo puerto USB 3.0 (Soporta hasta 4,8 Gbps, unos 4.800 Mbps que equivalen a unos 600 MB/Seg) frente al antiguo USB 2.0 (Soporta hasta 480 Mbps, unos 60 MB/Seg). Entre ellos Mach Xtreme comercializa un serie denominada FX que tiene un rendimiento con USB 3.0 de hasta 125 MB/Seg en lectura y de 55 MB/Seg en escritura para la unidad de 16 GB y de  unos 80 MB/Seg para las unidades de 32/64 GB, el precio de la unidad de 32 GB es de unos 100 € mientras que el modelo de 64 GB ronda los 165 € (En ambos casos sin contar gastos de envío si los hubiese) se pueden encontrar en Hardmodding y PCCool (Dos tiendas online de Portugal).

En este video de Youtube se puede encontrar una reviews:

Así mismo parece que también Super Talent otros de los fabricantes de memorias flash ha diseñado el Express Duo (Información de TechPowerUp en inglés) para competir en el mercado de gama “baja” ya que su capacidad en principio esta “limitada” a 8 y 16 Gb y su rendimiento por USB 3.0 es de hasta 67 MB/Seg en lectura (Lo que no esta nada mal) pero su tasa de escritura “baja” hasta los 23 MB/Seg algo lejos de los 55 MB/Seg de la A-Data Nobility N005 y FX Series de 16 GB.

Por otra parte Super Talent comercializa en la gama alta dos modelos:

  • Express Drive USB 3.0 que tiene hasta 120 MB/Seg en lectura y hasta 43 MB/Seg en escritura; el modelo de 16 GB ronda los 49 €.

  • RAIDDrive USB 3.0 que tiene hasta 315 MB/Seg en lectura y hasta 141 MB/Seg en escritura (Su alto rendimiento se debe al uso de un RAID 0 interno), el modelo de 32 GB ronda los 210 €.

Ambos son compatibles con USB 2.0 aunque perdiendo rendimiento ya que el bus USB 2.0 tiene menor ancho de banda.

Lógicamente para poder aprovechar el rendimiento que ofrece un dispositivo USB 3.0 se necesita un puerto USB 3.0 ya que de lo contrario el dispositivo funcionara “limitado” como USB 2.0, es decir que en este caso el componente “limitante” sería el puerto USB en si mismo, por el contrario si usamos un dispositivo USB 2.0 en un puerto USB 3.0 el rendimiento del dispositivo USB no “mejorará” sino que estará limitado por el rendimiento del dispositivo USB en si mismo y no por el conector.

¿Cúales son las averías más caras de un ordenador portátil?


En esta entrada del Blog comente las averías más caras que puede tener un ordenador de sobremesa, en esta otra entrada comentare las averías más caras que pueden sufrir los equipos portátiles (Sin tener en cuenta periféricos como: Impresora, Escáner, Multifunción, Módem, Router,…), de mayor a menor importancia y coste (En este último caso teniendo en cuenta tanto los materiales como de montaje/configuración o mano de obra) sería:

  1. Disco duro (HDD: Hard Disk Drive): En caso de que el disco duro falle, será necesario cambiarlo por uno nuevo, además generalmente es necesario reinstalar el Sistema Operativo de nuevo junto con los datos del usuario, y si además es necesario recuperar los datos del disco duro antiguo el coste de la reparación puede dispararse ya que la recuperación de datos es un proceso complejo y costoso (Por esta razón es necesario tener copias de seguridad de los datos importantes en otros soportes de almacenamiento).
  2. Placa base (Motherboard o Mainboard): Es otra de las averías más caras, de hecho el coste de sustituir una placa base de un portátil no compensa, generalmente sale más a cuenta comprar uno nuevo.
  3. Tarjeta gráfica (GPU): Por regla general muchos portátiles la llevan integrada en el chipset de placa base o bien aun siendo una grafica dedicada (Con GPU y memoria propios), en ambos casos suelen ir integrados dentro de la placa base por lo que en caso de fallo habría que sustituir la placa base completa, por lo que saldría más a cuenta comprar un portátil nuevo (La excepción son los equipos con tarjetas MXM (Mobile PCI Express Module, Módulo PCI Express Móvil) que permiten cambiarlas por otras similares, aunque habría que mandarlo al fabricante y la reparación tampoco sería lo que se dice barata).
  4. Monitor: En caso de que el monitor tenga un fallo grave (Ej: No se vea media pantalla), la sustitución de la pantalla es bastante costosa por lo que seguramente traiga más cuenta comprar un portátil nuevo.
  5. Procesador: El coste depende en parte de si es posible encontrar un procesador nuevo compatible con la placa base (Sin tener que actualizar la BIOS de la placa base ya que algunos procesadores actuales sólo funcionan en placas antiguas si se actualiza la BIOS a una versión más actual y si no tenemos un procesador compatible será casi imposible realizar dicho cambio salvo que la BIOS detecte el nuevo procesador como “Unknown” (“Desconocido”) y nos permita hacer la actualización porque el Sistema arranque; además hay que desmontar el disipador de CPU para quitar el procesador (CPU) averiado), colocar el procesador nuevo, limipiar la pasta térmica del disipador original y poner pasta térmica nueva (El uso de pasta térmica evita que el procesador se sobrecaliente excesivamente).
  6. Inverter del monitor: Es un componente del monitor que puede fallar, su reparación no suele ser excesivamente costosa.
  7. Batería: En caso de que la batería del portátil dure muy poco tiempo la única solución es cambiar la batería por una nueva.
  8. Conector de alimentación de la placa base: Esta avería suele ser bastante costosa ya que es necesario desmontar el portátil para localizar el problema.
  9. Transformador/cargador del portátil: En caso de que el transformador/cargador falle la solución más viable es adquirir un transformador/cargador original o compatible (Su reparación puede tener un coste similar al precio del transformador/cargador nuevo).
  10. Teclado: Su sustitución es relativamente costosa ya que no se utilizan teclados estándar como en sobremesa.
  11. Unidades ópticas (Lector o Grabadora DVD): En caso de avería en principio basta con sustituir una por otra y poco más si acaso actualizar el programa de grabación si este es antiguo y no reconoce la grabadora nueva (No suele ser necesario reinstalar el Sistema Operativo).
  12. Otra avería bastante frecuente y que suele aparecer con el paso del tiempo es la acumulación de polvo en los sistemas de refrigeración (Disipadores y ventiladores) del ordenador, esta acumulación de polvo y pelusas hace que el rendimiento de los sistemas de refrigeración se reduzca bastante y puedan producirse inestabilidad en el uso del equipo (Bloqueos, Reinicios, Apagados del equipo). En csaso de tener que sustituir los sistemas de refrigeración el coste de la reparación puede aumentar ligeramente.

En cuanto a Software la avería más habitual y costosa suele ser la reinstalación del Sistema Operativo ya que suele implicar:

  • Comprobación de hardware (Disco duro, RAM,…) para eliminar algún posible fallo de hardware que afecte al software (Sistema Operativo y programas).
  • Copia de seguridad de los datos de usuario si sólo hay una partición (Suponiendo que el usuario no haya hecho una copia de segurida de sus datos previamente).
  • Reinstalación de Sistema Operativo (Incluyendo creación de particiones y configuración del Sistema).
  • Reinstalación de los drivers (Controladores) de los dispositivos (Chipset placa base, Tarjeta gráfica, Tarjeta de sonido, Tarjeta de Red, Impresora,…).
  • Reinstalación de los programas utilizados por el usuario.
  • Restauración de los datos de usuario.

¿Cuál es el cuello de botella actual de un equipo informático?


El Bottleneck o Cuello de botella (Definición de Alegsa.com.ar) supone una limitación del rendimiento del equipo informático (PC) para realizar una función determinada (Por lo tanto el cuello de botella de un ordenador siempre a va ser su pieza más lenta). El cuello de botella puede ser debido a:

  • Un componente “lento” de por si (Ej: Un disco duro) que ralentiza al resto del sistema a pesar de ser actual (Los componentes electrónicos (CPU, Gráfica, Chipset,…) actualmente no suponen un cuello de botella).
  • Un desaprovechamiento de un componente “nuevo” porque el componente “base” en el que se instala es “lento” (Esto puede ocurrir por ejemplo al actualizar un equipo antiguo con piezas nuevas que sean compatibles), como por ejemplo utilizar:
    • Una tarjeta gráfica AGP 8x en un puerto 4x.
    • Una tarjeta PCIe 16x en una ranura limitada a PCIe 4x porque no existe ninguna ranura PCIe de  16x.
    • Un disco duro ATA133 en un equipo con conectores SATA300 (Normalmente disponen al menos de un conector ATA133 para conectar dispositivos antiguos y/o unidades ópticas).
    • Una memoria RAM DDR400 en una placa que admita DDR2 667 (Teniendo en cuenta que las placas base que soportan dos tipos diferentes de memoria no la admiten de forma simultánea o mezclada, es decir que sólo se puede usar un tipo de memoria u otro).
    • Una memoria RAM DDR2 1066 en una placa base que admita hasta DDR2 667 o bien el controlador de memoria del procesador (Caso de los Athlon64) este limitado a DDR2 667.

Lógicamente la sensación de lentitud (Dentro de un orden claro está) es diferente para cada usuario y por lo tanto el cuello de botella puede estar en piezas diferentes en función de la tarea a desarrollar por ejemplo para:

  • Editar video si no queremos que el proceso se “eternice” suele ser necesario tener:
    • Un buen procesador (Basicamente es el que se encarga de procesar el video).
    • Una buena cantidad de RAM.
  • Jugar de forma fluida a los últimos juegos 3D con gran resolución (Ej: Full HD ó 1080p: 1.920 x 1.080 píxeles) y buen nivel de detalle (Aplicación de filtros) será necesario tener:
    • Una buena tarjeta gráfica que sea capaz de procesar los recursos gráficos que genera el juego en cuestión.
    • Un procesador “bueno”.
    • Bastante RAM.

Hay que tener en cuenta que el cuello de botella sólo se vería reflejado en usos muy concretos (Como por ejemplo los comentados anteriormente), ya que un equipo actual para ofimática con un par de años aunque se actualizase algún componente no tendría un cuello de botella significativo ya que las aplicaciones que utiliza no requieren un gran consumo de recursos, si acaso se podría cambiar el disco duro por otro más rápido pero dado que actualmente:

  • Los equipos domésticos en general usan discos de 7.200 Rpms (Los equipos profesionales pueden usar discos de 10.000 ó 15.000 Rpms, aunque actualmente tienden a utilizar SSD, comentados en estas entradas del Blog: Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) y SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros).
  • Los discos de 10.000 Rpms SATA están “limitados” a los Velociraptors de Western Digital, pero tienen una relacion €/GB pémisa (Los modelos de 74 y 150 GB rondan los 150 €, el de 300 GB ronda los 203 €, el de 450 GB los 280 y el de 600 GB ronda los 285 €), ya que los precios en muchos casos se acercan a de un SSD  de entre 60 y 120 GB.
  • Los SSD tienen una relación €/GB también pésima (Aunque su rendimiento es muy superior a cualquier disco duro actual de 10.000 ó 15.000 Rpms), un SSD de 60 GB ronda los 160 € y uno de 120 GB ronda los 320 €, aunque también hay SSD de 40 GB y alto rendimiento (Ej: Mushkin Callisto, comentado en esta entrada del Blog) que rondan los 108 € sin gastos de envío.

Para un uso puramente ofimático posiblemente siga interesando tirar de discos duros mecánicos por su relacion precio/prestaciones frente a los SSD.

Sin embargo existe un cuello de botella “endémico” en cualquier equipo informático actual de altas prestaciones: El disco duro, desde el inicio de la informática los sistemas de almacenamiento electro-mecánicos (Discos duros) han sido siempre el cuello de botella, un disco duro:

  • UDMA33 (ATA33) podía transmitir hasta 33 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (Utilizaban cables de 40 hilos y 40 contactos).
  • UDMA66 (ATA6) podía transmitir hasta 66 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (A partir de ATA66 hasta ATA133 se utilizaron cables de 80 hilos y 40 contactos).
  • UDMA100 (ATA100) podía transmitir hasta 100 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior.
  • UDMA133 (ATA33) podía transmitir hasta 133 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 150 (SATA150) podía transmitir hasta 150 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior (Lo normal es que el bus SATA utilice una conexión PCI express o PCIe).
  • Serial ATA 300 (SATA300 ó SATA2) transmite hasta 300 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 600 (SATA600 ó SATA3) podía transmitir hasta 600 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.

Hay que tener en cuenta que en el caso de los discos UDMA/ATA el ancho de banda disponible se repartía entre los dos dispositivos (Master y Slave)  conectados al mismo canal (Primario o Secundario) y que el acceso a los mismos (Ej: Pasar datos de un disco duro Master en canal primario al disco Slave del mismo canal) no era simultáneo sino alterno. Con el nuevo conector Serial ATA (SATA) ha habido una mejora en este sentido ya que cada dispositivo tiene su ancho de banda propio (En el caso de SATA150, cada conector tiene hasta 150 MB/Seg de ancho de banda, en el caso de SATA300/SATA2 cada conector tiene hasta 300 MB/Seg y en el caso de SATA600/SATA3 cada conector tiene 600 MB/Seg) puesto que la conexion es “directa” desde el dispositivo (Ej: Disco Duro) al conector SATA de la placa base.

Actualmente para equipos de gama alta parece más interesante tener un SSD o dos en RAID 0 (Stripping) junto con un disco duro de alta capacidad para:

  • Instalar el Sistema Operativo y el Software (Programas y Juegos) en el SSD, acelerando así la carga del Sistema Operativo y la apertura de los programas/juegos).
  • Dejando el disco duro de gran capacidad para almacenar los datos de usuario (Documentos, Música, Videos/Películas, Descargas,…) los cuales no necesitan tener una apertura “instantánea”.

El mayor problema es que si necesitamos un SSD de cierta capacidad 120 GB o más el precio del mismo se “dispara”.

Ya que actualmente los ordenadores tienen un gran ancho de banda en los componentes puramente electrónicos como por ejemplo:

  • FSB de los procesadores, por ejemplo el bus Hyper-Transport (HTT) v3.0 de los ultimos AMD tiene una frecuencia de funcionamiento de 3,2 Ghz con 32 Bits, que se traduce en un ancho de banda bidireccional de 51,2 GB/Seg, y los primeros Intel Nehalem (Core i7 y derivados) tienen un bus similar al HTT de AMD denominado QPI (QuickPath Interconnect), el cual funciona a 3,2 Ghz con 20 Bits, que se traduce en un ancho de banda bidireccional de 25,6 GB/Seg.
  • Memoria RAM DDR2 PC1066 que tiene 8.500 MB/Seg (8,5 GB/Seg).
  • Memoria RAM DDR3 PC1600 que tiene 12.800 MB/Seg (12,8 GB/Seg).
  • Bus Serial ATA300 (Hasta 300 MB/Seg).
  • Bus Serial ATA600 (Hasta 600 MB/Seg).
  • USB 3.0 (Hasta 4,8 Gbps, unos 4.800 Mbps que equivalen a unos 600 MB/Seg).
  • Bus PCI Express (PCIe) que en su version 1.1 tiene un ancho de banda de 250 MB/Seg y por canal, es decir que un bus PCIe de 1x tendría 250 MB/Seg (El bus PCI anterior tenía como máximo 133 MB/Seg para todos los dispositivos que hubiese conectados a él), mientras que un PCIe 16x tendría 4 GB/Seg (4.000 MB/Seg) ya que serían 16 canales de 250 MB/Seg cada uno (250 MB/Seg x 16  canales = 4.000 MB/Seg). Actualmente el bus PCIe va por la versión 2.0 el cual dobla la tasa de transferencia, hastalos 500 MB/Seg y el próximo bus PCIe 3.0 la vuelve a doblar hasta los 1.000 MKB/Seg.

Sin embargo los discos duros mecánicos actuales (Lo habitual es que sean de 5.400 ó 7.200 Rpms) por muy rápidos que sean (Aun siendo de 10.000 ó 15.000 Rpms)  no pueden aprovechar al 100% el ancho de banda que proporcionan los buses de datos actuales como por ejemplo:

  • SATA o S-ATA (Serial ATA).
  • SCSI (Small Computers System Interface (Sistema de Interfaz para Pequeñas Computadoras).
  • SAS (Serial Attached SCSI que es utiliza unos conectores similares a SATA pero incompatibles con él).

Por lo que el rendimiento del sistema de almacenamiento supone un cuello de botella bastante grande, por varias razones:

  1. Alta latencia: Los discos duros de 7.200 Rpms (Los más comunes en entornos domésticos) tiene un tiempo de busqueda según fabricante en el mejor de los casos de unos 9 ms aproximadamente (Mientras que un disco de 10.000 Rpms segun datos de los fabricantes tienen el mejor de los casos 4,2 ms y los discos de 15.000 Rpms tienen entre 3,4 y 3,5 ms), esto se traduce en una pérdida de rendimiento debido a que para buscar un dato es necesario invertir bastante “tiempo” si se compara con un SSD los cuales tienen latencias (Tiempo de Acceso) inferiores a 1 ms.
  2. Tasa de transferencia: Que en el caso de los discos duro no se mantiene sostenida sino que fluctua entre un maximo y un minimo, de hecho las gráficas de los Benchmark de disco duro como: HD Tach y HD Tune, muestran que un disco duro SATA300 de 500 GB y 7.200 Rpms actual puede tener una tasa media de transferencia de datos de unos 100 MB/Seg pero esta tasa no es sostenida a lo largo de toda la superficie del plato sino que suele empezar por una tasa ligeramente superior a la media para ir bajando progresivamente hasta por debajo de la media pudiendo llegar a ser la tasa mínima aproxidamente entre el 50 (En torno a los 50 MB/Seg) ó el 60% (En torno a los 60 MB/Seg) de la velocidad media.
  3. IOPS (Input Output Per Second, Operaciones de Entrada – Salida Por Segundo): Los discos duros tienen muy bajo rendimiento en este sentido.

Estos problemas y otros derivados de la propia arquitectura de los discos duros inicialmente se “resolvieron” con los niveles RAID (Hay más información en esta entrada del Blog) que permitian mejorar:

  • El rendimiento del sistema de almacenamiento (Ej: RAID 0, Stripping)
  • La seguridad física de los datos, como es el caso de RAID 1 (Mirroring o Espejo).
  • El rendimiento y la seguridad física de los datos, como es el caso de RAID 5 y RAID 10.

Sin embargo aun utilizando sistemas RAID los discos duros tienen una latencia alta, por lo que los SSD (Solid State Device, Dispositivos de Estado Sólido) basados en memorias Nand Flash como las que se utilizan en las memorias flash USB o las tarjetas de memoria, son los que realmente proporcionaran al usuario un gran rendimiento ya que apenas tienen latencia (Es inferior a 1 ms) y sus tasas de transferencia de datos son muy altas (Si queremos mayor rendimiento aún se puede optar por un RAID 0 con dos o más SSD); sin embargo hasta que no sus precios sean “asequibles” (Actualmente un SSD “bueno” de entre 60 y 80 GB ronda los 160 – 225 €) no se podrá eliminar el lastre de rendimiento que suponen los discos duros para los sistemas operativos actuales y sus programas/juegos.

De hecho en el futuro no sería raro ver equipos de altas prestaciones con Un SSD para el Sistema (Incluyendo los Programas y Juegos) para que le de “rapidez” al equipo, mientras que los datos de usuario se guardan en:

  • Discos duro electro-mecánicos de gran capacidad (Actualmente existen discos de hasta 2 TB y ya que comenta que en breve saldrán los discos de 3 TB).
  • Discos duros híbridos (HHD: Hybrid Hard Drive, Discos Duro Híbrido que son discos electro-mecánicos pero con algo de memoria Flash para acelerar el rendimiento, en esta entrada del Blog hay más información)  de gran capacidad (Actualmente Seagate tiene un modelo con estas caracteristicas denominado Seagate Momentus XT, es un disco duro de 2,5″ (Tamaño de disco duro de portátil) que esta disponible en tres capacidades: 250 GB, 320 GB y 500 GB que cuenta con 4 GB de memoria Nand Flash SLC, pero teniendo en cuenta que el modelo de 320 GB ronda los 123 € y el modelo de 500 GB los 148 € parece mejor opción este último ya que por unos 30 € más se consiguen 180 GB “extras”).

OCZ Revo Drive: Unidades SSD en formato PCI Express (PCIe) de baja capacidad


Hasta hace poco las unidades SSD (Solid State Device, Dispositivo de Estado Sólido) basadas en memorias Nand Flash como medio de almacenamiento se encontraban principalmente como discos de: 2,5″ (Tamaño de disco portátil, para poder usarlo en un equipo de sobremesa era necesario utilizar un adaptador de 2,5″@3,5″), aunque también existen otros formatos (Como comente en esta entrada del Blog):

  • 1,8″ (Tamaño inferior al de un disco portátil).
  • 3,5″ (Tamaño de disco de sobremesa, no son muy frecuentes aunque existen algunos modelos de OCZ en este formato).

Sin embargo desde hace tiempo también se comercializan SSD en formato PCIe (Usando una tarjeta PCIe) como ha sido el caso del Photofast G- Monster o el OCZ Z Drive (Se puede encontrar más información en esta entrada del Blog) cuyos precios eran bastante altos.

Actualmente parece que OCZ ha sacado al mercado modelos en formato PCIe más “asequibles” con menor capacidad y rendimiento como es el caso del OCZ Revo Drive que utiliza una conexión PCIe 4x, sus características principales son:

50-80GB Max Performance

  • Read: Up to 540 MB/s
  • Write: Up to 450 MB/s
  • Sustained Write: Up to 350 MB/s
  • Random Write 4KB (Aligned): 70,000 IOPS

120GB-480GB Max Performance

  • Read: Up to 540 MB/s
  • Write: Up to 480 MB/s
  • Sustained Write: Up to 400 MB/s
  • Random Write 4KB (Aligned): 75,000 IOPS

El gran rendimiento de estas unidades se debe al uso de un RAID 0 interno.

Su precio es de unos 243 € para el modelo de 50 GB, unos 300 € para el de 80 GB y unos 375 € para el de 120 GB, el resto de modelos de mayor capacidad tienen precios algo desorbitados.

Sin embargo hay que tener en cuenta que el Revo Drive puede tener varias “desventajas” frente al uso de dos o más SSD con conexión Serial ATA en RAID 0, entre otras:

  1. Utiliza un RAID 0 interno por lo que en caso de fallo habría que sustituir posiblemente la tarjeta completa.
  2. No se puede hacer un RAID utilizando tarjetas PCIe 4x, mientras que con conexiones SATA si es posible, actualmente la mayoria de las placas base suelen traer al menos entre 4 y 6 conexiones SATA300 e incluso en algunos casos incorporan controladoras SATA RAID adicionales sencillas de otros fabricantes, las cuales requieren sus propios drivers/controladores.

Además de no ser compatible con todas las placas base, OCZ tiene un listado en PDF con las que han probado.

Firewire800 (IEEE 1394b): Estándar de conexión de vídeo


Hasta hace poco tiempo el estándar para volcar video era Firewire o Firewire400 (También conocido como IEEE 1394a o I.Link) el cual soportaba hasta 400 Mbps (Unos 50 MB/Seg) e incluso permitía crear una red local entre dos equipos de 400 Mbps (Mucho más rápida que Fast Ethernet que soporta hasta 100 Mbps, unos 12,5 MB/Seg; aunque más lenta que Gigabit Ethernet que soporta hasta 1.000 Mbps, unos 125 MB/Seg).

Algunas de las ventajas de Firewire son:

  • Mayor tasa de transferencia de datos sostenida que USB (Hay que tener en cuenta que Firewire se desarrollo como un estándar para editar video, mientras que USB se diseño como un puerto de uso “genérico” para sustituir a los puertos paralelo, serie y PS/2).
  • Mayor capacidad de alimentación de dispositivos soportando hasta 45w bastante superior a la alimentación que puede proporcionar USB.

Sin embargo desde hace unos años existe una revisión de Firewire denominada Firewire800 (IEEE 1394b) que soporta hasta 800 Mbps (Unos 100 MB/Seg), este puerto suele usarse en equipos de Apple (Macintosh), aunque también existen controladoras PCI/PCIe y PCMCIA/Express Card para ordenadores tipo PC tanto de sobremesa como portátiles.

Este puerto inicialmente se diseño para editar video, de hecho la primera versión (Firewire400) “competía” en el mercado con USB 2.0 (Hasta 480 Mbps, unos 60 MB/Seg) y conseguía mayor rendimiento que USB 2.0, en parte debido a que Firewire400 se diseñó explicitamente para volcar vídeo de un dispositivo (Ej: Cámara MiniDV) a un ordenador y no podían perderse frames (Imágenes) durante la captura del video. De hecho los fabricantes de hardware en muchos casos sacaron versiones de un mismo producto pero con diferente puerto (Bien USB 2.0 ó bien Firewire400, e incluso en algunos casos sacaron modelos con ambos conectores).

La desventaja principal de Firewire800 es el alto precio que tienen las controladoras Firewire800, así como los dispositivos que utilizan este tipo de conexión.

Se puede encontrar más información en:

USB 3.0: El próximo estándar en transferencia de datos para dispositivos informáticos


Si ya USB (Universal Serial Bus, Bus Universal en Serie, también conocido como CUS: Conductor Universal en Serie) en su versión 2.0 nos podía parecer relativamente rápido, ya que USB 2.0 soporta hasta 480 Mbps, unos 60 MB/Seg aunque generalmente los dispositivos de alta velocidad (Ej: Memorias flash de alto rendimiento y discos duros) suelen quedarse en unos 35 MB/Seg lo cual no es poco si se compara con otros puertos de menor velocidad como son:

  • USB 1.1 (Sporta hasta 12 Mbps, aproximadamente 1,5 MB/Seg).
  • Puerto Paralelo (LPT) y Serie (RS-232) que son más lentos que la primera generación de USB.

Hay que tener en cuenta que los puertos USB se pueden clasificar según su velocidad (Tasa de transferencia de dato) en:

  • Low Speed (USB 1.0): Soporta hasta 1,5 Mbps (Unos 183 KB/Seg) prácticamente no se popularizo porque al poco tiempo salió la revisión USB 1.1 que soportba hasta 12 Mbps.
  • USB Full Speed (USB 1.1): Soporta hasta 12 Mbps (Unos 1,43 MB/Seg) fue el máx extendido hasta la aparición de USB 2.0 que soportaba hasta 480 Mbps.
  • USB High Speed (USB 2.0): Soporta hasta 480 Mbps (Unos 60 MB/Seg) es el estándar actual, al menos hasta que USB 3.0 se comercialice de forma masiva.
  • USB Super Speed (USB 3.0): Soporta hasta 4.800 Mbps (Unos 4,8 Gbps, aproximadamente unos 572 MB/Seg).

El aumento de velocidad de USB 3.0 se consigue mediante el uso de una mayor cantidad de lineas de datos, por lo que el tráfico es bidireccional, este aumento de lineas implica que el cable USB 3.0 es más grueso y por tanto más rígido. Así mismo los dispositivos USB 3.0 serán retrocompatibles con USB 2.0 aunque lógicamente perdiendo rendimiento (Al igual que ocurría con los dispositivos USB 2.0 conectados a un puerto USB 1.1).

De todas formas actualmente USB 3.0 no está implementado de forma masiva (Casi ninguna placa base trae puertos USB 3.0 y en muchos casos es necesario comprar una controladora USB 3.0 en formato PCIe o Express Card porque el bus PCI (Soporta hasta 133 MB/Seg) y PCMCIA  limitaría el ancho de banda disponible para los dispositivos conectados por USB 3.0) en parte porque los productos basados en estas nuevas controladoras actualmente son algo caros, y por otro lado actualmente existen otros conectores bastante más rápidos que USB 2.0 (Hasta 480 Mbps, unos 60 MB/Seg) como son:

  • Firewire800/IEEE 1394b que soporta hasta 800 Mbps (Unos 100 MB/Seg). En esta entrada del Blog hay más información.
  • eSATA (external Serial ATA) que soporta hasta 3.000 Mbps (Unos 300 MB/Seg) si se utiliza SATA300/SATA2 o bien hasta 1.500 Mbps (Unos 150 MB/Seg) si se usa SATA150, además el próximo estándar será SATA600 que llegara hasta los 6.000 Mbps (Unos 600 MB/Seg). En esta entrada del Blog hay más información.

Se puede encontrar más información en: