Guía para montar un ordenador de bajo consumo


En Noticias3D hay un artículo bastante interesante sobre la creación de el montaje de un equipo informático (Ordenador) de sobremesa de bajo consumo (Sobre los 50w en total), para lograr este propósito aconsejan

  • No reciclar equipos antiguos ya que en muchos casos es posible que superen el consumo que marcan como sostenible (50w), aunque se puede aprovechar alguna que otra pieza (Ej: Memoria RAM, Unidad Óptica, Caja,…).
  • Utilizar productos de tipo “Green” (“Verdes”) que tienen menor consumo que los convencionales (Aunque también hay que tener en cuenta que ofrecen un rendimiento algo menor que los modelos de la gama “convencional”).

En cuanto a los componentes a tener en cuenta comentan como opciones en:

  • Placas base (Mother Board o Mainboard) están los formatos MicroATX (También llamado µATX o mATX) y Mini-ITX, el primero es una variante de menor tamaño (244 mm * 244 mm; 9.6 pulgadas * 9.6 pulgadas) que el estandar ATX (305 mm * 244 mm; 12 pulgadas * 9,6 pulgadas)/eATX (305 mm * 330 mm; 12 pulgadas * 13 pulgadas) por lo que las piezas (Memoria RAM, Tarjetas,…) suelen ser retrocompatibles, mientras que Mini-ITX (170 mm x 170 mm; 6,7 pulgadas x 6,7 pulgadas) es un formato más reducido que mATX y que por otra parte no suele ser compatible con los componentes (Memoria RAM, Tarjetas,…) que se utilizan en equipos ATX/mATX. En cualquier caso este tipo de placas base suelen integrar la tarjeta gráfica bien en el chipset (Como se hacía hasta hace poco) o bien en el procesador como ocurre por ejemplo con algunos procesadores Intel y AMD actuales.

Placa base micro ATX

Placa base Mini-ITX

  • Como procesadores (CPU: Central Processing Unit, Unidad Central de Procesamiento), las alternativas en bajo consumo son los Intel Atom (Existen modelos con/sin HT (Hyper-threading), 1 núcleo, 2 núcleos, 4 núcleos,…), los AMD Fusion Zacate (E-350.) y los Via Nano (Aunque estos últimos son más difíciles de encontrar). Otra alternativa pueden ser los procesadores de bajo consumo que tienen tanto Intel como AMD para equipos de sobremesa aunque el consumo aumentará ligeramente.
  • Fuente de alimentación: Lo ideal sería que estuviese adaptada al consumo del equipo, teniendo en cuenta que ronda los 50w, lo ideal sería una fuente de unos 100 ó 150w, por lo que las únicas opciones viables son una fuente Mini-ITX o bien usar una fuente integrada en caja. Una alternativa puede ser utilizar una fuente de alimentación de 200 ó 300 w con PFC Activo y que al menos tenga la certificación 80 Plus (Hay más información en esta entrada del Blog sobre esta certificación), ya que este tipo de fuentes ayudan a reducir el consumo eléctrico.
  • Memoria RAM: El consumo de este componente no es muy significativo sin embargo algunos fabricantes como Kingston están sacando al mercado series “green” de bajo consumo como su serie HyperX LoVo (Low Voltage) que están disponibles DDR3 1333 y DDR3 1600 y funcionan con un voltaje de entre 1,25 y 1,35v (Una memoria RAM DDR3 1333/1600 convencional tiene un consumo de 1,5v aproximadamente). En principio con 2 GB (2.048 MB) debería ser más que suficiente, aunque teniendo en cuenta el precio actual de la memoria RAM puede ser interesante tener 4 GB (4.96 MB), ya que podríamos utilizar una parte de la memoria RAM como RamDisk (En esta entrada del Blog hay más información).

  • Sistema de almacenamiento: Lo más normal teniendo en cuenta la relación precio/prestaciones sería un disco duro (HDD: Hard Disk Drive) de 5.400 Rpms tipo “Green” (De bajo consumo) de la capacidad que pensemos utilizar (Teniendo en cuenta que siempre es mejor que sobre espacio a corto/medio plazo a que nos falte, ya que las cajas de este tipo de equipos suelen ser pequeñas por lo que no tienen mucha capacidad de ampliación y por otro lado aumentar el número de discos en el equipo incrementaría el consumo de watios, por ejemplo un WD Caviar Green de 1 TB de 3,5″ (Tamaño de ordenador de sobremesa o escritorio) consume unos 5,30 w en Read/Write (Lectura/Escritura), sin embargo un disco duro como el Caviar Blue (6,80 w) o el Caviar Black (6,80 w), ambos de 7.200 Rpms tienen un consumo mayor en Read/Write. Por otra parte los modelos de mayor capacidad como por ejemplo el Caviar Green de 2 TB (5,30 w) y el Caviar Black de 2 TB (10,7 w) aunque tienen mayor consumo lo “compensan” con su mayor capacidad, ya que por ejemplo si tenemos dos Caviar Green de 1 TB cada uno (2 TB en total, tendríamos un consumo total de unos 10,6w en lugar de 5,30 w en el caso de usar un único disco duro de 2 TB). Otros discos de bajo consumo son los Samsung Ecogreen de 5.400 Rpms, los Hitachi Deskstar 5K1000y los Seagate Barracuda LP de 5.900 Rpms. Otra opción si queremos reducir el consumo puede ser usar discos de 2,5″ (De tamaño portátil) que deberían tener un consumo menor que es de los modelos de 3,5″. Por otro lado si buscamos el máximo rendimiento con el menor consumo la opción más viable sería un SSD (Solid State Device, Dispositivo de Estado Sólido), aunque hay que tener en cuenta que su relación precio/espacio es pésima aunque sus prestaciones superan a cualquier disco duro actual (Incluyendo a los SCSI/SAS de 10.000 y 15.000 Rpms).

WD Caviar Green

SSD Crucial M4

  • Caja: Teniendo en cuenta que el formato de la placa base (Bien sea mATX o Mini-ITX) va a determinar el tipo de caja, es interesante tener en cuenta que las cajas con refrigeración activa (Con ventiladores) no es muy aconsejables debido al posible ruido que puede generar el equipo (Esto en parte dependería de las Rpms y del tamaño del ventilador; generalmente a más Rpms, más ruido), por lo que sería más aconsejable que la caja tuviese zonas perforadas con rejillas tipo Mesh que ayuden a evacuar el aire caliente por convección. Otra opción puede ser instalar un regulador de Rpms (Rheobus) para controlar las Rpms y ruido que generen los ventiladores que tengamos instalados (En esta entrada del Blog hay una guía para elegir un rheobus.

Barebone Shuttle

Este tipo de ordenadores se suele utilizar para uso:

  • Ofimático (Procesador de textos, Hoja de cálculo, Base de datos,…).
  • Internet (Web, eMail, Descargas,…)
  • Reproducción imágenes, audio (Ej: Música MP3) y vídeo (Películas), teniendo en cuenta que dependiendo de la potencia del equipo es posible que el equipo es posible que no sea capaz de reproducir formatos de vídeo en alta definición 1080p (1.920 x 1.080 píxeles) con un gran bitrate.

De hecho actualmente existe un nicho de mercado que recoge este tipo de equipos bajo el nombre de Nettop (Se puede decir que son el equivalente de los NetBook portátiles pero para sobremesa/escritorio) y que tienen un coste inferior al de un equipo de sobremesa.

Lógicamente este tipo de equipos de bajo consumo son idóneos para:

  • Edición fotográfica con imágenes de alta resolución.
  • Edición de vídeo.
  • Juegos 3D de última generación.
  • Autocad en 2D y 3D.

Se puede encontrar más información en:

Anuncios

Tasa de fallos de componentes informáticos en 2011


En la web francesa Hardware.fr publicaron este pasado mes de abril de 2011 unas tablas con las tasas de error de algunas piezas de hardware informático (Así mismo el año pasado publicaron otro artículo similar el 12 de abril de 2010 y otro el 2 de diciembre de 2010), entre las que figuran tablas de:

SSD con controladora Sand Force 1200 y fabricados a 25 nm


Hasta hace poco tiempo los SSD (Solid State Device, Dispositivos de Estado Sólido) que usaban la controladora Sand Force 1200 (SF-1200) o alguna de sus variantes se fabricaban a 34 nanómetros (34 nm), sin embargo desde hace unos meses los fabricantes de SSD han ido migrando a los 25 nm (Hay más información en esta entrada del Blog).

Corsair Force F60 de 34 nm (CSSD-F60GB2-BRKT)

Algunos de los fabricantes que ya han migrado a 25 nm o bien han iniciado el proceso son:

  • OCZ (Su modelo más conocido es el Vertex2): Dando lugar a numerosas quejas de usuarios de los Vertex2 (Más información en este hilo del Foro de Noticias3D), por las que el fabricante ha tenido que “rectificar” su política (Mas información en este otro hilo del Foro de Noticias3D).
  • Corsair (Serie Force): Para evitar confusiones a sus clientes potenciales ha optado por indicar la capacidad real como ha sido en el caso del F115 (SKU# CSSD-F115GB2-BRKT-A) que sustituye al F120 (SKU# CSSD-F120GB2-BRKT); o bien renombrar los modelos coincidentes con una “A” al modelo en cuestión si tenía la misma capacidad que el anterior como por ejemplo ha pasado con el F80A (SKU# CSSD-F80GB2-BRKT-A), e incluso más recientemente con el F60 (SKU# CSSD-F60GB2-BRKT) y F60A (Este último aparece listado en Alternate, una tienda online española, aunque no aparece en el catálogo online de Corsair).
  • G. Skill: Para evitar confusiones, ha comercializado un modelo “nuevo” (Phoenix EVO de 25 nm) para sustituir a los “antiguos” Phoenix Pro de 34 nm (Información de Hardzone).

Corsair Force F60A de 25 nm (CSSD-F60GB2-BRKT-A)

Por otra parte otros fabricantes como Mushkin han optado por no migrar a los 25 nm hasta que la fiabilidad y prestaciones de los modelos de 25 nm sean similares a la de los de 34 nm (Información de MadBoxPC); así mismo habría que saber si otros fabricantes de SSD que utilizan controladoras SF-1200 como por ejemplo Patriot (Con su modelo Inferno), entre otros) han migrado también a los 25 nm o por el contrario siguen fabricando sus SSD con 34 nm.

SSD de 25nm: ¿Son tan buenos como parecen?


Corsair Force F60 (SSD de 34 nm)

Actualmente muchos de los SSD (Solid State Device, Dispositivo de Estado Sólido) que hay en el mercado son de 34nm, sin embargo algunos fabricantes están “migrando” a los 25nm, esto tiene varias ventajas para ellos:

  • Reducir costes de fabricación (Lo cual debería repercutir en el usuario final al poder comprar un producto más barato aunque no siempre es así), ya que de una misma oblea sale una mayor cantidad de unidades.
  • En el caso de los SSD podría aumentarse la capacidad de almacenamiento de las unidades.
  • Reducir la temperatura (Aunque en memoria Nand Flash es poco improbable ya que apenas se calientan).
  • Mayor fiabilidad.
  • Mayor rendimiento.
  • Menor consumo (En el caso de la memoria Nand Flash es poco improbable que se reduzca el consumo de forma significativa ya que es bastante bajo).

Sin embargo esta migración a los 25nm va a tener varias desventajas para el usuario:

  • Menor rendimiento (Según las pruebas realizadas por Corsair en sus nuevos SSD de 25 nm, estos tienen entre un 3 y un 4 % menos de rendimiento que los modelos equivalentes de 34 nm de la generación anterior), aunque únicamente sería visible en Benchmarks o Test de rendimiento, ya que en el uso diario no sería apreciable.
  • Menor capacidad de almacenamiento útil ya que para mantener la fiabilidad del dispositivo el Spare Area (Área de Reserva) debe ser mayor que la de los modelos de 34 nm, esto se debe a que los ciclos de escritura para Nand Flash de 25nm es de 3.000 ciclos (Es decir una memoria Nand Flash de 25nm puede ser escrita 3.000 veces sin que de “problemas”), sin embargo una memoria Nand Flash de 34nm soporta hasta 5.000 ciclos.

Por ahora los únicos fabricantes que han migrado a 25nm son OCZ la cual ha tenido graves problemas con sus usuarios ya que al descubrirse el “pastel” ha habido quejas masivas de sus usuarios y Corsair que por lo que parece ha aprendido la lección y comercializará sus modelos con otras referencias diferentes a las de los modelos actuales, pasando los Corsair F80 de 80 GB y F120 de 120 GB de 34 nm, a denominarse Corsair Force 80A (80 GB) y Force 115 (115 GB) de 25 nm.

Es de suponer que el resto de fabricantes de SSD (G.Skill, Mushkin, Crucial, Intel,…) que migren a 25 nm hagan algo similar a lo que ha hecho Corsair si no quieren producir una “desbandada” de usuarios que se vayan a otras marcas como les ha ocurrido a OCZ con sus Vertex2/Agility2, que han tenido que comenzar un programa de reemplazo de unidades a raíz de las quejas de los usuarios.

Se puede encontrar más información en:

Racetrack: Futuras unidades de almacenamiento mágnetico de alto rendimiento de IBM


Según parece el “Gigante Azul” (IBM (International Business Machines) para más señas) esta estudiando un sistema de almacenamiento magnético denominado Racetrack que se caracteriza por:

  • Aumentar la capacidad de almacenamiento.
  • Reducido tamaño.
  • Mejor rendimiento. Se espera que sea superior a los SSD, Solid State Devices (Dispositivos de Estado Sólido):
    • No tienen partes móviles (Al igual que los SSD actuales).
    • Tendrán hasta 100.000 veces la velocidad de escritura de un SSD actual.
    • Admiten un número de escrituras infinitas (Los SSD actuales tienen un número de escrituras limitadas).

Esta tecnología de almacenamiento se basa en el uso de nanotecnología “aprovechando” huecos que no se han utilizado hasta ahora; aunque según ha comentado la propia IBM por lo menos hasta dentro de 10 años (Quizás para el año 2020) no veremos los resultados, aunque si saldrán prototipos dentro de unos 3 años (2013).

Se puede encontrar más información en:

¿Almacenamiento en soporte físico u online?


Hasta hace poco lo habitual era guardar los datos en soportes de almacenamiento físico como por ejemplo:

  • Disquetes de 3,5″ con 1,44 MB (Actualmente apenas se utilizan).
  • Unidades Zip/Jazz de varios GB (Actualmente apenas se utilizan), eran “disquetes” removibles de alta capacidad aunque no eran compatibles con los discos de 3,5″.
  • CDs (650/700 MB)/DVDs (DVD5 de 4,38 GB y DVD9 de 7,92 GB “efectivos”).
  • Discos duros (HDD: Hard Disk Drive) bien internos (Conectados mediante IDE/UDMA, SATA, SCSI o SAS que con los conectores más comunes) o externos (Utilizando como bus USB 2.0, Firewire400/800, eSATA, USB 3.0,…), actualmente tienen capacidades de varios cientos de GB (De hecho actualmente el “tope” son 2 TB (2.000 GB), aunque se espera que aparezcan discos de mayor capacidad en breve).
  • Memorias Flash USB (Ls denominados “Pendrives”).
  • Tarjetas de memoria (Compact Flash (CF), Secure Digital (SD), Multimedia Card (MMC), Memory Stick,…).
  • SSD (Solid State Device, Dispositivos de Estado Sólido basados en memoria flash. Son las unidades de almacenamiento que sustituiran a los discos duros actuales en un futuro próximo, aunque actualmente tienen un precio “prohibitivo” para dedicarlos a almacenamiento de datos (Una unidad de 60 GB de ultima generación ronda los 120 €), aunque para discos de Sistema (Almacenamiento de Sistema Operativo, Programas y Juegos) son muy buena elección ya que actualmente son los dispositivos de almacenamiento más rápidos, incluso superan en rendimiento a los discos SCSI/SAS de 10.000 y 15.000 Rpms, cuando en un entorno doméstico se utilizan discos de 7.200 Rpms o como mucho discos SATA Western Digital Raptor/Velociraptor de 10.000 Rpms, aunque estos ultimos han perdido la batalla con los SSD en rendimiento no asi en capacidad, un Velociraptor de 300 GB ronda los 140 € mas portes en Alternate, curiosamente el modelo de 150 GB tiene el mismo precio pero la mitad de capacidad).

Disco duro (HDD: Hard Disk Drive)

 

Las ventajas de un almacenamiento en soporte físico son:

  • Tenemos un acceso a los datos instántaneo (Lógico ya que solo tenemos que conectar la unidad al ordenador).
  • El mantenimiento y ordenamiento de la información la realizamos nosostros mismos (El usuario/administrador es quien decide los datos que deben ser replicados y cuales son “innecesarios” en caso de fallo).
  • Al tenerlos en un soporte físico se pueden extraer contenido fácilmente a otros soportes (Por ejemplo si tenemos videos personales en formato DVD, podremos grabarlos en un DVD sin muchos problemas).
  • El mantenimiento de copias de seguridad esta más controlado, existen programas que permiten realizar copias cada cierto tiempo de carpetas/particiones determinadas.
  • En principio requiere menos seguridad (No es necesario poner el nombre de usuario (Login) ni contraseña (Password), aunque en algunos sistemas de almacenamiento externo existe esa posibilidad para aumentar la seguridad de los datos, incluso existen sistemas de almacenamiento externo que usan sistemas de seguridad biométricos mediante huella digital para dar acceso a los datos o denegarlo).

Pero también tienen sus desventajas:

  • Un fallo mecánico (En el caso de un disco duro) o electrónico (En el caso de un disco duro, memoria flash,…) puede estropear la unidad de almacenamiento con nuestros datos dentro, haciendo practicamente imposible la recuperación de los mismo (En casos muy graves la única solución es recurrir a una empresa especializada en recuperación de datos pero este proceso no es precisamente barato).
  • Un malware (Virus, Gusanos,…) puede dañar los datos y/o las unidades lógicas (Particiones) dificultando el acceso a los datos.
  • Puede haber un borrado de datos por algun usuario/administrador bien de forma involuntaria (Por despiste) o bien hecha a conciencia (Por ejemplo un usuario malintencionado que entre en el equipo bien de forma remota o fisicamente) y borre datos importantes.
  • Averías de los sistemas de alamcenamiento debidas al desgaste de los componentes mecánicos (Todos los discos duro terminan averiandose tarde o temprano, ya que tienen una gran cantidad de piezas moviles que sufren un desgaste con el tiempo de uso).
  • Posibilidad de que roben la unidad físicamente.
  • Es necesario que el usuario/administrador tengan una política de copias de seguridad (Por ejemplo realizar un copia mensual de los datos poco importantes y una semanal de los datos críticos, de esta forma en caso de fallo tendriamos los datos del mes anterior y los de la semana pasada, sin embargo si hacemos una copia de seguridad de los datos poco importantes trimestralmente y una copia mensual de los datos críticos en caso de fallo recuperariamos los datos no criticos de hace tres meses y los críticos del mes anterior).
  • Otro problema es el espacio que ocupan físicamente los soportes de almacenamiento físico (Discos duros, CDs, DVDs,…) que requieren algun sistema para archivarlos de forma adecuada.
  • Así mismo un cambio de formato de almacenamiento afectas a los soportes, ya que por ejemplo hace años lo “normal” eran los discos de 3,5″ con 1,44 MB, despues aparecieron las unidades Zip/Jazz y practicamente al par las primeras grabadoras de CDs de 650/700 MB, poco despues las grabadoras de DVD de una capa (DVD5 con 4,38 GB “utiles”) y posteriomente las de doble capa (DVD9 con 7,92 GB “utiles”), mientras que los discos duros han crecido en capacidad de forma increible (Actualmente hay discos duros de 1 y 2 TB, o lo que es lo mismo 1.000 y 2.000 GB) y unidades flash (USB o en formato tarjeta) con varios GB de capacidad. Por lo que se hace aconsejable elegir bien el tipo de soporte (Quizas actualmente la mejor opcion sea el uso de discos duros de gran capacidad ya que apenas ha variado con el tiempo mientras que otros formatos (Ej: Zip/Jazz) o bien ha desaparecido del mercado o bien se han ido “mejorando”  como ha sido el caso de las unidades ópticas (Primero salieron los CDs, despues los DVDs y ahora están los Blu-Ray que admiten hasta 25 GB por capa).

Sin embargo actualmente esta apareciendo los soportes online o almacenamiento en red (También llamado Cloud Computing, Computación en Nube) tanto gratuitos como de pago que puede ser en el ámbito de:

  • Una Intranet (Ej: Red local de una pequeña empresa).
  • Una VPN (Virtual Private Network, Red Privada Virtual).
  • La propia Internet (La Red de Redes).

Cuyas ventajas son:

  • Tenemos acceso a nuestros datos desde cualquier lugar siempre y cuando exista una conexión a internet (Ej: ADSL, Cable, 3G, GPRS,…), los datos normalmente se almacenan en servidores “apilados” que reciben el nombre de Datacenter (Centros de Datos) o CPD (Centro de Procesamiento de Datos), información de Wikipedia.
  • Almacenamiento de datos en servidores remotos (No son accesibles localmente por lo que se aumenta la seguridad física de los datos evitando en lo posible que usuario malintencionados puedan acceder localmente a los datos y/o robar las unidades de almacenamiento).
  • No es necesario cambiar el formato de los archivos, aunque si podría ser necesario tener un programa compatible con el tipo de formato para poder abrirlo/editarlo.
  • Mayor seguridad, no hay que preocuparse por mantenimiento (Copias de seguridad), malware (Virus, Gusanos,…), ya que otros (Los administradores del sitio donde se almacenan los datos) se encargan de ello.
  • Es posible hacer copias de los datos online (En servidor remoto), en nuestro ordenador de forma local por si queremos aumentar la seguridad de los Back-Ups (Copias de seguridad) de los datos críticos.
  • El espacio ocupado por nuestros datos online se almacena en servidores remotos, es decir que no necesitariamos unidades de almacenamiento físicas (Ej: Discos duros) para almacenamiento local.
  • En muchos casos el almacenamiento online es gratuito, aunque existen opciones de pago con más ventajas (Ej: Mayor capacidad de almacenamiento).
  • Permite la reproducción de audio y video en “streaming” (Al vuelo), no es necesario descargar el fichero en nuestro equipo (Se reproduce a medida que avanza) esto por norma general suele funcionar sin embargo si la red esta muy colapsada o bien nuestra conexión no es tan rápida como debería pueden producirse parones o “cortes” durante la reproducción del archivo audiovisual.

Data Center (CPD: Centro de Procesamiento de Datos)

 

Sin embargo el almacenamiento en red también tiene sus desventajas:

  • Si no disponemos de conexión a Internet por la razón que sea no tendremos acceso a nuestros datos online, por lo que para poder acceder a nuestros datos online siempre será necesario disponer de una conexión a Internet forzosamente (Cosa que no ocurre con el almacenamiento físico o almacenamiento local).
  • No tenemos ningún control sobre los datos, por ejemplo si la empresa lleva a cabo tareas de mantenimiento es posible que nuestro servidor de almacenamiento online este fuera de línea (Off line o Inaccesible) cuando es posible que necesitamos tener acceso a ellos de forma “urgente”.
  • Por otra parte se supone que las empresas de almacenamiento online, se dedican precisamente a almacenar datos de usuarios pero tampoco se puede estar seguro al 100% que donde tengamos alojados nuestros datos los utilicen de algún modo e incluso manipularlos de alguna forma.
  • En caso de desastre (Ej: Un fallo en el servidor) podrían perderse los datos aunque en estos casos lo normal es que las empresas tengan copias de seguridad (Back-Ups) para restaurarlos, claro que es posible que la copia de seguridad restaurada no sea de “ayer” (Día anterior al desastre) sino que tenga otra fecha (Ej: La semana pasada) y por tanto los datos restaurados no estarían actualizados a día de “hoy” sino a la fecha de restauración.
  • Los portales de Streaming (Ej: Youtube,…) son los que deciden que contenidos se pueden subir y cuales no (Por norma general aquellos contenidos con derechos de autor (Copyright) suelen ser borrados lo antes posible para evitar una posible demanda por parte del autor o compañia representante (Ej: SGAE, RIAA) por reproducir un contenido audivisual sin autorización), de hecho sitios como MegaUpload, MediaFire,… que se dedican a alojar archivos en la red verifican que los archivos no tengan copyright, en caso de tenerlo actuan en consecuencia (Lo normal es que borren el archivo).
  • Limitación del ancho de banda, por ejemplo en España actualmente la conexión más rápida sin tener en cuenta la opcion de 50 Mbps/3 Mbps de ONO son las conexiones ADSL/Cable de como mucho unos 20 Megas (20 Mbps/1 Mbps) aunque en pequeñas ciudades y zonas rurales es más frecuente ver conexiones de 6 Mbps/300 Kbps o incluso menos lo cual limita bastante el uso de los sistemas de almacenamiento online porque hay que tener en cuenta que antes de tener alojados nuestros archivos en la Red (Internet) hay que subirlos a la misma, pero la velocidad de subida que tenemos actualmente es bastante “baja”:
    • 3 Mbps (Unos 384 KB/Seg).
    • 1 Mbps (Unos 128 KB/Seg).
    • 300 Kbps (Unos 38,4 KB/Seg).

En comparacion con la velocidad de bajada:

  • 50 Mbps (Unos 6.400 KB/Seg, aproximadamente 6,25 MB/Seg).
  • 20 Mbps (Unos 2.560 KB/Seg, aproximadamente 2,25 MB/Seg).
  • 10 Mbps (Unos 1.280 KB/Seg, aproximadamente 1,25 MB/Seg).
  • 6 Mbps (Unos 768 KB/Seg, aproximadamente 0,75 MB/Seg).
  • 3 Mbps (Unos 384 KB/Seg, aproximadamente 0,375 MB/Seg).

Es decir que si por ejemplo queremos subir 100 MB (0,1 GB) teniendo en cuenta las velocidades de subida actuales tardaríamos aproximadamente:

  • Unos 4 minutos y 24 segundos aproximadamente con una conexión de 3 Mbps (Unos 384 KB/Seg).
  • Unos 13 minutos y 18 segundos aproximadamente con una conexión de 1 Mbps (Unos 128 KB/Seg).
  • Unos 44 minutos y 24 segundos aproximadamente con una conexión de 300 Kbps (Unos 38,4 KB/Seg).

Logicamente cuanto mayor sea el archivo mayor sería el tiempo de subida del mismo, es decir para subir por ejemplo un archivo de 300 MB tardaríamos aproximadamente el triple de tiempo con las conexiones comentadas anteriormente.

Se puede encontrar más información en:

Conexiones de datos de alta velocidad para dispositivos de almacenamiento interno


Actualmente el conector de datos más común en ordenadores domésticos es:

  • Serial ATA (SATA150) que soporta hasta 150 MB/Seg por conector, en principio este ancho de banda es más que suficiente para cualquier disco duro (HDD: Hard Disk Drive) mecánico actual, aunque se queda corto para los SSD (Solid State Device, Dispositivo de Estado Sólido) basados en memoria flash (En estas entradas del Blog: SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros y Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) hay más información sobre estos dispositivos).
  • Serial ATA2 (SATA300) que soporta hasta 300 MB/Seg por conector, en principio este ancho de banda es suficiente para casi cualquier SSD (Solid State Device, Dispositivo de Estado Sólido) actual a excepción de los Crucial C300 que son SATA3 (SATA600) ya que su capacidad de lectura es de 355 MB/Seg (Usando SATA300 se “quedan” en 265 MB/Seg).

Para solucionar el problema de ancho de banda sobre todo para los futuros SSD de altas prestaciones (Sin tener que recurrir al bus PCI Express (PCIe) como hacen por ejemplo los Revo Drive de OCZ, en esta entrada del Blog hay más información sobre este dispositivo) se puede utilizar:

  • Serial ATA 3 (SATA600) soporta hasta 6 Gbps (Unos 600 MB/Seg) por conector, actualmente es una buena opción ya que ningún SSD con conexión SATA supera los 400 MB/Seg.
  • SAS (Serial Attached SCSI) es una conexión que ha sustituido al antiguo SCSI (Small Computer System Interface), se utiliza en Servidores profesionales debido al alto coste tanto de las controladoras como de los dispositivos de almacenamiento, de hecho su evolución es similar a SATA (Los discos SAS son incompatibles con conexiones Serial ATA), la norma actual es SAS 6 Gbps (SAS 600) que soporta hasta 600 MB/Seg y se espera que para 2010 llegue hasta los 12 Gbps denominandose SAS 1200 que tendria aproximadamente 1,2 GB/Seg de ancho de banda.

Sin embargo ya hay proyectos para aumentar aun más la tasa de transferencia de los dispositivos internos como es el caso del conector:

  • High Speed Data Link (HDSL) de OCZ que utiliza un cable SAS de alta calidad, actualmente tiene un ancho de banda de 2 Gbps pero se espera que llegue en un futuro hasta 20 Gbps (Probablemente en un futuro tenga mejoras de velocidad como ocurre con la mayoría de conexiones de datos), HDSL se utiliza en los nuevos OCZ Ibis que tienen 4 controladoras Sand Force 1200 (SF-1200) en RAID 0 llegando a ofrecer unas prestaciones de hasta 804 MB/Seg en lectura y 675 MB/Seg en escritura (Información de Infochaos Digital).
  • Light Peak desarrollado por Intel que utiliza un cable de fibra óptica e inicialmente tendra un ancho de banda de 10 Gbps,  que en un futuro proximo podria llegar hasta los 100 Gbps, en principio se espera que aprezca en 2011.

Estos conectores permiten “apilar” los discos en niveles RAID (En esta entrada del Blog hay más información) siempre y cuando la controladora lo soporte, mientras que el uso de SSD con conexión PCIe no permite la “apilación” porque los discos trabajarian de forma individual.

Se puede encontrar más información en: