Integración tecnológica: Hasta que punto es “buena”


En lo personal considero que la integración tecnológica de dispositivos es buena especialmente en dispositivos portátiles (Ej: Portátiles, Tablet, Teléfonos móviles,…) donde la capacidad de conectividad y capacidad de ampliación del dispositivo en cuestión es menor que la que tienen los ordenadores de sobremesa;  un claro ejemplo en equipos de sobremesa actuales son losp procesadores (Actualmente integran entre otros elementos: Coprocesador matemático, Memoria cache o el controlador de memoria RAM) o las placas base (Motherboard o Mainboard) actuales que suelen llevar integrados de fabrica:

  • Varios conectores USB traseros y frontales (En algunos casos algunos de estos puertos pueden ser USB 3.0).
  • Varias conexiones Serial ATA (SATA), en algunos casos pueden tener algún puerto eSATA (eXternal Serial ATA) para conectar dispositivos de almacenamiento externo (Ej: Memoria Flash eSATA o Discos duros externos) ofreciendo un rendimiento similar al de un disco duro SATA interno.
  • 1 conexión LAN (Ethernet RJ-45) de 100 Mbps (En algunos casos pueden tener 1 ó 2 conexiones LAN Gigabit Ethernet de 1.000 Mbps).
  •  Una conexión IDE/ATA (Aunque esta en “extinción” porque ha sido sustuida por SATA).
  • Algunos modelos de gama media/alta suelen llevar puertos Firewire (IEEE1394 ó I.Link) que principalmente se utilizan para capturar vídeo desde una camara MiniDV o similar (Siempre y cuando esta disponga de dicha conexión).

Sin embargo algunas placas base de sobremesa también pueden tener integrados otros dispositivos como es el caso de una conexión Wifi o Bluetooth, como por ejemplo el caso de la Zotac H55 miniITX que lleva Wifi 11n (Aunque en este caso puede estar “justificado” porque placa base es de formato reducido (Menor incluso que MicroATX).

Zotac H55 Mini ITX

Básicamente la única ventaja que tiene la integración tecnológica en equipos de sobremesa (Ej: Ordenadores), es la eliminación de dispositivos que tiene el usuario sobre la mesa

Sin embargo bajo mi punto de vista la integración también tiene sus desventajas, entre ellas:

  • Los dispositivos integrados únicamente pueden utilizarse en el equipo que los tiene, si estos fuesen externos (Ej: Lectores de tarjetas, Conexión Wifi USB, Conexión Bluetooth (BT) USB,…) podrían compartirse con otros dispositivos compatibles aunque lógicamente no podrían usarse simultáneamente en dos equipos.
  • Deja los dispositivos  integrados obsoletos en el momento que aparecen nuevas revisiones (Siempre y cuando actualice los dispositivos) como por ejemplo es el caso de:
  • Lectores de Tarjetas de memoria (Los lectores más antiguos suelen tener problemas para “leer” tarjetas de memoria actuales de gran capacidad y/o modelos de reciente aparición).
  • Wifi 11g (Hasta 54 Mbps) y Wifi 11n (Hasta 300 Mbps).
  • Bluetooth 2.0 + EDR (Hasta 3 Mbps) y Bluetooth 3.0 + HS (Hasta 24 Mbps).

Otro ejemplo de integración en periféricos serían las impresoras multifunción que actualmente integran:

  • Impresora.
  • Escáner.
  • Fotocopiadora (Algunos modelos empresariales pueden llevar un ADF: Automatic Document Feeder, Alimentador Automático de Documentos).
  • Fax (En algunos modelos de gama media/alta).

Que pueden “ahorrar” espacio físico utilizando un único dispositivo para varias funciones, sin embargo en caso de que averíe alguna de esas funciones en caso de llevarlo a reparar perdemos el resto de funciones y por otra parte es posible que traiga más cuenta cambiar el dispositivo completo que repararlo.

Anuncios

Conexiones de datos de alta velocidad para dispositivos de almacenamiento interno


Actualmente el conector de datos más común en ordenadores domésticos es:

  • Serial ATA (SATA150) que soporta hasta 150 MB/Seg por conector, en principio este ancho de banda es más que suficiente para cualquier disco duro (HDD: Hard Disk Drive) mecánico actual, aunque se queda corto para los SSD (Solid State Device, Dispositivo de Estado Sólido) basados en memoria flash (En estas entradas del Blog: SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros y Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) hay más información sobre estos dispositivos).
  • Serial ATA2 (SATA300) que soporta hasta 300 MB/Seg por conector, en principio este ancho de banda es suficiente para casi cualquier SSD (Solid State Device, Dispositivo de Estado Sólido) actual a excepción de los Crucial C300 que son SATA3 (SATA600) ya que su capacidad de lectura es de 355 MB/Seg (Usando SATA300 se “quedan” en 265 MB/Seg).

Para solucionar el problema de ancho de banda sobre todo para los futuros SSD de altas prestaciones (Sin tener que recurrir al bus PCI Express (PCIe) como hacen por ejemplo los Revo Drive de OCZ, en esta entrada del Blog hay más información sobre este dispositivo) se puede utilizar:

  • Serial ATA 3 (SATA600) soporta hasta 6 Gbps (Unos 600 MB/Seg) por conector, actualmente es una buena opción ya que ningún SSD con conexión SATA supera los 400 MB/Seg.
  • SAS (Serial Attached SCSI) es una conexión que ha sustituido al antiguo SCSI (Small Computer System Interface), se utiliza en Servidores profesionales debido al alto coste tanto de las controladoras como de los dispositivos de almacenamiento, de hecho su evolución es similar a SATA (Los discos SAS son incompatibles con conexiones Serial ATA), la norma actual es SAS 6 Gbps (SAS 600) que soporta hasta 600 MB/Seg y se espera que para 2010 llegue hasta los 12 Gbps denominandose SAS 1200 que tendria aproximadamente 1,2 GB/Seg de ancho de banda.

Sin embargo ya hay proyectos para aumentar aun más la tasa de transferencia de los dispositivos internos como es el caso del conector:

  • High Speed Data Link (HDSL) de OCZ que utiliza un cable SAS de alta calidad, actualmente tiene un ancho de banda de 2 Gbps pero se espera que llegue en un futuro hasta 20 Gbps (Probablemente en un futuro tenga mejoras de velocidad como ocurre con la mayoría de conexiones de datos), HDSL se utiliza en los nuevos OCZ Ibis que tienen 4 controladoras Sand Force 1200 (SF-1200) en RAID 0 llegando a ofrecer unas prestaciones de hasta 804 MB/Seg en lectura y 675 MB/Seg en escritura (Información de Infochaos Digital).
  • Light Peak desarrollado por Intel que utiliza un cable de fibra óptica e inicialmente tendra un ancho de banda de 10 Gbps,  que en un futuro proximo podria llegar hasta los 100 Gbps, en principio se espera que aprezca en 2011.

Estos conectores permiten “apilar” los discos en niveles RAID (En esta entrada del Blog hay más información) siempre y cuando la controladora lo soporte, mientras que el uso de SSD con conexión PCIe no permite la “apilación” porque los discos trabajarian de forma individual.

Se puede encontrar más información en:

¿Cuál es el cuello de botella actual de un equipo informático?


El Bottleneck o Cuello de botella (Definición de Alegsa.com.ar) supone una limitación del rendimiento del equipo informático (PC) para realizar una función determinada (Por lo tanto el cuello de botella de un ordenador siempre a va ser su pieza más lenta). El cuello de botella puede ser debido a:

  • Un componente “lento” de por si (Ej: Un disco duro) que ralentiza al resto del sistema a pesar de ser actual (Los componentes electrónicos (CPU, Gráfica, Chipset,…) actualmente no suponen un cuello de botella).
  • Un desaprovechamiento de un componente “nuevo” porque el componente “base” en el que se instala es “lento” (Esto puede ocurrir por ejemplo al actualizar un equipo antiguo con piezas nuevas que sean compatibles), como por ejemplo utilizar:
    • Una tarjeta gráfica AGP 8x en un puerto 4x.
    • Una tarjeta PCIe 16x en una ranura limitada a PCIe 4x porque no existe ninguna ranura PCIe de  16x.
    • Un disco duro ATA133 en un equipo con conectores SATA300 (Normalmente disponen al menos de un conector ATA133 para conectar dispositivos antiguos y/o unidades ópticas).
    • Una memoria RAM DDR400 en una placa que admita DDR2 667 (Teniendo en cuenta que las placas base que soportan dos tipos diferentes de memoria no la admiten de forma simultánea o mezclada, es decir que sólo se puede usar un tipo de memoria u otro).
    • Una memoria RAM DDR2 1066 en una placa base que admita hasta DDR2 667 o bien el controlador de memoria del procesador (Caso de los Athlon64) este limitado a DDR2 667.

Lógicamente la sensación de lentitud (Dentro de un orden claro está) es diferente para cada usuario y por lo tanto el cuello de botella puede estar en piezas diferentes en función de la tarea a desarrollar por ejemplo para:

  • Editar video si no queremos que el proceso se “eternice” suele ser necesario tener:
    • Un buen procesador (Basicamente es el que se encarga de procesar el video).
    • Una buena cantidad de RAM.
  • Jugar de forma fluida a los últimos juegos 3D con gran resolución (Ej: Full HD ó 1080p: 1.920 x 1.080 píxeles) y buen nivel de detalle (Aplicación de filtros) será necesario tener:
    • Una buena tarjeta gráfica que sea capaz de procesar los recursos gráficos que genera el juego en cuestión.
    • Un procesador “bueno”.
    • Bastante RAM.

Hay que tener en cuenta que el cuello de botella sólo se vería reflejado en usos muy concretos (Como por ejemplo los comentados anteriormente), ya que un equipo actual para ofimática con un par de años aunque se actualizase algún componente no tendría un cuello de botella significativo ya que las aplicaciones que utiliza no requieren un gran consumo de recursos, si acaso se podría cambiar el disco duro por otro más rápido pero dado que actualmente:

  • Los equipos domésticos en general usan discos de 7.200 Rpms (Los equipos profesionales pueden usar discos de 10.000 ó 15.000 Rpms, aunque actualmente tienden a utilizar SSD, comentados en estas entradas del Blog: Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) y SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros).
  • Los discos de 10.000 Rpms SATA están “limitados” a los Velociraptors de Western Digital, pero tienen una relacion €/GB pémisa (Los modelos de 74 y 150 GB rondan los 150 €, el de 300 GB ronda los 203 €, el de 450 GB los 280 y el de 600 GB ronda los 285 €), ya que los precios en muchos casos se acercan a de un SSD  de entre 60 y 120 GB.
  • Los SSD tienen una relación €/GB también pésima (Aunque su rendimiento es muy superior a cualquier disco duro actual de 10.000 ó 15.000 Rpms), un SSD de 60 GB ronda los 160 € y uno de 120 GB ronda los 320 €, aunque también hay SSD de 40 GB y alto rendimiento (Ej: Mushkin Callisto, comentado en esta entrada del Blog) que rondan los 108 € sin gastos de envío.

Para un uso puramente ofimático posiblemente siga interesando tirar de discos duros mecánicos por su relacion precio/prestaciones frente a los SSD.

Sin embargo existe un cuello de botella “endémico” en cualquier equipo informático actual de altas prestaciones: El disco duro, desde el inicio de la informática los sistemas de almacenamiento electro-mecánicos (Discos duros) han sido siempre el cuello de botella, un disco duro:

  • UDMA33 (ATA33) podía transmitir hasta 33 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (Utilizaban cables de 40 hilos y 40 contactos).
  • UDMA66 (ATA6) podía transmitir hasta 66 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (A partir de ATA66 hasta ATA133 se utilizaron cables de 80 hilos y 40 contactos).
  • UDMA100 (ATA100) podía transmitir hasta 100 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior.
  • UDMA133 (ATA33) podía transmitir hasta 133 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 150 (SATA150) podía transmitir hasta 150 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior (Lo normal es que el bus SATA utilice una conexión PCI express o PCIe).
  • Serial ATA 300 (SATA300 ó SATA2) transmite hasta 300 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 600 (SATA600 ó SATA3) podía transmitir hasta 600 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.

Hay que tener en cuenta que en el caso de los discos UDMA/ATA el ancho de banda disponible se repartía entre los dos dispositivos (Master y Slave)  conectados al mismo canal (Primario o Secundario) y que el acceso a los mismos (Ej: Pasar datos de un disco duro Master en canal primario al disco Slave del mismo canal) no era simultáneo sino alterno. Con el nuevo conector Serial ATA (SATA) ha habido una mejora en este sentido ya que cada dispositivo tiene su ancho de banda propio (En el caso de SATA150, cada conector tiene hasta 150 MB/Seg de ancho de banda, en el caso de SATA300/SATA2 cada conector tiene hasta 300 MB/Seg y en el caso de SATA600/SATA3 cada conector tiene 600 MB/Seg) puesto que la conexion es “directa” desde el dispositivo (Ej: Disco Duro) al conector SATA de la placa base.

Actualmente para equipos de gama alta parece más interesante tener un SSD o dos en RAID 0 (Stripping) junto con un disco duro de alta capacidad para:

  • Instalar el Sistema Operativo y el Software (Programas y Juegos) en el SSD, acelerando así la carga del Sistema Operativo y la apertura de los programas/juegos).
  • Dejando el disco duro de gran capacidad para almacenar los datos de usuario (Documentos, Música, Videos/Películas, Descargas,…) los cuales no necesitan tener una apertura “instantánea”.

El mayor problema es que si necesitamos un SSD de cierta capacidad 120 GB o más el precio del mismo se “dispara”.

Ya que actualmente los ordenadores tienen un gran ancho de banda en los componentes puramente electrónicos como por ejemplo:

  • FSB de los procesadores, por ejemplo el bus Hyper-Transport (HTT) v3.0 de los ultimos AMD tiene una frecuencia de funcionamiento de 3,2 Ghz con 32 Bits, que se traduce en un ancho de banda bidireccional de 51,2 GB/Seg, y los primeros Intel Nehalem (Core i7 y derivados) tienen un bus similar al HTT de AMD denominado QPI (QuickPath Interconnect), el cual funciona a 3,2 Ghz con 20 Bits, que se traduce en un ancho de banda bidireccional de 25,6 GB/Seg.
  • Memoria RAM DDR2 PC1066 que tiene 8.500 MB/Seg (8,5 GB/Seg).
  • Memoria RAM DDR3 PC1600 que tiene 12.800 MB/Seg (12,8 GB/Seg).
  • Bus Serial ATA300 (Hasta 300 MB/Seg).
  • Bus Serial ATA600 (Hasta 600 MB/Seg).
  • USB 3.0 (Hasta 4,8 Gbps, unos 4.800 Mbps que equivalen a unos 600 MB/Seg).
  • Bus PCI Express (PCIe) que en su version 1.1 tiene un ancho de banda de 250 MB/Seg y por canal, es decir que un bus PCIe de 1x tendría 250 MB/Seg (El bus PCI anterior tenía como máximo 133 MB/Seg para todos los dispositivos que hubiese conectados a él), mientras que un PCIe 16x tendría 4 GB/Seg (4.000 MB/Seg) ya que serían 16 canales de 250 MB/Seg cada uno (250 MB/Seg x 16  canales = 4.000 MB/Seg). Actualmente el bus PCIe va por la versión 2.0 el cual dobla la tasa de transferencia, hastalos 500 MB/Seg y el próximo bus PCIe 3.0 la vuelve a doblar hasta los 1.000 MKB/Seg.

Sin embargo los discos duros mecánicos actuales (Lo habitual es que sean de 5.400 ó 7.200 Rpms) por muy rápidos que sean (Aun siendo de 10.000 ó 15.000 Rpms)  no pueden aprovechar al 100% el ancho de banda que proporcionan los buses de datos actuales como por ejemplo:

  • SATA o S-ATA (Serial ATA).
  • SCSI (Small Computers System Interface (Sistema de Interfaz para Pequeñas Computadoras).
  • SAS (Serial Attached SCSI que es utiliza unos conectores similares a SATA pero incompatibles con él).

Por lo que el rendimiento del sistema de almacenamiento supone un cuello de botella bastante grande, por varias razones:

  1. Alta latencia: Los discos duros de 7.200 Rpms (Los más comunes en entornos domésticos) tiene un tiempo de busqueda según fabricante en el mejor de los casos de unos 9 ms aproximadamente (Mientras que un disco de 10.000 Rpms segun datos de los fabricantes tienen el mejor de los casos 4,2 ms y los discos de 15.000 Rpms tienen entre 3,4 y 3,5 ms), esto se traduce en una pérdida de rendimiento debido a que para buscar un dato es necesario invertir bastante “tiempo” si se compara con un SSD los cuales tienen latencias (Tiempo de Acceso) inferiores a 1 ms.
  2. Tasa de transferencia: Que en el caso de los discos duro no se mantiene sostenida sino que fluctua entre un maximo y un minimo, de hecho las gráficas de los Benchmark de disco duro como: HD Tach y HD Tune, muestran que un disco duro SATA300 de 500 GB y 7.200 Rpms actual puede tener una tasa media de transferencia de datos de unos 100 MB/Seg pero esta tasa no es sostenida a lo largo de toda la superficie del plato sino que suele empezar por una tasa ligeramente superior a la media para ir bajando progresivamente hasta por debajo de la media pudiendo llegar a ser la tasa mínima aproxidamente entre el 50 (En torno a los 50 MB/Seg) ó el 60% (En torno a los 60 MB/Seg) de la velocidad media.
  3. IOPS (Input Output Per Second, Operaciones de Entrada – Salida Por Segundo): Los discos duros tienen muy bajo rendimiento en este sentido.

Estos problemas y otros derivados de la propia arquitectura de los discos duros inicialmente se “resolvieron” con los niveles RAID (Hay más información en esta entrada del Blog) que permitian mejorar:

  • El rendimiento del sistema de almacenamiento (Ej: RAID 0, Stripping)
  • La seguridad física de los datos, como es el caso de RAID 1 (Mirroring o Espejo).
  • El rendimiento y la seguridad física de los datos, como es el caso de RAID 5 y RAID 10.

Sin embargo aun utilizando sistemas RAID los discos duros tienen una latencia alta, por lo que los SSD (Solid State Device, Dispositivos de Estado Sólido) basados en memorias Nand Flash como las que se utilizan en las memorias flash USB o las tarjetas de memoria, son los que realmente proporcionaran al usuario un gran rendimiento ya que apenas tienen latencia (Es inferior a 1 ms) y sus tasas de transferencia de datos son muy altas (Si queremos mayor rendimiento aún se puede optar por un RAID 0 con dos o más SSD); sin embargo hasta que no sus precios sean “asequibles” (Actualmente un SSD “bueno” de entre 60 y 80 GB ronda los 160 – 225 €) no se podrá eliminar el lastre de rendimiento que suponen los discos duros para los sistemas operativos actuales y sus programas/juegos.

De hecho en el futuro no sería raro ver equipos de altas prestaciones con Un SSD para el Sistema (Incluyendo los Programas y Juegos) para que le de “rapidez” al equipo, mientras que los datos de usuario se guardan en:

  • Discos duro electro-mecánicos de gran capacidad (Actualmente existen discos de hasta 2 TB y ya que comenta que en breve saldrán los discos de 3 TB).
  • Discos duros híbridos (HHD: Hybrid Hard Drive, Discos Duro Híbrido que son discos electro-mecánicos pero con algo de memoria Flash para acelerar el rendimiento, en esta entrada del Blog hay más información)  de gran capacidad (Actualmente Seagate tiene un modelo con estas caracteristicas denominado Seagate Momentus XT, es un disco duro de 2,5″ (Tamaño de disco duro de portátil) que esta disponible en tres capacidades: 250 GB, 320 GB y 500 GB que cuenta con 4 GB de memoria Nand Flash SLC, pero teniendo en cuenta que el modelo de 320 GB ronda los 123 € y el modelo de 500 GB los 148 € parece mejor opción este último ya que por unos 30 € más se consiguen 180 GB “extras”).

Próximas controladoras Sand Force Phoenix para SSD de alto rendimiento


Los SSD de última generación basados en:

  • Sand Force 1200 (SF-1200) con un rendimiento  hasta 285 MB/Seg en lectura y 275 MB/Seg en escritura.
  • Crucial C300 (Utilizan una controladora Marvell) con un rendimiento de hasta 355 MB/Seg en lectura usando SATA600/SATA3 (Con SATA300/SATA2 tienen hasta 265 MB/Seg) y una tasa de escritura variable de hasta:
    • 215 MB/Seg para el modelo de 256 GB.
    • 140 MB /Seg para el modelo de 128 GB.
    • 75 MB/Seg para el modelo de 64 GB.

Son los que tienen mayor rendimiento actualmente (Aunque los C300 destacan más en lectura que en escritura, a diferencia de los Sand Force 1200/SF-1200 que son más equilibrados en lectura y escritura). Sin embargo parece que en Computex 2010 (Una de las ferias de informática que se celebran anualmente en Taipei, Taiwan) el fabricante Photofast ha presentado el Monster2-SVF2 (Información de Tweak Town en inglés), cuyas caracteristicas principales son:

  • Uso de una controladora Sand Force Phoenix de nueva generación.
  • Rendimiento de hasta 520 MB/Seg en lectura y 520 MB/Seg en escritura (520/520 MB/Seg en lectura/escritura) secuencial.
  • Utilización del bus SATA600 (SATA 6 Gbps o SATA3), ya que usando SATA300 se quedaría limitado a menos de 300 MB/Seg que es el máximo ancho de banda disponible en SATA300.
  • Según parece se comercializara a finales del año 2010 o principios del 2011.

A la vista del rendimiento de este próximo SSD, parece claro que el estándar Serial ATA 600 (SATA600) posiblemente dure “poco” en el mercado al tener poco ancho de banda para las próximas generaciones de SSD.

eSATA (external Serial ATA): Transferencia de datos de alta velocidad


Hasta hace poco los dispositivos de almacenamiento externos (Ej: Discos duros, Memorias flash USB, Unidades ópticas,…) se conectaban a los equipos informáticos mediante:

  • USB 2.0 (Hasta 480 Mbps, unos 60 MB/Seg) es el más extendido actualmente.
  • Firewire400/IEEE 1394a/I.Link (Hasta 400 Mbps, unos 50 MB/Seg).
  • Firewire800/IEEE 1394b (Hasta 800 Mbps, unos 100 MB/Seg).

La aparición de la conexión Serial ATA (El nuevo estándar en conexión de dispositivos internos en ordenadores domésticos) mejoraba el rendimiento en Burst Rate que en:

  • La primera generación (SATA150) soportaba unos 1.500 Mbps (1,5 Gbps), equivalente a unos 150 MB/Seg (El estándar IDE/ATA llego hasta ATA133, soportando hasta 133 MB/Seg).
  • La segunda generación (SATA300) ha llegado a los 3.000 Mbps (3 Gbps), equivalente a unos 300 MB/Seg.
  • La tercera generación (SATA600) ha llegado a los 6.000 Mbps (6 Gbps), equivalente a unos 600 MB/Seg (Actualmente SATA600 aunque esta implementado en algunas placas base y discos duros no esta de forma masiva).

La conexión Serial ATA (SATA) tiene varias ventajas sobre el anterior IDE/ATA (PATA: Parallel ATA), entre ellas:

  • Mayor ancho de banda (Burst Rate) que el estándar anterior (IDE llego hasta ATA133), aunque este Burst Rate no significa que el dispositivo (Ej: Disco duro o SSD) tenga esa tasa de transferencia sostenida).
  • Eliminación del concepto “Master” y “Slave” del estándar anterior, es decir con SATA la conexión del dispositivo es directa a placa base, no es compartida como ocurría con IDE/ATA.
  • El cable de datos es más fino y aerodinámico que el IDE plano de toda la vida, aunque actualmente pueden encontrarse cables IDE “redondos” que si bien son más aerodinámicos que los IDE planos siguen siendo más gruesos que los SATA, ya que SATA tiene 7 pines mientras que el conector IDE ATA66 o superior tiene 40 pines.
  • Mayor longitud de cable, SATA puede llegar hasta 1 metro (eSATA soporta hasta 2 metros), mientras que IDE esta limitado a 50 cm (Aunque han existido cables IDE de 90cm, de hecho he utilizado algunos sin problemas).
  • Diferente conector de alimentación, debido a que utilizan menor voltaje para funcionar.
  • Soporte de tecnología NCQ que en teoría mejora algo el rendimiento (Para usar NCQ tanto la controladora como el disco duro deben ser compatibles) si se utiliza el modo AHCI (Advanced Host Controller Interface).
  • Soporte Hot Plug (Conexión en caliente) como ocurre con los dispositivos USB y Firewire aunque tanto la controladora como el dispositivo deben ser compatibles, para ello se utiliza el modo AHCI (Advanced Host Controller Interface).

El grupo que desarrollo Serial ATA viendo el potencial de la conexión decidió crear una conexión Serial ATA externa denominada eSATA (external Serial ATA) físicamente el conector eSATA es más robusto que el SATA interno como se puede ver en esta imagen:

Con una conexión eSATA prácticamente se consigue el mismo rendimiento que un disco duro interno pero de forma externa, superando así el rendimiento de los dispositivos de almacenamiento con conexión USB 2.0 actuales, aunque para poder usar una conexión eSATA es necesario que el hardware: Placa base (Motherboard) y/o caja (Algunas cajas actuales de PC disponen de un conector eSATA que se conecta a un puerto SATA de la placa base) disponga de esa conexión para poder conectar el dispositivo mediante el cable eSATA correspondiente.

Una pega que tiene eSATA es que la conexión sólo transmite datos, a diferencia de otras conexiónes como USB y Firewire que además de transmitir datos pueden alimentar a los dispositivos conectados a ellos, por lo que es necesario alimentar el dispositivo con alguna fuente de alimentación externa; este problema se solucionara con Power over eSATA (En esta entrada del Blog hay más información) aunque sólo servira para dispositivos de bajo consumo (Ej: Memorias flash, discos duros de 2,5″ y 1,8″,…) como ocurre con los dispositivos USB.

Se puede encontrar más información en:

¿Cuándo deja de ser útil un ordenador?


La respuesta a esta pregunta no es fácil ya que existen diversas razones para considerar un equipo informático de sobremesa (Ordenador de sobremesa o escritorio) como “obsoleto”, algunas de ellas pueden ser:

Escasa potencia en cuanto a recursos Hardware (Procesador/CPU, Tarjeta Gráfica/GPU, Memoria RAM, Capacidad de almacenamiento,…), para las nuevas tareas que desarrolla el usuario y que inicialmente no estaban previstas (Ej: Ejecución de programas/juegos 3D, Edición de video,…), esto en algunas ocasiones puede solucionarse con una actualización y/o ampliación de piezas pero en caso de ser muy costosas es mejor opción adquirir un equipo nuevo que probablemente tendrá mejores prestaciones que el equipo antiguo.

Inexistencia de recambios, o recambios muy costosos para el equipo en caso de tener que efectuar una ampliación/reparación, por ejemplo lo equipos AT (Advanced Technology) del año 98 y anteriores, son anteriores a los ATX (Advanced Technology Extended) actuales (Actualmente ha salido una nueva norma denominada BTX (Balanced Technology Extended), aunque parece que no ha terminado de cuajar en el mercado) utilizan piezas diferentes a los actuales, por ejemplo:

  • Sus fuentes de alimentación son AT, no ATX, encontrar una fuente AT nueva a estas alturas (En el año 2009) es imposible, como mucho se podría encontrar usada por lo que no podemos esperar la misma fiabilidad que una fuente nueva. En este video de de Youtube se puede ver la diferencia entre ambas fuentes de aimentación:
  • Sus placas base son AT (Al igual que sus fuentes) y sus conectores son diferentes al estandar ATX actual, en este video de Youtube se pueden ver las diferencias entre una placa base AT y otra ATX:
  • Los equipos AT utilizan teclados con conexión MiniDin y ratones con puerto Serie (RS-232) diferentes a los actuales PS/2 y USB, aunque en el mercado puede encontrarse adaptadores pero en muchos casos hay que recurrir a tiendas online con lo que el precio del adaptador sube bastante al tener que contar los portes.
  • El tipo de memoria RAM que utilizan los equipos AT (Por norma general suelen tener como mucho 32 MB de RAM) es de tipo SIMM (Single In-line Memory Module, Módulo Simple de Memoria en Línea), actualmente no se encuentran en el mercado por lo que habría que tirar de segunda mano si que se puede encontrar, los equipos actuales usan módulos DIMM (Dual In-line Memory Module, Módulo de Memoria en Linea Doble) que pueden ser: SDRAM, DDR, DDR2, DDR3.
  • Discos duros aunque usan el sistema de conexión IDE y pueden encontrarse discos duros IDE de poca capacidad (Entre 120 y 160 GB), pero tienen varias “pegas”:
    • El precio de los discos IDE es similar al de los discos Serial ATA (SATA) 150/300 actuales pero no así su capacidad, por ejemplo un disco IDE de 120 GB y 7.200 Rpms ronda los 60 €, sin embargo por unos 50 € podemos comprar un disco duro SATA300 de 500 GB y 7.200 Rpms.
    • La BIOS de un equipo AT al ser tan antigua seguramente no reconozca la capacidad total del disco duro, en consecuencia “perderemos” espacio, las BIOS de esa época probabablemente no tendrán un soporte para discos duros de más de 4 GB con suerte puede que llegen a los 8 GB, o como mucho a los 32 GB.
  • La tarjeta gráfica que utilizan suele ser de unos 4 MB como mucho (En muchos casos suelen ser de 2 MB) y su bus de conexión es PCI, raramente las placas AT disponen de conexión AGP.
  • No disponen de puertos USB por lo que si necesitamos este tipo de puertos necesitamos recurrir a una controladora USB por bus PCI, lo cual supone un aumento del coste del equipo.
  • No suelen disponer de Grabadora de CD/DVD, en su lugar suelen utilizar un Lector de CDs o como mucho un lector de DVDs, con lo cuál hacer copias de seguridad de los datos es poco viable.
  • Los sistemas operativos que utilizan suelen ser Windows 95 ó Windows 98/98SE (Win9x) frecuentemente, lo que supone tener que usar dispositivos (Impresoras, Escáner,Teclado, Ratón,…) acordes al sistema (Cualquier dispositivo que se instale en Windows 98/98SE por regla general necesita sus drivers correspondiente como en cualquier otro Sistema Operativo, sin embargo los sistemas operativos más actuales, ej: Windows XP y superiores no necesitan drivers para ciertos dispositivos como por ejemplo: Memorias Flash USB o discos duros USB lo cual facilita la conexión/desconexión de estos dispositivos de almacenamiento externo.

Hay que tener en cuenta que el tema de los recambios también afecta a los ordenadores ATX actuales, ya que actualmente hay generaciones de equipos diferentes con diferentes tipos de:

  • Placas base que varían en función del Socket del procesador:
    • Los Socket más actuales en Intel son: LGA1366 (Core i7), LGA1156 (Core i5) y LGA775 (Core 2 Duo/Quad y últimos Pentium 4).
    • Los Socket más actuales de AMD (Advanced Micro Devices) son: AM3, AM2+ y AM2
  • Memoria RAM: Puede ser SDRAM (Actualmente no se utiliza en equipos nuevos), DDR (Actualmente no se utiliza en equipos nuevos), DDR2 (En un futuro próximo no se utilizará en equipos nuevos), DDR3.
  • Tarjeta Gráficas: AGP (Actualmente no se utiliza en equipo nuevos) o PCI Express (PCIe).
  • Conexiones de dispositivos de almacenamiento: IDE (Actualmente la tendencia es no utilizarlo en equipos nuevos) o Serial ATA (SATA).
Por lo que en equipos muy antiguos (Ej: Pentium III, Athlon XP, Primeros Pentium 4,…) pueden darse casos similares a los de los equipos AT comentados en cuanto a tema de recambios, por lo que posiblemente en algunos casos quizas sea mejor cambiar el equipo directamente por uno nuevo si la reparación supone un gran coste.

Estas mismas razones pueden aplicarse a equipos portátiles con la diferencia de que un equipo portátil suele tener menos potencia en recursos Hardware (Procesador/CPU, Tarjeta Gráfica/GPU, Almacenamiento,…) que un equipo de sobremesa equivalente. Además dos averías que pueden hacernos cambiar de equipo portátil son:

  • Sustitución de la placa base y/o tarjeta gráfica (Suele estar integrada en la placa base aunque esta sea dedicada).
  • Sustitución del monitor.

Debido a su alto coste de reparación, ya que actualmente se pueden encontrar equipos portátiles  de bajo coste con pantallas de 15″, por unos 500 € aproximadamente.

Se puede encontrar más información en Wikipedia:

Guía para comprar una Placa Base (Motherboard o Mainboard)


La placa base (Motherboard o Mainboard) es el soporte básico de un ordenador de ella depende varios factores como por ejemplo:

  • El procesador (CPU) que podemos utilizar en función del Socket que utilice, por ejemplo si la placa base es para Socket 775 de Intel, sólo podremos utilizar procesadores de ese Socket y ese fabricante.
  • El tipo de memoria RAM que soporta, por ejemplo una placa base que soporta DDR2 no soporta DDR3, aunque en el mercado existen algunas placas base con soporte de memoria “mixto” (Ej: DDR2 y DDR3) aunque no pueden utilizarse de forma simultanea, y además suelen tener menor capacidad de memoria RAM, es decir si una placa con soporte para DDR2 ó DDR3 tiene 4 zócalos, una placa base con soporte “mixto” aunque tiene 4 zocalos, seguramente tendrá 2 zócalos DDR2 y otros 2 zócalos DDR3.
  • El tipo de tarjeta gráfica que soporta, ya que hace tiempo había placas base con puerto AGP y otras con puerto PCI Express (PCIe), actualmente el estándar actual es PCI Express (PCIe)
  • El número de dispositivos de almacenamiento interno y su tipo (IDE, SATA, SCSI o SAS) que podemos conectar a la placa base, algunos modelos de gama alta incluyen controladoras adicionales que aumentan el número de dispositivos.
  • El sistema de refrigeración de los componentes (Northbridge, Southbridge, Zona VRM (Voltage Regulator Module, Módulo Regulador de Voltaje) y Chipset auxiliares), en los modelos de gama baja suele ser pasiva (Utilizan disipadores (Heatsink/Heat Sink) de aluminio o cobre), o bien utilizan un disipador activo (con ventilador) que a la larga supone una fuente de ruido ya que son ventiladores pequeños que giran a altas Rpms; mientras que en los modelos de media y alta llevan sistemas de refrigeración pasivos con heat pipes que mejoran la disipación de calor y no generan ruido, incluso algunos modelos de gama alta vienen preparados para adaptarles un kit de refrigeración líquida a los disipadores y mejorar aún más su rendimiento.
  • Extras que tiene la placa base, algunos modelos de gama media y alta incluyen por ejemplo:
    • Switch (Botones) para:
      • Encender/Apagar la placa blase (Esto también se puede hacer puenteando los pines adecuados).
      • Hacer un Reset (Esto también se puede hacer puenteando los pines adecuados).
      • Hacer un Clear CMOS (Esto también se puede hacer con el Jumper correspondiente de la placa base).
    • Número de fases de alimentación, a mayor número de fases mayor estabilidad del sistema, aunque actualmente existen modelos con alimentación con fases analógicas (Con menor precisión) y modelos con alimentación digital PWM (Con mayor precisión).
    • PCB , Capacitadores sólidos, Chokes, Mosfet de Ferrita,… de mayor calidad que los convencionales.
    • Display de 2 digitos Hexadecimal o Hex (Utiliza la Base 16 (Emplea los números del 0 al 9 y las letras A (10), B (11), C (12), D (13) E (14) y F (15) ), el sistema de numeración hexadecimal permite mostrar hasta el número 255  utilizando “sólo” 2 digitos, en hexadecimal 255 equivale al número FF), que muestra un error en caso de haberlo, en lugar de emitir los típicos “pitidos” de placa base, actualmente lo implementan algunas placas base DFI (Hace tiempo se podían ver en las placas base de Epox).
    • Led de diagnóstico de Hardware (Ej: CPU, Memoria, PCIe, PCI, SATA, IDE,…).
    • Led de consumo ACPI que informan del consumo apróximado del equipo, ej: verde, amarillo, naranaja y rojo.
    • Conector unificado del Front Panel (HDD Led, Reset Switch, Power Led, Power,…), actualmente  lo implementa Asus bajo el nombre “Asus Q-Connectors”.
    • Conectores y Slot fluorescentes (UV Reactivos).
    • Conexión para hacer comprobaciones con un polímetro , actualmente se usa en algunas placas base de MSI con el chipset  P55 de los Core i5 utilizando un conector “V-Kit” (información de Noticias3D)
    • Sistemas de protección de BIOS como el Dual BIOS de Gigabyte que evita que la BIOS de la placa base resulte dañada al tener una 2ª BIOS de reserva.

Otro punto importante a tener en cuenta a la hora de comprar una placa base es su chipset, actualmente para:

  • Procesadores Intel, los chipset que dan mejor resultado por regla general son los Intel.
  • Procesadores AMD, los chipset que dan mejor resultado por regla general son los AMD/Ati, aunque hace unos años los Chipset de Nvidia (nForce) no daban malos resultados.
  • Otros fabricantes de chipset actuales son nVidia, Via o SiS, aunque actualmente estos dos últimos no fabrican chipset ni para Intel ni para AMD.

Gigabyte EP45-DS5

En la imagen (Arriba) se puede apreciar una placa base Gigabyte EP45-DS5 que reune varias de las características que comento como por ejemplo:

  • Capacitadores sólidos, Chokes y Mosfet de Ferrita de mayor calidad que los convencionales.
  • Leds de diagnostico en la placa base (CPU, Memory, PCIe 16x/8x, PCIe 4x/1x, PCI, SATA e IDE).
  • Botones en placa base: Power, Reset y Clear CMOS (Están situados en la parte inferior de la placa base).
  • Refrigeración por heat pipes de 4 piezas: Southbridge (Chipset Sur) comunicado con Northbridge (Chipset Norte) y Zona VRM (Voltage Regulator Module, Módulo Regulador de Voltaje) que se compone de dos piezas.
  • Alimentación de 2 fases para Chipset (Northbridge).
  • Alimentacion de 2 fases para Memoria RAM.

Entre los fabricantes más conocidos de placas bases están: Asus, Gigabyte, MSI, DFI (DFI-ACP y DFI LANParty), Foxconn, ASRock, Intel, Zotac, EVGA, , XFX o Sapphire entre otros ; actualmente han desparecido algunos fabricantes como Abit o Epox que no tienen placas base que utilicen chipset actuales como por ejemplo:

  • Intel P45 para Socket 775.
  • Intel P55 para Socket 1156 (Core i5).
  • Intel X58 para Socket 1366 (Core i7).
  • AMD/Ati para AM2+/AM3 (770, 780G, 790X, 790GX, 790FX)

Se puede encontrar más información sobre placas base en: