PCI SIG anuncia un bus PCI Express (PCIe) externo


PCI-SIG el organismo encargado de gestionar las especificaciones del bus PCI Express (PCIe, información de Wikipedia) que sustituirá en breve al antiguo bus PCI (Peripheral Component Interconnect, Interconexión de Componentes Periféricos; información de Wikipedia), el cuál estaba limitado a un máximo de 133 MB/Seg usando un bus de 32 Bits (El más común), mientras que el nuevo bus PCIe se rige por “líneas” (Lanes), teniendo en cuenta que el bus PCIe v1.1 de 2007 tenía una transferencia de 250 MB/Seg (Casi el doble que el bus PCIe) para un puerto PCIe 1x, aunque PCIe 1x), además hay que tener en cuenta que el PCIe es “escalable” desde 1x hasta 16x.

Ahora el PCI-SIG esta pensando en crear un bus PCIe externo basado en la versión 3.0 (Hasta 1 GB/Seg) que utilizaría 4 líneas (PCIe 4x), lo que supone un ancho de banda total de 4 GB/Seg. Esto supondría un competidor para buses externos actuales como por ejempo:

  • USB 3.0 (Hasta 4.800 Mbps (4,8 Gbps), unos 600 MB/Seg): Es un bus de conexión externo que ha evolucionado desde el anterior USB 2.0 (Hasta 480 Mbps, unos 60 MB/Seg).
  • eSATA600 (Hasta 600 MB/Seg): Es un protocolo de almacenamiento que ha evolucionado desde el anterior SATA300 (Hasta 300 MB/Seg).
  • Intel Thunderbolt (Intel Light Pak): Inicialmente soportará hasta 10 Gbps (1.280 MB/Seg; equivalente a 1,28 GB/Seg).

La creación de este nuevo bus PCIe externo supondría una ventaja para conectar dispositivos que requieran un gran ancho de banda como por ejemplo:

  • Futuros SSD (Solid State Device, Dispositivo de Estado Sólido) externos que superen los 600 MB/Seg en lectura/escritura (Actualmente los SSD SATA600 “ocupan” el ancho de banda con unos 500 MB/Seg aproximadamente, aunque también es cierto que actualmente existen SSD en formato PCIe que tienen mayor rendimiento que los SSD SATA).
  • Tarjetas gráficas PCIe externas.
  • Sistemas de almacenamiento DAS (Direct Attached Storage, Almacenamiento Directo Adjunto) con varios SSD.

Se puede encontrar más información en:

Virtual Floppy Drive (VFD): Disquetera virtual para Windows


Hace tiempo comente en una entrada del Blog que Sony iba a dejar de producir disqueteras de 3,5″ y disquetes de 3,5″ de 1,44 MB, de hecho actualmente disponer de una disquetera física en un equipo de sobremesa es casi imposible (Actualmente ningún equipo portátil la trae integrada; además en la mayoría de las tiendas especializadas en informática ni siquiera aparece en su catálogo, de hecho en las pocas tiendas online donde se pueden encontrar, suelen tener precios relativamente altos para sus prestaciones, rondando los 15 € para los modelos internos y los 35 € para los modelos externos USB, en ambos casos los gastos de envío van aparte).

Virtual Floppy Drive (VFD) es un proyecto GNU/GPL, esta utilidad para Windows nos permite montar hasta 2 unidades virtuales de 3,5″ en las que podemos grabar, borrar y editar datos como si fuese un disquete de verdad, una de sus ventajas es que permite trabajar con imágenes de disquete (Admitiendo los tipos de archivo: *.bin, *.dat, *.fdd, *.ima, *.img y *.vfd) tanto para su grabación como para el montaje de las mismas e incluso para pasar esa imagen a un CD si es un disquete de arranque, ya que una vez generada la imagen si esta es compatible con un programa de grabación de CDs/DVDs no debería de haber problemas para cambiar el formato físico del soporte ya que el software sigue siendo el mismo.

VFD se puede utilizar en entorno de texto (Modo consola) o entorno gráfico (Aplicación para Windows); permite crear disquetes de diversas capacidad, desde unidades de unos 160 KB (Usadas en discos de 5,25″ actualmente obsoletos) como unidades de hasta 2,88 MB (Tuvieron poco éxito en el mercado ya que por esas fechas aparecieron otras unidades de almacenamiento de mayor capacidad como las unidades Zip de Iomega de 100 MB o las Panasonic LS-120 de 120 MB).

La versión actual (v2.1) es compatible con Windows NT, 2000, XP, Vista y Windows 2003 Server y sólo es válida para sistemas de 32 Bits (Según parece hay en proyecto una versión de 64 Bits).

De todas formas esta utilidad no nos sirve para instalar drivers en sistemas “antiguos” como Windows XP en el que hay dos opciones:

  • La primera es utilizar un disquete físico para instalar los drivers  de la controladora (Pulsando la tecla F6 durante los primeros pasos de instalación)  si esta no era reconocida por Windows XP, aunque esto solamente pasa si tenemos:
    • Una controladora SATA de placa base en modo AHCI y/o RAID (En Modo IDE debería ser detectada sin problemas).
    • Una controladora SATA/SCSI/SAS conectada por puerto PCI/PCI-X (PCI eXtended)/PCIe (PCI express) que no sea reconocida por el Sistema Operativo al no disponer del driver correspondiente.
  • La segunda opción y también única si no disponemos de una disquetera, es integrar el driver de nuestra controladora dentro de CD de instalación de Windows usando para ello el programa:
    • nLite (Soporta: Windows 200, XP x86(32 Bits)  y x64 (64 Bits); y Windows 2003 x86 y x64).
    • vLite (Windows Vista).

Aunque ambos programas tienen muchas más funciones (Estos programas fueron comentados en esta entrada del Blog).

Se puede encontrar más información de VFD (Virtual Floppy Disk) en:

¿Cúales son las averías más caras de un ordenador portátil?


En esta entrada del Blog comente las averías más caras que puede tener un ordenador de sobremesa, en esta otra entrada comentare las averías más caras que pueden sufrir los equipos portátiles (Sin tener en cuenta periféricos como: Impresora, Escáner, Multifunción, Módem, Router,…), de mayor a menor importancia y coste (En este último caso teniendo en cuenta tanto los materiales como de montaje/configuración o mano de obra) sería:

  1. Disco duro (HDD: Hard Disk Drive): En caso de que el disco duro falle, será necesario cambiarlo por uno nuevo, además generalmente es necesario reinstalar el Sistema Operativo de nuevo junto con los datos del usuario, y si además es necesario recuperar los datos del disco duro antiguo el coste de la reparación puede dispararse ya que la recuperación de datos es un proceso complejo y costoso (Por esta razón es necesario tener copias de seguridad de los datos importantes en otros soportes de almacenamiento).
  2. Placa base (Motherboard o Mainboard): Es otra de las averías más caras, de hecho el coste de sustituir una placa base de un portátil no compensa, generalmente sale más a cuenta comprar uno nuevo.
  3. Tarjeta gráfica (GPU): Por regla general muchos portátiles la llevan integrada en el chipset de placa base o bien aun siendo una grafica dedicada (Con GPU y memoria propios), en ambos casos suelen ir integrados dentro de la placa base por lo que en caso de fallo habría que sustituir la placa base completa, por lo que saldría más a cuenta comprar un portátil nuevo (La excepción son los equipos con tarjetas MXM (Mobile PCI Express Module, Módulo PCI Express Móvil) que permiten cambiarlas por otras similares, aunque habría que mandarlo al fabricante y la reparación tampoco sería lo que se dice barata).
  4. Monitor: En caso de que el monitor tenga un fallo grave (Ej: No se vea media pantalla), la sustitución de la pantalla es bastante costosa por lo que seguramente traiga más cuenta comprar un portátil nuevo.
  5. Procesador: El coste depende en parte de si es posible encontrar un procesador nuevo compatible con la placa base (Sin tener que actualizar la BIOS de la placa base ya que algunos procesadores actuales sólo funcionan en placas antiguas si se actualiza la BIOS a una versión más actual y si no tenemos un procesador compatible será casi imposible realizar dicho cambio salvo que la BIOS detecte el nuevo procesador como “Unknown” (“Desconocido”) y nos permita hacer la actualización porque el Sistema arranque; además hay que desmontar el disipador de CPU para quitar el procesador (CPU) averiado), colocar el procesador nuevo, limipiar la pasta térmica del disipador original y poner pasta térmica nueva (El uso de pasta térmica evita que el procesador se sobrecaliente excesivamente).
  6. Inverter del monitor: Es un componente del monitor que puede fallar, su reparación no suele ser excesivamente costosa.
  7. Batería: En caso de que la batería del portátil dure muy poco tiempo la única solución es cambiar la batería por una nueva.
  8. Conector de alimentación de la placa base: Esta avería suele ser bastante costosa ya que es necesario desmontar el portátil para localizar el problema.
  9. Transformador/cargador del portátil: En caso de que el transformador/cargador falle la solución más viable es adquirir un transformador/cargador original o compatible (Su reparación puede tener un coste similar al precio del transformador/cargador nuevo).
  10. Teclado: Su sustitución es relativamente costosa ya que no se utilizan teclados estándar como en sobremesa.
  11. Unidades ópticas (Lector o Grabadora DVD): En caso de avería en principio basta con sustituir una por otra y poco más si acaso actualizar el programa de grabación si este es antiguo y no reconoce la grabadora nueva (No suele ser necesario reinstalar el Sistema Operativo).
  12. Otra avería bastante frecuente y que suele aparecer con el paso del tiempo es la acumulación de polvo en los sistemas de refrigeración (Disipadores y ventiladores) del ordenador, esta acumulación de polvo y pelusas hace que el rendimiento de los sistemas de refrigeración se reduzca bastante y puedan producirse inestabilidad en el uso del equipo (Bloqueos, Reinicios, Apagados del equipo). En csaso de tener que sustituir los sistemas de refrigeración el coste de la reparación puede aumentar ligeramente.

En cuanto a Software la avería más habitual y costosa suele ser la reinstalación del Sistema Operativo ya que suele implicar:

  • Comprobación de hardware (Disco duro, RAM,…) para eliminar algún posible fallo de hardware que afecte al software (Sistema Operativo y programas).
  • Copia de seguridad de los datos de usuario si sólo hay una partición (Suponiendo que el usuario no haya hecho una copia de segurida de sus datos previamente).
  • Reinstalación de Sistema Operativo (Incluyendo creación de particiones y configuración del Sistema).
  • Reinstalación de los drivers (Controladores) de los dispositivos (Chipset placa base, Tarjeta gráfica, Tarjeta de sonido, Tarjeta de Red, Impresora,…).
  • Reinstalación de los programas utilizados por el usuario.
  • Restauración de los datos de usuario.

¿Cuál es el cuello de botella actual de un equipo informático?


El Bottleneck o Cuello de botella (Definición de Alegsa.com.ar) supone una limitación del rendimiento del equipo informático (PC) para realizar una función determinada (Por lo tanto el cuello de botella de un ordenador siempre a va ser su pieza más lenta). El cuello de botella puede ser debido a:

  • Un componente “lento” de por si (Ej: Un disco duro) que ralentiza al resto del sistema a pesar de ser actual (Los componentes electrónicos (CPU, Gráfica, Chipset,…) actualmente no suponen un cuello de botella).
  • Un desaprovechamiento de un componente “nuevo” porque el componente “base” en el que se instala es “lento” (Esto puede ocurrir por ejemplo al actualizar un equipo antiguo con piezas nuevas que sean compatibles), como por ejemplo utilizar:
    • Una tarjeta gráfica AGP 8x en un puerto 4x.
    • Una tarjeta PCIe 16x en una ranura limitada a PCIe 4x porque no existe ninguna ranura PCIe de  16x.
    • Un disco duro ATA133 en un equipo con conectores SATA300 (Normalmente disponen al menos de un conector ATA133 para conectar dispositivos antiguos y/o unidades ópticas).
    • Una memoria RAM DDR400 en una placa que admita DDR2 667 (Teniendo en cuenta que las placas base que soportan dos tipos diferentes de memoria no la admiten de forma simultánea o mezclada, es decir que sólo se puede usar un tipo de memoria u otro).
    • Una memoria RAM DDR2 1066 en una placa base que admita hasta DDR2 667 o bien el controlador de memoria del procesador (Caso de los Athlon64) este limitado a DDR2 667.

Lógicamente la sensación de lentitud (Dentro de un orden claro está) es diferente para cada usuario y por lo tanto el cuello de botella puede estar en piezas diferentes en función de la tarea a desarrollar por ejemplo para:

  • Editar video si no queremos que el proceso se “eternice” suele ser necesario tener:
    • Un buen procesador (Basicamente es el que se encarga de procesar el video).
    • Una buena cantidad de RAM.
  • Jugar de forma fluida a los últimos juegos 3D con gran resolución (Ej: Full HD ó 1080p: 1.920 x 1.080 píxeles) y buen nivel de detalle (Aplicación de filtros) será necesario tener:
    • Una buena tarjeta gráfica que sea capaz de procesar los recursos gráficos que genera el juego en cuestión.
    • Un procesador “bueno”.
    • Bastante RAM.

Hay que tener en cuenta que el cuello de botella sólo se vería reflejado en usos muy concretos (Como por ejemplo los comentados anteriormente), ya que un equipo actual para ofimática con un par de años aunque se actualizase algún componente no tendría un cuello de botella significativo ya que las aplicaciones que utiliza no requieren un gran consumo de recursos, si acaso se podría cambiar el disco duro por otro más rápido pero dado que actualmente:

  • Los equipos domésticos en general usan discos de 7.200 Rpms (Los equipos profesionales pueden usar discos de 10.000 ó 15.000 Rpms, aunque actualmente tienden a utilizar SSD, comentados en estas entradas del Blog: Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) y SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros).
  • Los discos de 10.000 Rpms SATA están “limitados” a los Velociraptors de Western Digital, pero tienen una relacion €/GB pémisa (Los modelos de 74 y 150 GB rondan los 150 €, el de 300 GB ronda los 203 €, el de 450 GB los 280 y el de 600 GB ronda los 285 €), ya que los precios en muchos casos se acercan a de un SSD  de entre 60 y 120 GB.
  • Los SSD tienen una relación €/GB también pésima (Aunque su rendimiento es muy superior a cualquier disco duro actual de 10.000 ó 15.000 Rpms), un SSD de 60 GB ronda los 160 € y uno de 120 GB ronda los 320 €, aunque también hay SSD de 40 GB y alto rendimiento (Ej: Mushkin Callisto, comentado en esta entrada del Blog) que rondan los 108 € sin gastos de envío.

Para un uso puramente ofimático posiblemente siga interesando tirar de discos duros mecánicos por su relacion precio/prestaciones frente a los SSD.

Sin embargo existe un cuello de botella “endémico” en cualquier equipo informático actual de altas prestaciones: El disco duro, desde el inicio de la informática los sistemas de almacenamiento electro-mecánicos (Discos duros) han sido siempre el cuello de botella, un disco duro:

  • UDMA33 (ATA33) podía transmitir hasta 33 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (Utilizaban cables de 40 hilos y 40 contactos).
  • UDMA66 (ATA6) podía transmitir hasta 66 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (A partir de ATA66 hasta ATA133 se utilizaron cables de 80 hilos y 40 contactos).
  • UDMA100 (ATA100) podía transmitir hasta 100 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior.
  • UDMA133 (ATA33) podía transmitir hasta 133 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 150 (SATA150) podía transmitir hasta 150 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior (Lo normal es que el bus SATA utilice una conexión PCI express o PCIe).
  • Serial ATA 300 (SATA300 ó SATA2) transmite hasta 300 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 600 (SATA600 ó SATA3) podía transmitir hasta 600 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.

Hay que tener en cuenta que en el caso de los discos UDMA/ATA el ancho de banda disponible se repartía entre los dos dispositivos (Master y Slave)  conectados al mismo canal (Primario o Secundario) y que el acceso a los mismos (Ej: Pasar datos de un disco duro Master en canal primario al disco Slave del mismo canal) no era simultáneo sino alterno. Con el nuevo conector Serial ATA (SATA) ha habido una mejora en este sentido ya que cada dispositivo tiene su ancho de banda propio (En el caso de SATA150, cada conector tiene hasta 150 MB/Seg de ancho de banda, en el caso de SATA300/SATA2 cada conector tiene hasta 300 MB/Seg y en el caso de SATA600/SATA3 cada conector tiene 600 MB/Seg) puesto que la conexion es “directa” desde el dispositivo (Ej: Disco Duro) al conector SATA de la placa base.

Actualmente para equipos de gama alta parece más interesante tener un SSD o dos en RAID 0 (Stripping) junto con un disco duro de alta capacidad para:

  • Instalar el Sistema Operativo y el Software (Programas y Juegos) en el SSD, acelerando así la carga del Sistema Operativo y la apertura de los programas/juegos).
  • Dejando el disco duro de gran capacidad para almacenar los datos de usuario (Documentos, Música, Videos/Películas, Descargas,…) los cuales no necesitan tener una apertura “instantánea”.

El mayor problema es que si necesitamos un SSD de cierta capacidad 120 GB o más el precio del mismo se “dispara”.

Ya que actualmente los ordenadores tienen un gran ancho de banda en los componentes puramente electrónicos como por ejemplo:

  • FSB de los procesadores, por ejemplo el bus Hyper-Transport (HTT) v3.0 de los ultimos AMD tiene una frecuencia de funcionamiento de 3,2 Ghz con 32 Bits, que se traduce en un ancho de banda bidireccional de 51,2 GB/Seg, y los primeros Intel Nehalem (Core i7 y derivados) tienen un bus similar al HTT de AMD denominado QPI (QuickPath Interconnect), el cual funciona a 3,2 Ghz con 20 Bits, que se traduce en un ancho de banda bidireccional de 25,6 GB/Seg.
  • Memoria RAM DDR2 PC1066 que tiene 8.500 MB/Seg (8,5 GB/Seg).
  • Memoria RAM DDR3 PC1600 que tiene 12.800 MB/Seg (12,8 GB/Seg).
  • Bus Serial ATA300 (Hasta 300 MB/Seg).
  • Bus Serial ATA600 (Hasta 600 MB/Seg).
  • USB 3.0 (Hasta 4,8 Gbps, unos 4.800 Mbps que equivalen a unos 600 MB/Seg).
  • Bus PCI Express (PCIe) que en su version 1.1 tiene un ancho de banda de 250 MB/Seg y por canal, es decir que un bus PCIe de 1x tendría 250 MB/Seg (El bus PCI anterior tenía como máximo 133 MB/Seg para todos los dispositivos que hubiese conectados a él), mientras que un PCIe 16x tendría 4 GB/Seg (4.000 MB/Seg) ya que serían 16 canales de 250 MB/Seg cada uno (250 MB/Seg x 16  canales = 4.000 MB/Seg). Actualmente el bus PCIe va por la versión 2.0 el cual dobla la tasa de transferencia, hastalos 500 MB/Seg y el próximo bus PCIe 3.0 la vuelve a doblar hasta los 1.000 MKB/Seg.

Sin embargo los discos duros mecánicos actuales (Lo habitual es que sean de 5.400 ó 7.200 Rpms) por muy rápidos que sean (Aun siendo de 10.000 ó 15.000 Rpms)  no pueden aprovechar al 100% el ancho de banda que proporcionan los buses de datos actuales como por ejemplo:

  • SATA o S-ATA (Serial ATA).
  • SCSI (Small Computers System Interface (Sistema de Interfaz para Pequeñas Computadoras).
  • SAS (Serial Attached SCSI que es utiliza unos conectores similares a SATA pero incompatibles con él).

Por lo que el rendimiento del sistema de almacenamiento supone un cuello de botella bastante grande, por varias razones:

  1. Alta latencia: Los discos duros de 7.200 Rpms (Los más comunes en entornos domésticos) tiene un tiempo de busqueda según fabricante en el mejor de los casos de unos 9 ms aproximadamente (Mientras que un disco de 10.000 Rpms segun datos de los fabricantes tienen el mejor de los casos 4,2 ms y los discos de 15.000 Rpms tienen entre 3,4 y 3,5 ms), esto se traduce en una pérdida de rendimiento debido a que para buscar un dato es necesario invertir bastante “tiempo” si se compara con un SSD los cuales tienen latencias (Tiempo de Acceso) inferiores a 1 ms.
  2. Tasa de transferencia: Que en el caso de los discos duro no se mantiene sostenida sino que fluctua entre un maximo y un minimo, de hecho las gráficas de los Benchmark de disco duro como: HD Tach y HD Tune, muestran que un disco duro SATA300 de 500 GB y 7.200 Rpms actual puede tener una tasa media de transferencia de datos de unos 100 MB/Seg pero esta tasa no es sostenida a lo largo de toda la superficie del plato sino que suele empezar por una tasa ligeramente superior a la media para ir bajando progresivamente hasta por debajo de la media pudiendo llegar a ser la tasa mínima aproxidamente entre el 50 (En torno a los 50 MB/Seg) ó el 60% (En torno a los 60 MB/Seg) de la velocidad media.
  3. IOPS (Input Output Per Second, Operaciones de Entrada – Salida Por Segundo): Los discos duros tienen muy bajo rendimiento en este sentido.

Estos problemas y otros derivados de la propia arquitectura de los discos duros inicialmente se “resolvieron” con los niveles RAID (Hay más información en esta entrada del Blog) que permitian mejorar:

  • El rendimiento del sistema de almacenamiento (Ej: RAID 0, Stripping)
  • La seguridad física de los datos, como es el caso de RAID 1 (Mirroring o Espejo).
  • El rendimiento y la seguridad física de los datos, como es el caso de RAID 5 y RAID 10.

Sin embargo aun utilizando sistemas RAID los discos duros tienen una latencia alta, por lo que los SSD (Solid State Device, Dispositivos de Estado Sólido) basados en memorias Nand Flash como las que se utilizan en las memorias flash USB o las tarjetas de memoria, son los que realmente proporcionaran al usuario un gran rendimiento ya que apenas tienen latencia (Es inferior a 1 ms) y sus tasas de transferencia de datos son muy altas (Si queremos mayor rendimiento aún se puede optar por un RAID 0 con dos o más SSD); sin embargo hasta que no sus precios sean “asequibles” (Actualmente un SSD “bueno” de entre 60 y 80 GB ronda los 160 – 225 €) no se podrá eliminar el lastre de rendimiento que suponen los discos duros para los sistemas operativos actuales y sus programas/juegos.

De hecho en el futuro no sería raro ver equipos de altas prestaciones con Un SSD para el Sistema (Incluyendo los Programas y Juegos) para que le de “rapidez” al equipo, mientras que los datos de usuario se guardan en:

  • Discos duro electro-mecánicos de gran capacidad (Actualmente existen discos de hasta 2 TB y ya que comenta que en breve saldrán los discos de 3 TB).
  • Discos duros híbridos (HHD: Hybrid Hard Drive, Discos Duro Híbrido que son discos electro-mecánicos pero con algo de memoria Flash para acelerar el rendimiento, en esta entrada del Blog hay más información)  de gran capacidad (Actualmente Seagate tiene un modelo con estas caracteristicas denominado Seagate Momentus XT, es un disco duro de 2,5″ (Tamaño de disco duro de portátil) que esta disponible en tres capacidades: 250 GB, 320 GB y 500 GB que cuenta con 4 GB de memoria Nand Flash SLC, pero teniendo en cuenta que el modelo de 320 GB ronda los 123 € y el modelo de 500 GB los 148 € parece mejor opción este último ya que por unos 30 € más se consiguen 180 GB “extras”).

OCZ Revo Drive: Unidades SSD en formato PCI Express (PCIe) de baja capacidad


Hasta hace poco las unidades SSD (Solid State Device, Dispositivo de Estado Sólido) basadas en memorias Nand Flash como medio de almacenamiento se encontraban principalmente como discos de: 2,5″ (Tamaño de disco portátil, para poder usarlo en un equipo de sobremesa era necesario utilizar un adaptador de 2,5″@3,5″), aunque también existen otros formatos (Como comente en esta entrada del Blog):

  • 1,8″ (Tamaño inferior al de un disco portátil).
  • 3,5″ (Tamaño de disco de sobremesa, no son muy frecuentes aunque existen algunos modelos de OCZ en este formato).

Sin embargo desde hace tiempo también se comercializan SSD en formato PCIe (Usando una tarjeta PCIe) como ha sido el caso del Photofast G- Monster o el OCZ Z Drive (Se puede encontrar más información en esta entrada del Blog) cuyos precios eran bastante altos.

Actualmente parece que OCZ ha sacado al mercado modelos en formato PCIe más “asequibles” con menor capacidad y rendimiento como es el caso del OCZ Revo Drive que utiliza una conexión PCIe 4x, sus características principales son:

50-80GB Max Performance

  • Read: Up to 540 MB/s
  • Write: Up to 450 MB/s
  • Sustained Write: Up to 350 MB/s
  • Random Write 4KB (Aligned): 70,000 IOPS

120GB-480GB Max Performance

  • Read: Up to 540 MB/s
  • Write: Up to 480 MB/s
  • Sustained Write: Up to 400 MB/s
  • Random Write 4KB (Aligned): 75,000 IOPS

El gran rendimiento de estas unidades se debe al uso de un RAID 0 interno.

Su precio es de unos 243 € para el modelo de 50 GB, unos 300 € para el de 80 GB y unos 375 € para el de 120 GB, el resto de modelos de mayor capacidad tienen precios algo desorbitados.

Sin embargo hay que tener en cuenta que el Revo Drive puede tener varias “desventajas” frente al uso de dos o más SSD con conexión Serial ATA en RAID 0, entre otras:

  1. Utiliza un RAID 0 interno por lo que en caso de fallo habría que sustituir posiblemente la tarjeta completa.
  2. No se puede hacer un RAID utilizando tarjetas PCIe 4x, mientras que con conexiones SATA si es posible, actualmente la mayoria de las placas base suelen traer al menos entre 4 y 6 conexiones SATA300 e incluso en algunos casos incorporan controladoras SATA RAID adicionales sencillas de otros fabricantes, las cuales requieren sus propios drivers/controladores.

Además de no ser compatible con todas las placas base, OCZ tiene un listado en PDF con las que han probado.

Firewire800 (IEEE 1394b): Estándar de conexión de vídeo


Hasta hace poco tiempo el estándar para volcar video era Firewire o Firewire400 (También conocido como IEEE 1394a o I.Link) el cual soportaba hasta 400 Mbps (Unos 50 MB/Seg) e incluso permitía crear una red local entre dos equipos de 400 Mbps (Mucho más rápida que Fast Ethernet que soporta hasta 100 Mbps, unos 12,5 MB/Seg; aunque más lenta que Gigabit Ethernet que soporta hasta 1.000 Mbps, unos 125 MB/Seg).

Algunas de las ventajas de Firewire son:

  • Mayor tasa de transferencia de datos sostenida que USB (Hay que tener en cuenta que Firewire se desarrollo como un estándar para editar video, mientras que USB se diseño como un puerto de uso “genérico” para sustituir a los puertos paralelo, serie y PS/2).
  • Mayor capacidad de alimentación de dispositivos soportando hasta 45w bastante superior a la alimentación que puede proporcionar USB.

Sin embargo desde hace unos años existe una revisión de Firewire denominada Firewire800 (IEEE 1394b) que soporta hasta 800 Mbps (Unos 100 MB/Seg), este puerto suele usarse en equipos de Apple (Macintosh), aunque también existen controladoras PCI/PCIe y PCMCIA/Express Card para ordenadores tipo PC tanto de sobremesa como portátiles.

Este puerto inicialmente se diseño para editar video, de hecho la primera versión (Firewire400) “competía” en el mercado con USB 2.0 (Hasta 480 Mbps, unos 60 MB/Seg) y conseguía mayor rendimiento que USB 2.0, en parte debido a que Firewire400 se diseñó explicitamente para volcar vídeo de un dispositivo (Ej: Cámara MiniDV) a un ordenador y no podían perderse frames (Imágenes) durante la captura del video. De hecho los fabricantes de hardware en muchos casos sacaron versiones de un mismo producto pero con diferente puerto (Bien USB 2.0 ó bien Firewire400, e incluso en algunos casos sacaron modelos con ambos conectores).

La desventaja principal de Firewire800 es el alto precio que tienen las controladoras Firewire800, así como los dispositivos que utilizan este tipo de conexión.

Se puede encontrar más información en:

Guía para comprar antenas Wifi


Actualmente las conexiones inalámbricas (Wifi: Wireless Fidelity) se han convertido en un estándar por su relativa facilidad de implantación a pesar de tener sus desventajas, como por ejemplo:

  • Menor rendimiento de la red, una red con Fast Ethernet soporta hasta 100 Mbps (Unos 12,5 MB/seg), mientras que una red Wifi 11g soporta hasta 54 Mbps (Unos 6,75 MB/seg), por otra parte una red Gigabit Ethernet soporta hasta 1.000 Mbps (Unos 125 MB/seg) y el estándar Wifi más actual 11n soporta hasta 300 Mbps (Unos 37,5 MB/seg), como se comenta en esta entrada: Wifi 11n será un estándar en Octubre de 2.009 ).
  • Menor seguridad, una red Wifi debe estar cifrada como mínimo con una clave WEP (Actualmente este tipo de claves Wifi se pueden romper y dar acceso a la red), por lo que lo más aconsejable es que la clave Wifi sea al menos WPA-AES (WPA-TKIP se ha conseguido romper recientemente como se comento en esta entrada: Contraseñas Wifi con WPA-TKIP crackeadas), aunque para ello es necesario que todos los componentes de la red (Router, Puntos de Acceso, Tarjetas inlámbricas,…) sean compatibles con dicho sistema de encriptación.

Aunque en muchos casos las redes Wifi no tienen la cobertura esperada y es necesario utilizar algún elemento que aumente la potencia de los dispositivos Wifi, como por ejemplo:

  • Router Wifi.
  • Puntos de Acceso/Access Point (AP).
  • Tarjetas de red inalámbricas (PCI, USB,…).

Para ello se pueden encontrar en el mercado antenas Wifi que aumentan la potencia de emisión/recepción de la señal Wifi, estas antenas pueden clasificarse en varios tipos:

  1. Omnidireccionales: Emiten/Reciben la señal inalámbrica en todas las direcciones (360º), son las más frecuentes aunque suelen tener menos potencia (dBi, información de Wikipedia).
  2. Sectoriales: Emiten/Reciben la señal inalámbrica dentro de un sector circular por ejemplo de 80º ó 120º, tienen mayor potencia (dBi) que las omnidireccionales pero no cubren los 360º, es decir que para montar una antena omnidireccional utilizando antenas sectoriales sería necesario utilizar varias antenas para cubrir los 360º aunque suelen ser más costosas que las omnidireccionales y unidireccionales.
  3. Unidireccionales: Emiten/Reciben la señal inalámbrica en una sola dirección, su amplitud es muy limitada (Tienen una cobertura pocos grados)  ya que consiguen mayor distancia a costa de tener poca amplitud de cobertura, se utilizan en enlaces Punto a Punto (Con dos antenas unidireccionales), o para tener acceso a antenas omnidireccionales. Un ejemplo de antena unidireccional es la Antena Yagi (Información de Wikipedia), que se puede fabricar de forma casera con un paquete de patatas Pringles como comentan en Buen Master.

Actualmente por norma general suele ser más barato comprar una antena Wifi de algún fabricante del sector Wifi ya que su precio es bastante asequible, salvo que se necesite algún con características especiales, en tal caso es posible que si merezca la pena diseñar y crear una antena Wifi por nuestra cuenta.

Un punto a tener en cuenta a la hora de elegir una antena Wifi, es su ganancia (dBi): A mayor cantidad de dBi mayor cobertura de red inalámbrica (Wifi), por ejemplo un Router Wifi o una tarjeta de red inalámbrica PCI (Las tarjetas USB suelen tener menor potencia de señal) domésticos suelen tener unas antenas Wifi de serie de unos 3 dBi (Información de Wikipedia).

Así mismo algunas antenas Wifi disponen de un cable (Denominado Pigtail) que sirve para colocarlas en una mejor posición de forma que se pueda mejorar algo la cobertura Wifi, los Pigtail tienen diferentes conectores según el tipo de antena Wifi que utilicen los más comunes son:

  • Conector N (Navy) suele utilizarse en antenas Wifi de fabricación casera debido al gran tamaño del conector, siendo relativamente fácil trabajar con él (Información de Wikipedia).
  • Conector BNC (Bayonet Navy Connector): Es un conector que se utiliza en redes 10Base2, es de tipo coaxial, su utilización no es aconsejable para Wifi puesto que es poco apto para trabajar a 2,4 Ghz (Información de Wikipedia).
  • Conector SMA (SubMiniature version A), o su variante RP-SMA (Reverse-SMA), este conector puede ser macho o hembra, es muy frecuente en tarjetas PCI (Información de Wikipedia).
  • Conector SMB (Es una variante del SMA de menor tamaño).
  • Conector SMC (Es una variante del SMA de menor tamaño, se utilizan en cables muy finos, estos suelen tener alta perdida de señal).
  • APC-7 (Amphenol Precision Connector): Es un conector con baja perdida de señal y bastante caro de producir, lo fabrica Amphenol.

También existen pigtail “mixtos” por ejemplo en un extremo con un conector N y en el otro con un conector SMA,… es decir que no necesariamente los pigtail tienen que tener los mismos conectores en ambos extremos.

Aunque hay que tener en cuenta que según la calidad del cable (Pigtail) y de los conectores, estos pueden tener mayor o menor pérdida de dBi, es decir que si por ejemplo tenemos una antena con 10 dBi pero el pigtail “pierde” por ejemplo 2 dBi/metro de cable, realmente tendríamos una antena con pigtail de 8 dBi para un cable de 1 metro, evidentemente a mayor pérdida de dBi se puede dar el caso incluso de tener los mismos dBi que con la antena de fábrica (Por ejemplo en el caso anterior si el cable fuese de 5 metros, perdida sería de 10 dBi (2 dBi/metro) es decir que no habríamos mejorado la cobertura de la red wifi).

Así mismo las antenas Wifi pueden estar diseñadas para:

  • Interior (Lo más habitual).
  • Exterior o interperie (Son mucho más caras).

Se puede encontrar más información en:

¿Cuándo deja de ser útil un ordenador?


La respuesta a esta pregunta no es fácil ya que existen diversas razones para considerar un equipo informático de sobremesa (Ordenador de sobremesa o escritorio) como “obsoleto”, algunas de ellas pueden ser:

Escasa potencia en cuanto a recursos Hardware (Procesador/CPU, Tarjeta Gráfica/GPU, Memoria RAM, Capacidad de almacenamiento,…), para las nuevas tareas que desarrolla el usuario y que inicialmente no estaban previstas (Ej: Ejecución de programas/juegos 3D, Edición de video,…), esto en algunas ocasiones puede solucionarse con una actualización y/o ampliación de piezas pero en caso de ser muy costosas es mejor opción adquirir un equipo nuevo que probablemente tendrá mejores prestaciones que el equipo antiguo.

Inexistencia de recambios, o recambios muy costosos para el equipo en caso de tener que efectuar una ampliación/reparación, por ejemplo lo equipos AT (Advanced Technology) del año 98 y anteriores, son anteriores a los ATX (Advanced Technology Extended) actuales (Actualmente ha salido una nueva norma denominada BTX (Balanced Technology Extended), aunque parece que no ha terminado de cuajar en el mercado) utilizan piezas diferentes a los actuales, por ejemplo:

  • Sus fuentes de alimentación son AT, no ATX, encontrar una fuente AT nueva a estas alturas (En el año 2009) es imposible, como mucho se podría encontrar usada por lo que no podemos esperar la misma fiabilidad que una fuente nueva. En este video de de Youtube se puede ver la diferencia entre ambas fuentes de aimentación:
  • Sus placas base son AT (Al igual que sus fuentes) y sus conectores son diferentes al estandar ATX actual, en este video de Youtube se pueden ver las diferencias entre una placa base AT y otra ATX:
  • Los equipos AT utilizan teclados con conexión MiniDin y ratones con puerto Serie (RS-232) diferentes a los actuales PS/2 y USB, aunque en el mercado puede encontrarse adaptadores pero en muchos casos hay que recurrir a tiendas online con lo que el precio del adaptador sube bastante al tener que contar los portes.
  • El tipo de memoria RAM que utilizan los equipos AT (Por norma general suelen tener como mucho 32 MB de RAM) es de tipo SIMM (Single In-line Memory Module, Módulo Simple de Memoria en Línea), actualmente no se encuentran en el mercado por lo que habría que tirar de segunda mano si que se puede encontrar, los equipos actuales usan módulos DIMM (Dual In-line Memory Module, Módulo de Memoria en Linea Doble) que pueden ser: SDRAM, DDR, DDR2, DDR3.
  • Discos duros aunque usan el sistema de conexión IDE y pueden encontrarse discos duros IDE de poca capacidad (Entre 120 y 160 GB), pero tienen varias “pegas”:
    • El precio de los discos IDE es similar al de los discos Serial ATA (SATA) 150/300 actuales pero no así su capacidad, por ejemplo un disco IDE de 120 GB y 7.200 Rpms ronda los 60 €, sin embargo por unos 50 € podemos comprar un disco duro SATA300 de 500 GB y 7.200 Rpms.
    • La BIOS de un equipo AT al ser tan antigua seguramente no reconozca la capacidad total del disco duro, en consecuencia “perderemos” espacio, las BIOS de esa época probabablemente no tendrán un soporte para discos duros de más de 4 GB con suerte puede que llegen a los 8 GB, o como mucho a los 32 GB.
  • La tarjeta gráfica que utilizan suele ser de unos 4 MB como mucho (En muchos casos suelen ser de 2 MB) y su bus de conexión es PCI, raramente las placas AT disponen de conexión AGP.
  • No disponen de puertos USB por lo que si necesitamos este tipo de puertos necesitamos recurrir a una controladora USB por bus PCI, lo cual supone un aumento del coste del equipo.
  • No suelen disponer de Grabadora de CD/DVD, en su lugar suelen utilizar un Lector de CDs o como mucho un lector de DVDs, con lo cuál hacer copias de seguridad de los datos es poco viable.
  • Los sistemas operativos que utilizan suelen ser Windows 95 ó Windows 98/98SE (Win9x) frecuentemente, lo que supone tener que usar dispositivos (Impresoras, Escáner,Teclado, Ratón,…) acordes al sistema (Cualquier dispositivo que se instale en Windows 98/98SE por regla general necesita sus drivers correspondiente como en cualquier otro Sistema Operativo, sin embargo los sistemas operativos más actuales, ej: Windows XP y superiores no necesitan drivers para ciertos dispositivos como por ejemplo: Memorias Flash USB o discos duros USB lo cual facilita la conexión/desconexión de estos dispositivos de almacenamiento externo.

Hay que tener en cuenta que el tema de los recambios también afecta a los ordenadores ATX actuales, ya que actualmente hay generaciones de equipos diferentes con diferentes tipos de:

  • Placas base que varían en función del Socket del procesador:
    • Los Socket más actuales en Intel son: LGA1366 (Core i7), LGA1156 (Core i5) y LGA775 (Core 2 Duo/Quad y últimos Pentium 4).
    • Los Socket más actuales de AMD (Advanced Micro Devices) son: AM3, AM2+ y AM2
  • Memoria RAM: Puede ser SDRAM (Actualmente no se utiliza en equipos nuevos), DDR (Actualmente no se utiliza en equipos nuevos), DDR2 (En un futuro próximo no se utilizará en equipos nuevos), DDR3.
  • Tarjeta Gráficas: AGP (Actualmente no se utiliza en equipo nuevos) o PCI Express (PCIe).
  • Conexiones de dispositivos de almacenamiento: IDE (Actualmente la tendencia es no utilizarlo en equipos nuevos) o Serial ATA (SATA).
Por lo que en equipos muy antiguos (Ej: Pentium III, Athlon XP, Primeros Pentium 4,…) pueden darse casos similares a los de los equipos AT comentados en cuanto a tema de recambios, por lo que posiblemente en algunos casos quizas sea mejor cambiar el equipo directamente por uno nuevo si la reparación supone un gran coste.

Estas mismas razones pueden aplicarse a equipos portátiles con la diferencia de que un equipo portátil suele tener menos potencia en recursos Hardware (Procesador/CPU, Tarjeta Gráfica/GPU, Almacenamiento,…) que un equipo de sobremesa equivalente. Además dos averías que pueden hacernos cambiar de equipo portátil son:

  • Sustitución de la placa base y/o tarjeta gráfica (Suele estar integrada en la placa base aunque esta sea dedicada).
  • Sustitución del monitor.

Debido a su alto coste de reparación, ya que actualmente se pueden encontrar equipos portátiles  de bajo coste con pantallas de 15″, por unos 500 € aproximadamente.

Se puede encontrar más información en Wikipedia:

Guía para comprar una Placa Base (Motherboard o Mainboard)


La placa base (Motherboard o Mainboard) es el soporte básico de un ordenador de ella depende varios factores como por ejemplo:

  • El procesador (CPU) que podemos utilizar en función del Socket que utilice, por ejemplo si la placa base es para Socket 775 de Intel, sólo podremos utilizar procesadores de ese Socket y ese fabricante.
  • El tipo de memoria RAM que soporta, por ejemplo una placa base que soporta DDR2 no soporta DDR3, aunque en el mercado existen algunas placas base con soporte de memoria “mixto” (Ej: DDR2 y DDR3) aunque no pueden utilizarse de forma simultanea, y además suelen tener menor capacidad de memoria RAM, es decir si una placa con soporte para DDR2 ó DDR3 tiene 4 zócalos, una placa base con soporte “mixto” aunque tiene 4 zocalos, seguramente tendrá 2 zócalos DDR2 y otros 2 zócalos DDR3.
  • El tipo de tarjeta gráfica que soporta, ya que hace tiempo había placas base con puerto AGP y otras con puerto PCI Express (PCIe), actualmente el estándar actual es PCI Express (PCIe)
  • El número de dispositivos de almacenamiento interno y su tipo (IDE, SATA, SCSI o SAS) que podemos conectar a la placa base, algunos modelos de gama alta incluyen controladoras adicionales que aumentan el número de dispositivos.
  • El sistema de refrigeración de los componentes (Northbridge, Southbridge, Zona VRM (Voltage Regulator Module, Módulo Regulador de Voltaje) y Chipset auxiliares), en los modelos de gama baja suele ser pasiva (Utilizan disipadores (Heatsink/Heat Sink) de aluminio o cobre), o bien utilizan un disipador activo (con ventilador) que a la larga supone una fuente de ruido ya que son ventiladores pequeños que giran a altas Rpms; mientras que en los modelos de media y alta llevan sistemas de refrigeración pasivos con heat pipes que mejoran la disipación de calor y no generan ruido, incluso algunos modelos de gama alta vienen preparados para adaptarles un kit de refrigeración líquida a los disipadores y mejorar aún más su rendimiento.
  • Extras que tiene la placa base, algunos modelos de gama media y alta incluyen por ejemplo:
    • Switch (Botones) para:
      • Encender/Apagar la placa blase (Esto también se puede hacer puenteando los pines adecuados).
      • Hacer un Reset (Esto también se puede hacer puenteando los pines adecuados).
      • Hacer un Clear CMOS (Esto también se puede hacer con el Jumper correspondiente de la placa base).
    • Número de fases de alimentación, a mayor número de fases mayor estabilidad del sistema, aunque actualmente existen modelos con alimentación con fases analógicas (Con menor precisión) y modelos con alimentación digital PWM (Con mayor precisión).
    • PCB , Capacitadores sólidos, Chokes, Mosfet de Ferrita,… de mayor calidad que los convencionales.
    • Display de 2 digitos Hexadecimal o Hex (Utiliza la Base 16 (Emplea los números del 0 al 9 y las letras A (10), B (11), C (12), D (13) E (14) y F (15) ), el sistema de numeración hexadecimal permite mostrar hasta el número 255  utilizando “sólo” 2 digitos, en hexadecimal 255 equivale al número FF), que muestra un error en caso de haberlo, en lugar de emitir los típicos “pitidos” de placa base, actualmente lo implementan algunas placas base DFI (Hace tiempo se podían ver en las placas base de Epox).
    • Led de diagnóstico de Hardware (Ej: CPU, Memoria, PCIe, PCI, SATA, IDE,…).
    • Led de consumo ACPI que informan del consumo apróximado del equipo, ej: verde, amarillo, naranaja y rojo.
    • Conector unificado del Front Panel (HDD Led, Reset Switch, Power Led, Power,…), actualmente  lo implementa Asus bajo el nombre “Asus Q-Connectors”.
    • Conectores y Slot fluorescentes (UV Reactivos).
    • Conexión para hacer comprobaciones con un polímetro , actualmente se usa en algunas placas base de MSI con el chipset  P55 de los Core i5 utilizando un conector “V-Kit” (información de Noticias3D)
    • Sistemas de protección de BIOS como el Dual BIOS de Gigabyte que evita que la BIOS de la placa base resulte dañada al tener una 2ª BIOS de reserva.

Otro punto importante a tener en cuenta a la hora de comprar una placa base es su chipset, actualmente para:

  • Procesadores Intel, los chipset que dan mejor resultado por regla general son los Intel.
  • Procesadores AMD, los chipset que dan mejor resultado por regla general son los AMD/Ati, aunque hace unos años los Chipset de Nvidia (nForce) no daban malos resultados.
  • Otros fabricantes de chipset actuales son nVidia, Via o SiS, aunque actualmente estos dos últimos no fabrican chipset ni para Intel ni para AMD.

Gigabyte EP45-DS5

En la imagen (Arriba) se puede apreciar una placa base Gigabyte EP45-DS5 que reune varias de las características que comento como por ejemplo:

  • Capacitadores sólidos, Chokes y Mosfet de Ferrita de mayor calidad que los convencionales.
  • Leds de diagnostico en la placa base (CPU, Memory, PCIe 16x/8x, PCIe 4x/1x, PCI, SATA e IDE).
  • Botones en placa base: Power, Reset y Clear CMOS (Están situados en la parte inferior de la placa base).
  • Refrigeración por heat pipes de 4 piezas: Southbridge (Chipset Sur) comunicado con Northbridge (Chipset Norte) y Zona VRM (Voltage Regulator Module, Módulo Regulador de Voltaje) que se compone de dos piezas.
  • Alimentación de 2 fases para Chipset (Northbridge).
  • Alimentacion de 2 fases para Memoria RAM.

Entre los fabricantes más conocidos de placas bases están: Asus, Gigabyte, MSI, DFI (DFI-ACP y DFI LANParty), Foxconn, ASRock, Intel, Zotac, EVGA, , XFX o Sapphire entre otros ; actualmente han desparecido algunos fabricantes como Abit o Epox que no tienen placas base que utilicen chipset actuales como por ejemplo:

  • Intel P45 para Socket 775.
  • Intel P55 para Socket 1156 (Core i5).
  • Intel X58 para Socket 1366 (Core i7).
  • AMD/Ati para AM2+/AM3 (770, 780G, 790X, 790GX, 790FX)

Se puede encontrar más información sobre placas base en:

Guía para comprar una tarjeta gráfica (VGA o SVGA) para un ordenador doméstico de sobremesa


Ati HD4890_nVidia GTX295

Actualmente las tarjetas gráficas son aceleradoras 2D (Nos muestran imágenes en dos dimensiones como son fotografías, videos o ventanas de un programa) pero también sirven como aceleradoras 3D (Pueden mostrar un modelado 3D, un videojuego,…) sin embargo no todas las tarjetas gráficas son iguales ya que según el sector al que se enfocan tienen más o menos prestaciones, teniendo en cuenta el uso que vamos a darle, por ejemplo no es igual un uso ofimático (Procesador de texto, Navegador web,…) y multimedia (Reproducción de Audio y Video) que un uso “Gamer” (Ejecución de juegos 3D con un cierto nivel de detalle y resolución). Por lo tanto para elegir una buena tarjeta gráfica tenemos que tener en cuenta primero el tipo de tarjeta gráfica (Integrada o Dedicada):

Integrada en placa base (IGP: Integrated Graphics Processor, Procesador Gráfico Integrado), cosa poco recomendable salvo casos muy concretos como equipos de tamaño reducido y/o puramente ofimáticos donde no habra nada de 3D; dentro de los modelos de tarjetas gráficas integradas en Placa base  (Motherboard o Mainboard) actualmente no hay mucho donde elegir:

  • AMD/Ati tienen el chipset 740G (Radeon HD2100)780V (Radeon HD3100), 780G (HD3200), 790GX (HD3300) y 785G (HD4200), las mejores opciones en precio/rendimiento si buscamos 3D seria el 780G, 785G y 790GX.
  • nVidia tiene la GeForce 9300/9400 mGPU, utilizada en placas base con chipset nVidia.
  • Intel actualmente tiene la serie GMA (Graphics Media Accelerator) serie X3500 (Chipset Intel G35) ó X4500HD (Chipset Intel Q45/43, y G45/G43/ G41), siendo más actual la X4500HD.
  • Via Technologies: Actualmente parece ser que no tiene muchos chipset para los procesadores actuales, en su día tuvo la Via Chrome9 HC IGP.
  • SIS (Silicon Integrated Systems): Actualmente parece ser que no tiene muchos chipset para procesadores actuales, en su día tenía la SIS Mirage 3.

Las mejores opciones en precio/prestaciones dentro de tarjetas integradas son las de AMD/Ati o bien las de nVidia ya que el resto de fabricantes no suelen destacar ni en prestaciones ni en precio si pensamos usar la integrada para 3D aunque como ya comente antes debido a la escasa potencia gráfica una tarjeta integrada no es la mejor opción debido a su escasa potencia de proceso gráfico.

Por el contrario será una tarjeta dedicada (Una tarjeta aparte, actualmente se conectan por el bus PCI Express (PCIe), aunque en equipo antiguos se utiliza el puerto AGP (Accelerated Graphics Port, Puerto de Gráficos Acelerado, aunque también se denomina Advanced Graphics Port, Puerto de Gráficos Avanzado), aunque actualmente el puerto AGP esta en “extinción”)  por ejemplo si es para un uso 3D, en este caso si habría que tener en cuenta ciertos aspectos a la hora de decidirse por un modelo u otro, como por ejemplo:

  1. GPU (Graphics Processing Unit, Unidad de Procesamiento Gráfico): Es el procesador gráfico, en función de sus prestaciones (Stream processors y velocidad del Core/Núcleo) el rendimiento 3D será mejor o peor, generalmente en función del modelo se utiliza una GPU u otra y su precio varía en consonancia. Hay que tener en cuenta que no se pueden comparar arquitectura diferentes entre fabricantes (ej: Ati vs. nVidia) e incluso diferentes arquitecturas del mismo fabricante (ej: nVidia GF9800GT vs. nVidia GTX260).
  2. Tamaño del bus de datos: A mayor bus de datos mayor rendimiento, en los modelos de gama baja suele ser de 64 Bits, en los modelos de gama media suele ser de 128 Bits y en los modelos de gama alta suele ser de 256 bits ó más. En este artículo de Noticias3D hay información más detallada sobre este tema.
  3. Velocidad de la memoria de video: Cuanto mayor sea la velocidad de la memoria de video mayores prestaciones tendrá en principio. Actualmente se suele utilizar memoria GDDR3 (Graphics Double Data Rate, versión 3), sin embargo existen modelos de gama baja con GDDR2 (Anterior a GDDR3) y modelos de gama alta con GDDR4/GDDR5 (Más actuales que GDDR3).
  4. Cantidad de memoria: Actualmente lo “normal” suelen ser modelos de 256 MB ó 512 MB, aunque existen modelos con mayor tamaño de memoria de video, el problema es que de poco sirve tener mucha memoria de video (Ej: Existen modelos que tienen incluso 1.024 MB) si estos son lentos (Ej: Usan GDDR2) y además su bus de datos es de 64 Bits. En este artículo de Noticias3D se comenta con mayor detalle este tema.
  5. Memory Bandwidth (GB/sec): Es el ancho de banda de la memoria de video, a mayor velocidad, mayor rendimiento.
  6. Texture Fill Rate (billion/sec): Están relacionadas con los parámetros anteriores, a mayor tasa de relleno, mayor rendimiento.
  7. Sistema de refrigeración, normalmente los modelos de:
    • Gama baja suelen llevar un sistema de refrigeración pasivo sin ventilador (En principio es más que suficiente); aunque algunos modelos pueden llevar un ventilador, lo cual supone una fuente de ruido a largo plazo.
    • Gama media suelen llevar un sistema de refrigeración activo con ventilador (A la larga pueden ser una fuente de ruido), o bien en algunos modelos concretos llevar sistema de refrigeración pasivos con heat pipes (Sin ventilador) lo cual supone una mejora en cuanto a nivel de ruido ya que es nulo.
    • Gama alta suelen llevar un sistema de refrigeracion activo (con ventilador) y heat pipes para poder disipar todo el calor que generan.
  8. Consumo (Watios): Dependiendo de tipo de gama el consumo puede ser mayor o menor, en los modelos de gama baja y algunos de gama media, no suele ser necesario utilizar el conector PCIe de alimentación extra de hecho ni siquiera lo llevan (Algunas gráficas AGP llevan un conector Molex de 4 pines adicional para darles alimentación como es el caso de la Ati Radeon HD3650), sin embargo los modelos de gama media y alta si pueden llevar dicho conector de alimentación, este puede ser de 6 ú 8 pines dependiendo del fabricante, así mismo es posible que los modelos de mayor potencia gráfica lleven más de un conector PCIe de alimentación. Actualmente existen algunos modelos Green o Eco (Entre otros nombres) que indican que el producto tiene un consumo algo menor que el estándar
  9. Compatibilidad Direct X y OpenGL (Por Hardware): Cuanto mayor es la versión mayor rendimiento se obtiene en tareas 3D, aunque para conseguir el mayor rendimiento es necesario que la tarjeta támbien tenga la potencia necesaria.
  10. Conectores de video: Normalmente las gráficas actuales suelen tener varios tipos de conexiones (En esta entrada se comentan los conectores de video con mayor detalle):
    • Salida de TV analógica RCA y/o SVideo: Son conectores que tienen poca calidad de imagen su utilidad se limita a visualizar películas en una televisión de tubo (CRT) convencional, ya que estas no tienen la misma calidad de imagen (Definición y frecuencia de refresco) que un monitor de ordenador. Actualmente esta en desuso porque las televisiones LCD/TFT suele llevar conectores VGA ó HDMI.
    • VGA (D-Sub15): Es un puerto de 15 pines que transmite el video en formato analógico, actualmente esta en “desuso”, aunque muchos monitores TFT llevan sólo un conector VGA.
    • DVI (Digital Visual Interface, Interfaz Visual Digital): Es un puerto que transmite el video en formato digital, tiene mayor calidad que el VGA pero no lo llevan todos los monitores, con la aparición de HDMI, DVI ha dejado de ser un “estándar”, para compatibilizar DVI con HDMI, es necesario que DVI soporte DHCP (Dynamic Host Configuration Protocol, Protocolo Configuración Dinámica de Anfitrión).
    • HDMI (High-Definition Multi-media Interface, Interfaz Multimedia de Alta Definición): Es el futuro estándar en conexiones de video, permite transmitir tanto video como audio en Alta Definiciónm, actualmente la última version de HDMI es la v1.3.
    • Display Port: Es un conector similar a HDMI, aunque no está muy implantado actualmente, Display Port utiliza un sistema similar a HDCP denominado DPCP (DisplayPort Content Protection, similar al HDCP de HDMI).
  11. Otras tecnologías:
    • Descompresión de video por Hardware: Normalmente los modelos actuales de tarjetas gráficas pueden ayudar al procesador (CPU) en la descompresión de algunos formatos de video como puede ser DVD (MPG-2) o Video HD de Alta Definición.
    • Sistemas de física integrados: Actualmente nVidia integra en algunos modelos la tecnología AGEIA (Denominada PhysX) que mejora la física de las aplicaciones/juegos que sean compatibles a costa de bajar algo el rendimiento ya que la GPU debe encargarse de gestionar los gráficos y la física.
    • Uso de GPU como CPGPU (General-Purpose Computing on Graphics Processing Units): A traves de programas como CUDA en nVidia o el Ati Stream en Ati (En inglés) permitiran utilizar las tarjetas gráficas para otras funciones más concretas (Ej: Edición de video,…) reduciendo el tiempo de proceso.
  12. Longitud física de la tarjeta: Algunas tarjetas de gama alta son demasiado “largas” y pueden dar problemas para utilizarlas en cajas pequeñas, por otro lado en posible que en cajas pequeñas (ej: MicroATX) sea necesario utilizar tarjetas gráficas de bajo perfil (Low Profile o LP).
  13. Ensamblador (Ej: Asus, Gigabyte, MSI, eVGA, BGF, Gainward, Point of View, Leadtek, Sparkle, Sapphire, Club3D, Matrox…): Unos suelen tener mejor fama que otros, ya que los fabricantes de chips gráficos dedicados para ordenadores domésticos actualmente se limitan a AMD/Ati, nVidia y Matrox.

Estos factores entre otros explican el porque por ejemplo una:

  • nVidia GeForce GF9600 GT (650 Mhz Core, 64 Procesadores Stream, 1.625 Mhz Shader (Processor Clock), Texture Fill Rate:  20.8 billion/seg, 512 MB GDDR3 de 1.800 Mhz, Bus de 256 Bits, Memory Bandwidth 57,6 GB/seg, Refrigeración pasiva con heat pipes, consumo de 95w y conector PCIe de 6 pines) ronda los 83 €, mientras que la GF9800 GT (600 Mhz Core, 112 Stream Processor, 1.500 Mhz Shader (Processor Clock), Texture Fill Rate:  33,6 billion/seg, 512 MB GDDR3 de 1.800 Mhz, Bus de 256 Bits, Memory Bandwidth 57,6 GB/seg, Refrigeración pasiva con heat pipes, consumo de 115w y conector PCIe de 6 pines). En este caso la GF9800GT tiene un rendimiento algo mejor debido a su mayor número de Procesadores Stream (Tiene una Texture Fill Rate de 12,8 billion/seg más) , aunque hay que tener en cuenta que la serie GF9xxx ha sido sustituida por la serie actual GTS y GTX.
  • Ati Radeon HD4670 (750 Mhz Core, 320 Procesadores Stream, 1.625 Mhz Shader, 512 MB GDDR3 de 1.746 Mhz, Bus de 128 Bits, Refrigeración pasiva con heat pipes, consumo de 59w sin conector de alimentación PCIe) ronda los 70 €, mientras que la HD4850 (625 Mhz Core, 800 Procesadores Stream, 1.625 Mhz Shader, 512 MB GDDR3 de 1.986 Mhz, Bus de 256 Bits, Refrigeraciónactiva, consumo de 106w y conector PCIe de 6 pines) ronda los 110 €.

Por esta razón muchas tarjetas de gama baja que rondan los 30 ó 40 € ej:

  • Ati Radeon 4350 (650 Mhz Core, 80 Procesadores Stream, 512 MB GDDR2 de 1.000 Mhz, Bus de 64 Bits, consumo de 20w sin conector de alimentación PCIe)
  • GF 9400GT (550 Mhz Core, 16 Procesadores Stream,512 MB GDDR2 de 667 Mhz, Bus de 128 Bits, consumo de 69w sin conector de alimentación PCIe)

No son precisamente la mejor elección para un “Gamer” por su bajo rendimiento en tareas 3D en comparación con otros modelos de mayores prestaciones, aunque evidentemente deberían tener un rendimiento algo mejor al de una tarjeta integrada en placa base.

Por otra parte en el mercado profesional existen otras tarjetas especializadas como por ejemplo:

Cuyo coste económico  es bastante superior a las gamas domésticas, ya que están enfocadas al uso de programas 3D profesionales.