SSD de 25nm: ¿Son tan buenos como parecen?


Corsair Force F60 (SSD de 34 nm)

Actualmente muchos de los SSD (Solid State Device, Dispositivo de Estado Sólido) que hay en el mercado son de 34nm, sin embargo algunos fabricantes están “migrando” a los 25nm, esto tiene varias ventajas para ellos:

  • Reducir costes de fabricación (Lo cual debería repercutir en el usuario final al poder comprar un producto más barato aunque no siempre es así), ya que de una misma oblea sale una mayor cantidad de unidades.
  • En el caso de los SSD podría aumentarse la capacidad de almacenamiento de las unidades.
  • Reducir la temperatura (Aunque en memoria Nand Flash es poco improbable ya que apenas se calientan).
  • Mayor fiabilidad.
  • Mayor rendimiento.
  • Menor consumo (En el caso de la memoria Nand Flash es poco improbable que se reduzca el consumo de forma significativa ya que es bastante bajo).

Sin embargo esta migración a los 25nm va a tener varias desventajas para el usuario:

  • Menor rendimiento (Según las pruebas realizadas por Corsair en sus nuevos SSD de 25 nm, estos tienen entre un 3 y un 4 % menos de rendimiento que los modelos equivalentes de 34 nm de la generación anterior), aunque únicamente sería visible en Benchmarks o Test de rendimiento, ya que en el uso diario no sería apreciable.
  • Menor capacidad de almacenamiento útil ya que para mantener la fiabilidad del dispositivo el Spare Area (Área de Reserva) debe ser mayor que la de los modelos de 34 nm, esto se debe a que los ciclos de escritura para Nand Flash de 25nm es de 3.000 ciclos (Es decir una memoria Nand Flash de 25nm puede ser escrita 3.000 veces sin que de “problemas”), sin embargo una memoria Nand Flash de 34nm soporta hasta 5.000 ciclos.

Por ahora los únicos fabricantes que han migrado a 25nm son OCZ la cual ha tenido graves problemas con sus usuarios ya que al descubrirse el “pastel” ha habido quejas masivas de sus usuarios y Corsair que por lo que parece ha aprendido la lección y comercializará sus modelos con otras referencias diferentes a las de los modelos actuales, pasando los Corsair F80 de 80 GB y F120 de 120 GB de 34 nm, a denominarse Corsair Force 80A (80 GB) y Force 115 (115 GB) de 25 nm.

Es de suponer que el resto de fabricantes de SSD (G.Skill, Mushkin, Crucial, Intel,…) que migren a 25 nm hagan algo similar a lo que ha hecho Corsair si no quieren producir una “desbandada” de usuarios que se vayan a otras marcas como les ha ocurrido a OCZ con sus Vertex2/Agility2, que han tenido que comenzar un programa de reemplazo de unidades a raíz de las quejas de los usuarios.

Se puede encontrar más información en:

Anuncios

Herramientas básicas para reparar un ordenador


La reparación de equipos informáticos no suele requerir herramientas complicadas y/o caras (Aunque si requieren ciertos conocimientos técnicos), en Configurar equipos citan algunas entre ellas:

  • Pulsera antiestática (Es aconsejable aunque no obligatoria).
  • Destornilladores de estrella (También llamados Philips) de varias medidas (También puede ser aconsejable tener alguno que otro Parker (También llamados Planos) aunque no suelen usarse mucho ya que casi todos los tornillos que se utilizan en informática suelen ser de estrella).
  • Varios tipos de alicates.
  • Pinzas de electrónica.
  • Tester o Polímetro (En esta entrada del Blog hay más información sobre la comprobación de voltajes).
  • Brocha o pincel.
  • Bote de aire comprimido.
  • Aspiradora portátil (Existen modelos con alimentación USB de 5v que si bien no tienen mucha potencia de aspiración si pueden ser “útiles” para la limpieza de componentes informáticos).
  • Pasta térmica (Preferentemente de cierta calidad, ya que ayuda a reducir la temperatura de funcionamiento), muy útil si es necesario cambiar algún disipador.

Además de estas herramientas en Alt-TAB indican algunas herramientas más de utilidad como:

  • Memoria flash USB o Pendrive (Preferentemente de altas prestaciones), que pueden servir para:
    • Llevar un Sistema Operativo Booteable (Arrancable).
    • Tener programas de diagnóstico portables (Sin instalación).
    • Guardar archivos si la cantidad de espacio ocupada por los mismos es baja (Si el volumen de datos a copiar es muy grande es mejor opción usar un disco duro externo).
  • Adaptador de IDE/SATA a USB.
  • Placa de Red (RJ-45) a USB (Denominadas USB LAN).
  • Cables de prueba de diversos tipos (USB, Red, Teléfono,…).
  • Navaja suiza multiuso (Realmente es mejor tener destonilladores, pinzas y alicates independientes ya que las navajas multiusos no suelen ser de mucha calidad).
  • Gas Paralizante (Gas pimienta) según comenta el autor de la entrada es para evitar un posible robo por causa de los amigos de lo ajeno.

A esto bajo mi punto de vista personal habría que sumar:

  • Un disco duro externo IDE/SATA para almacenar copias de seguridad de datos (Back-Ups) temporalmente si el volumen de datos a copiar es muy grande y no entra en una memoria flash.
  • Tester de fuentes de alimentación.
  • Un adaptador PS/2 (Teclado y Ratón) a USB (Para equipos que tengan teclado y ratón PS/2 pero tengan los puertos averiados y/o el Sistema Operativo no reconozca el Teclado/Ratón conectado por USB).
  • Alcohol de farmacia de 96º, acetona o similar y algodón (Impregnado en alcohol o similar) se utiliza para quitar la pasta térmica en caso de desmontar un disipador.
  • El Software:
    • Distribución Linux (Ej: Ubuntu u Open Suse) en formato Live CD/Live DVD por si el sistema no arranca y es necesario salvar los datos.
    • Software de diagnóstico de componentes (RAM, Disco duro, Procesador, Tarjeta gráfica,…), en esta entrada del Blog hay más información.
    • Software de Benchmark de componentes (Ej: Gráfica, Procesador,…) que en muchos casos cuando “estresan” el componente en cuestión y pueden arrojar fallos dando “pistas” de un posible error de hardware y no de software, en esta entrada del Blog hay más información.

Los componentes informáticos (Memoria flash, Disco duro, Tester de fuentes,…) se pueden encontrar en tiendas de informática especializada, mientras que las herramientas (Destornilladores, Alicantes,…) se pueden encontrar en cualquier ferretería y/o gran superficie.

¿Cuál es el cuello de botella actual de un equipo informático?


El Bottleneck o Cuello de botella (Definición de Alegsa.com.ar) supone una limitación del rendimiento del equipo informático (PC) para realizar una función determinada (Por lo tanto el cuello de botella de un ordenador siempre a va ser su pieza más lenta). El cuello de botella puede ser debido a:

  • Un componente “lento” de por si (Ej: Un disco duro) que ralentiza al resto del sistema a pesar de ser actual (Los componentes electrónicos (CPU, Gráfica, Chipset,…) actualmente no suponen un cuello de botella).
  • Un desaprovechamiento de un componente “nuevo” porque el componente “base” en el que se instala es “lento” (Esto puede ocurrir por ejemplo al actualizar un equipo antiguo con piezas nuevas que sean compatibles), como por ejemplo utilizar:
    • Una tarjeta gráfica AGP 8x en un puerto 4x.
    • Una tarjeta PCIe 16x en una ranura limitada a PCIe 4x porque no existe ninguna ranura PCIe de  16x.
    • Un disco duro ATA133 en un equipo con conectores SATA300 (Normalmente disponen al menos de un conector ATA133 para conectar dispositivos antiguos y/o unidades ópticas).
    • Una memoria RAM DDR400 en una placa que admita DDR2 667 (Teniendo en cuenta que las placas base que soportan dos tipos diferentes de memoria no la admiten de forma simultánea o mezclada, es decir que sólo se puede usar un tipo de memoria u otro).
    • Una memoria RAM DDR2 1066 en una placa base que admita hasta DDR2 667 o bien el controlador de memoria del procesador (Caso de los Athlon64) este limitado a DDR2 667.

Lógicamente la sensación de lentitud (Dentro de un orden claro está) es diferente para cada usuario y por lo tanto el cuello de botella puede estar en piezas diferentes en función de la tarea a desarrollar por ejemplo para:

  • Editar video si no queremos que el proceso se “eternice” suele ser necesario tener:
    • Un buen procesador (Basicamente es el que se encarga de procesar el video).
    • Una buena cantidad de RAM.
  • Jugar de forma fluida a los últimos juegos 3D con gran resolución (Ej: Full HD ó 1080p: 1.920 x 1.080 píxeles) y buen nivel de detalle (Aplicación de filtros) será necesario tener:
    • Una buena tarjeta gráfica que sea capaz de procesar los recursos gráficos que genera el juego en cuestión.
    • Un procesador “bueno”.
    • Bastante RAM.

Hay que tener en cuenta que el cuello de botella sólo se vería reflejado en usos muy concretos (Como por ejemplo los comentados anteriormente), ya que un equipo actual para ofimática con un par de años aunque se actualizase algún componente no tendría un cuello de botella significativo ya que las aplicaciones que utiliza no requieren un gran consumo de recursos, si acaso se podría cambiar el disco duro por otro más rápido pero dado que actualmente:

  • Los equipos domésticos en general usan discos de 7.200 Rpms (Los equipos profesionales pueden usar discos de 10.000 ó 15.000 Rpms, aunque actualmente tienden a utilizar SSD, comentados en estas entradas del Blog: Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) y SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros).
  • Los discos de 10.000 Rpms SATA están “limitados” a los Velociraptors de Western Digital, pero tienen una relacion €/GB pémisa (Los modelos de 74 y 150 GB rondan los 150 €, el de 300 GB ronda los 203 €, el de 450 GB los 280 y el de 600 GB ronda los 285 €), ya que los precios en muchos casos se acercan a de un SSD  de entre 60 y 120 GB.
  • Los SSD tienen una relación €/GB también pésima (Aunque su rendimiento es muy superior a cualquier disco duro actual de 10.000 ó 15.000 Rpms), un SSD de 60 GB ronda los 160 € y uno de 120 GB ronda los 320 €, aunque también hay SSD de 40 GB y alto rendimiento (Ej: Mushkin Callisto, comentado en esta entrada del Blog) que rondan los 108 € sin gastos de envío.

Para un uso puramente ofimático posiblemente siga interesando tirar de discos duros mecánicos por su relacion precio/prestaciones frente a los SSD.

Sin embargo existe un cuello de botella “endémico” en cualquier equipo informático actual de altas prestaciones: El disco duro, desde el inicio de la informática los sistemas de almacenamiento electro-mecánicos (Discos duros) han sido siempre el cuello de botella, un disco duro:

  • UDMA33 (ATA33) podía transmitir hasta 33 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (Utilizaban cables de 40 hilos y 40 contactos).
  • UDMA66 (ATA6) podía transmitir hasta 66 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (A partir de ATA66 hasta ATA133 se utilizaron cables de 80 hilos y 40 contactos).
  • UDMA100 (ATA100) podía transmitir hasta 100 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior.
  • UDMA133 (ATA33) podía transmitir hasta 133 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 150 (SATA150) podía transmitir hasta 150 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior (Lo normal es que el bus SATA utilice una conexión PCI express o PCIe).
  • Serial ATA 300 (SATA300 ó SATA2) transmite hasta 300 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 600 (SATA600 ó SATA3) podía transmitir hasta 600 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.

Hay que tener en cuenta que en el caso de los discos UDMA/ATA el ancho de banda disponible se repartía entre los dos dispositivos (Master y Slave)  conectados al mismo canal (Primario o Secundario) y que el acceso a los mismos (Ej: Pasar datos de un disco duro Master en canal primario al disco Slave del mismo canal) no era simultáneo sino alterno. Con el nuevo conector Serial ATA (SATA) ha habido una mejora en este sentido ya que cada dispositivo tiene su ancho de banda propio (En el caso de SATA150, cada conector tiene hasta 150 MB/Seg de ancho de banda, en el caso de SATA300/SATA2 cada conector tiene hasta 300 MB/Seg y en el caso de SATA600/SATA3 cada conector tiene 600 MB/Seg) puesto que la conexion es “directa” desde el dispositivo (Ej: Disco Duro) al conector SATA de la placa base.

Actualmente para equipos de gama alta parece más interesante tener un SSD o dos en RAID 0 (Stripping) junto con un disco duro de alta capacidad para:

  • Instalar el Sistema Operativo y el Software (Programas y Juegos) en el SSD, acelerando así la carga del Sistema Operativo y la apertura de los programas/juegos).
  • Dejando el disco duro de gran capacidad para almacenar los datos de usuario (Documentos, Música, Videos/Películas, Descargas,…) los cuales no necesitan tener una apertura “instantánea”.

El mayor problema es que si necesitamos un SSD de cierta capacidad 120 GB o más el precio del mismo se “dispara”.

Ya que actualmente los ordenadores tienen un gran ancho de banda en los componentes puramente electrónicos como por ejemplo:

  • FSB de los procesadores, por ejemplo el bus Hyper-Transport (HTT) v3.0 de los ultimos AMD tiene una frecuencia de funcionamiento de 3,2 Ghz con 32 Bits, que se traduce en un ancho de banda bidireccional de 51,2 GB/Seg, y los primeros Intel Nehalem (Core i7 y derivados) tienen un bus similar al HTT de AMD denominado QPI (QuickPath Interconnect), el cual funciona a 3,2 Ghz con 20 Bits, que se traduce en un ancho de banda bidireccional de 25,6 GB/Seg.
  • Memoria RAM DDR2 PC1066 que tiene 8.500 MB/Seg (8,5 GB/Seg).
  • Memoria RAM DDR3 PC1600 que tiene 12.800 MB/Seg (12,8 GB/Seg).
  • Bus Serial ATA300 (Hasta 300 MB/Seg).
  • Bus Serial ATA600 (Hasta 600 MB/Seg).
  • USB 3.0 (Hasta 4,8 Gbps, unos 4.800 Mbps que equivalen a unos 600 MB/Seg).
  • Bus PCI Express (PCIe) que en su version 1.1 tiene un ancho de banda de 250 MB/Seg y por canal, es decir que un bus PCIe de 1x tendría 250 MB/Seg (El bus PCI anterior tenía como máximo 133 MB/Seg para todos los dispositivos que hubiese conectados a él), mientras que un PCIe 16x tendría 4 GB/Seg (4.000 MB/Seg) ya que serían 16 canales de 250 MB/Seg cada uno (250 MB/Seg x 16  canales = 4.000 MB/Seg). Actualmente el bus PCIe va por la versión 2.0 el cual dobla la tasa de transferencia, hastalos 500 MB/Seg y el próximo bus PCIe 3.0 la vuelve a doblar hasta los 1.000 MKB/Seg.

Sin embargo los discos duros mecánicos actuales (Lo habitual es que sean de 5.400 ó 7.200 Rpms) por muy rápidos que sean (Aun siendo de 10.000 ó 15.000 Rpms)  no pueden aprovechar al 100% el ancho de banda que proporcionan los buses de datos actuales como por ejemplo:

  • SATA o S-ATA (Serial ATA).
  • SCSI (Small Computers System Interface (Sistema de Interfaz para Pequeñas Computadoras).
  • SAS (Serial Attached SCSI que es utiliza unos conectores similares a SATA pero incompatibles con él).

Por lo que el rendimiento del sistema de almacenamiento supone un cuello de botella bastante grande, por varias razones:

  1. Alta latencia: Los discos duros de 7.200 Rpms (Los más comunes en entornos domésticos) tiene un tiempo de busqueda según fabricante en el mejor de los casos de unos 9 ms aproximadamente (Mientras que un disco de 10.000 Rpms segun datos de los fabricantes tienen el mejor de los casos 4,2 ms y los discos de 15.000 Rpms tienen entre 3,4 y 3,5 ms), esto se traduce en una pérdida de rendimiento debido a que para buscar un dato es necesario invertir bastante “tiempo” si se compara con un SSD los cuales tienen latencias (Tiempo de Acceso) inferiores a 1 ms.
  2. Tasa de transferencia: Que en el caso de los discos duro no se mantiene sostenida sino que fluctua entre un maximo y un minimo, de hecho las gráficas de los Benchmark de disco duro como: HD Tach y HD Tune, muestran que un disco duro SATA300 de 500 GB y 7.200 Rpms actual puede tener una tasa media de transferencia de datos de unos 100 MB/Seg pero esta tasa no es sostenida a lo largo de toda la superficie del plato sino que suele empezar por una tasa ligeramente superior a la media para ir bajando progresivamente hasta por debajo de la media pudiendo llegar a ser la tasa mínima aproxidamente entre el 50 (En torno a los 50 MB/Seg) ó el 60% (En torno a los 60 MB/Seg) de la velocidad media.
  3. IOPS (Input Output Per Second, Operaciones de Entrada – Salida Por Segundo): Los discos duros tienen muy bajo rendimiento en este sentido.

Estos problemas y otros derivados de la propia arquitectura de los discos duros inicialmente se “resolvieron” con los niveles RAID (Hay más información en esta entrada del Blog) que permitian mejorar:

  • El rendimiento del sistema de almacenamiento (Ej: RAID 0, Stripping)
  • La seguridad física de los datos, como es el caso de RAID 1 (Mirroring o Espejo).
  • El rendimiento y la seguridad física de los datos, como es el caso de RAID 5 y RAID 10.

Sin embargo aun utilizando sistemas RAID los discos duros tienen una latencia alta, por lo que los SSD (Solid State Device, Dispositivos de Estado Sólido) basados en memorias Nand Flash como las que se utilizan en las memorias flash USB o las tarjetas de memoria, son los que realmente proporcionaran al usuario un gran rendimiento ya que apenas tienen latencia (Es inferior a 1 ms) y sus tasas de transferencia de datos son muy altas (Si queremos mayor rendimiento aún se puede optar por un RAID 0 con dos o más SSD); sin embargo hasta que no sus precios sean “asequibles” (Actualmente un SSD “bueno” de entre 60 y 80 GB ronda los 160 – 225 €) no se podrá eliminar el lastre de rendimiento que suponen los discos duros para los sistemas operativos actuales y sus programas/juegos.

De hecho en el futuro no sería raro ver equipos de altas prestaciones con Un SSD para el Sistema (Incluyendo los Programas y Juegos) para que le de “rapidez” al equipo, mientras que los datos de usuario se guardan en:

  • Discos duro electro-mecánicos de gran capacidad (Actualmente existen discos de hasta 2 TB y ya que comenta que en breve saldrán los discos de 3 TB).
  • Discos duros híbridos (HHD: Hybrid Hard Drive, Discos Duro Híbrido que son discos electro-mecánicos pero con algo de memoria Flash para acelerar el rendimiento, en esta entrada del Blog hay más información)  de gran capacidad (Actualmente Seagate tiene un modelo con estas caracteristicas denominado Seagate Momentus XT, es un disco duro de 2,5″ (Tamaño de disco duro de portátil) que esta disponible en tres capacidades: 250 GB, 320 GB y 500 GB que cuenta con 4 GB de memoria Nand Flash SLC, pero teniendo en cuenta que el modelo de 320 GB ronda los 123 € y el modelo de 500 GB los 148 € parece mejor opción este último ya que por unos 30 € más se consiguen 180 GB “extras”).

Guia para comprar pasta térmica (TIM: Thermal Interface Material)


PastaTermica

La pasta térmica o compuestos térmicos (TIM: Thermal Interface Matetial, Material de Interfaz Térmica) tienen varias funciones, entre ellas:

  1. Ayudan a reducir las imperfecciones existentes entre la base del disipador (por eso es más que aconsejable que no se rayen o golpeen puesto que pierden propiedades térmicas) y la base del elemento a disipar (Generalmente el procesador (CPU), procecesador gráfico (GPU) o Chipset de placa base, entre otros) mejorando así la superficie de contacto entre ambas piezas.
  2. Reducir la temperatura de funcionamiento del componente en cuestión (Procesador (CPU), Procesador Gráfico (GPU), Chipset de placa base,…), aunque algunas pastas térmicas tienen mayor eficiencia que otras y la reducción de temperatura puede ser más o menos significativa.

Por regla general las pastas blancas (También denominada Silicona Térmica) sólo mejoran el contacto entre el disipador y el elemento a disipar sin reducir apenas la temperatura de funcionamiento, sin embargo una pasta de mayor calidad (Que suelen llevar compuestos metálicos)  puede ayudar a reducir algún que otro grado en la pieza en cuestión, en  Benchmark Reviews hay una lista de conductividad térmica, destacando algunos como:

  • Plata (Ag): 4,29 W/cmK.
  • Cobre (Cu): 4,01 W/cmK.
  • Oro (Au): 3,17 W/cmK.
  • Aluminio (Al): 2,37 W/cmK.
  • Carbon ( C ): 1,29 W/cmK.
  • Zinc (Zn): 1,16 W/cmK.

Entre los peores materiales esta el Oxigeno ( O ) con 0,0002674 W/cmK; como se puede apreciar, si no se utiliza pasta térmica de ningún tipo, es decir dejasemos el disipador en contacto directo con el elemento a disipar (ej: Procesador), la mejora de transferencia térmica usando “Oxigeno” (O mejor dicho aire común y corriente) sería practicamente nula, por esta razón deben de utilizarse pastas térmicas que mejoran en mayor o menor grado la transferencia térmica.

Por esta razón los disipadores suelen ser de aluminio (2,37 W/cmK) o cobre (4,01 W/cmK) debido a su gran rendimiento térmico y bajo coste relativo, por ejemplo la Plata (4,29 W/cmK) y el Oro (3,17 W/cmK) conducen mejor el calor pero son mucho más caros.

En la misma web anterior (Benchmark Reviews) han hecho también una Review (Análisis) de 80 pastas térmicas diferentes clasificandolas en diferentes “grados” en función de su rendimiento, de mejor a peor:

  • A (Excellent Performance): Su rendimiento oscila entre los 38,2 y 37,5º C aproximadamente (a menor temperatura, mayor rendimiento).
  • B (Good Performance): Su rendimiento oscila entre los 38,5 y 38,3º C aproximadamente (a menor temperatura, mayor rendimiento).
  • C (Fair Performance): Su rendimiento oscila entre los 39 y 38,5º C aproximadamente (a menor temperatura, mayor rendimiento).
  • D ( Poor Performance): Su rendimiento oscila entre los 42 y 39º C aproximadamente (a menor temperatura, mayor rendimiento).

Es decir que entre una pasta de con un rendimiento de unos 42º y una de unos 38,2º C hay una diferencia de unos 3,8º C que aunque no parezca una diferencia térmica significativa si que puede marcar una diferencia entre tener una pieza (ej: Procesador o CPU) bien refrigerada o por el contrario tenerla funcionando a una temperatura superior a lo “normal” si el disipador no es lo suficientemente bueno, sobre todo en verano cuando la temperatura ambiente es mayor que el resto del año. Por otra parte según el tipo de pasta térmica su viscosidad (Densidad) puede variar, aunque tienden a ser más o menos “sólidas”.

Según el análisis de Benchmark Reviews entre las pastas con un rendimiento de unos 38,5º o menos (Situadas en el Grado B con Good Performance, o Grado A con Excellent Performance) están:

  • Gelid GC-1 (Óxido de Aluminio).
  • Tuniq TX-2 (Óxido de Aluminio).
  • Noctua NT-H1 (Óxido de Aluminio).
  • CooLaboratory Liquid Metal Pad (Metal líquido): Este compuesto térmico sólo puede usarse con disipadores de cobre, ya que corroe los disipadores de aluminio, como se puede ver en esta imagenes de Nokytech).
  • Arctic Silver Ceramique (Óxido de Zinc).
  • CooLaboratory Liquid Metal Pro (Metal líquido): Este compuesto térmico sólo puede usarse con disipadores de cobre, ya que corroe los disipadores de aluminio, como se puede ver en esta imagenes de Nokytech).
  • Gelid GC-2 TC-GC-02-A (Óxido de Aluminio).
  • Arctic Cooling MX-2 Thermal Compound (Óxido de Aluminio).
  • Innovative Cooling Seven Carat Diamond (Óxido de alumio y Carbón/Diamantes sintéticos).
  • OCZ Freeze OCZTFRZTC (Óxido de Aluminio).
  • Zalman ZM-STG2 Super Thermal Grease (Óxido de Aluminio).
  • Cooler Master ThermalFusion 400 RG-TF4-TGU1-GP (Óxido de Aluminio).
  • Tuniq TX-3 (Óxido de Aluminio).
  • Gelid GC-Extreme (Óxido de Aluminio).
  • Arctic Silver 5 Polysynthetic Thermal Compound (Plata polisintética).

Estos productos suelen ser fáciles de encontrar en tiendas de informática especializada, aunque muchas suelen ser tiendas online. Cualquiera de estos compuestos térmicos (entre otros menos conocidos) darán buenos resultados, en mi caso desde hace tiempo he usado Artic Silver 5 (AS 5) con buenos resultados, aunque el fabricante comenta que esta pasta térmica tiene dos factores a tener en cuenta por parte del usuario:

  • En ciertas circunstancias puede ser conductora de electricidad:

Not Electrically Conductive:

Arctic Silver 5 was formulated to conduct heat, not electricity.
(While much safer than electrically conductive silver and copper greases, Arctic Silver 5 should be kept away from electrical traces, pins, and leads. While it is not electrically conductive, the compound is very slightly capacitive and could potentially cause problems if it bridges two close-proximity electrical paths.)

  • Necesita un tiempo de cura de hasta 200 horas para que se le saque el máximo rendimiento:

Then the compound thickens slightly over the next 50 to 200 hours of use to its final consistency designed for long-term stability.

De todas formas parece ser que actualmente hay compuestos térmicos con prestaciones similares a AS 5 pero que corrigen los dos “defectos” anteriores.

Asi mismo en:

Por otro lado hay que diferenciar entre:

  • Pasta térmica (Compuestos Térmicos): No tienen ningún tipo de adhesivo, aunque al “secarse” pueden actuar temporalmente como tales (ej: Al quitar el disipador en “frío”), ya que para evitar que la pieza (ej: Procesador o CPU) salga junto con el disipador es conveniente pasarle algún tipo de Benchmark que “estrese” la pieza en cuestión, por ejemplo si queremos quitar:
    • El procesador (CPU) se puede pasar el Prime95 u Orthos.
    • El procesador gráfico (GPU) se puede pasar el 3D Mark o alguno similar.
    • El chipset (Northbridge y Southbridge) en principio no requiere ningún Benchmark “específico” ya que los anteriores lo “estresan” en mayor o menor grado.
  • Adhesivo térmico: Son pegamentos térmicos que se componen de dos compuestos difentes, que al mezclarse actuan como pegamento térmico, este tipo de adhesivos térmicos son de tipo permanente ya que su unión entre las piezas es bastante fuerte, siendo casi imposible de despegar en caso necesario, aunque en este hilo del foro de Hard-H2o comentan algunos métodos. Un ejemplo de este tipo de adhesivos térmicos son: Artic Adhesive y Zalman Adhesive.

Utilidades de diagnóstico de hardware


La posibilidad de que una pieza del ordenador (disco duro, RAM, tarjeta gráfica,…) tenga algún tipo de fallo (bien de fábrica, por el uso, o por otra razón) siempre existe, por lo que si el equipo experimenta algún tipo de fallo (ej: bloqueos, reinicios (reset),…) habría que comprobar por ejemplo:

  1. Probar a reinstalar primero el sistema operativo, ya que en muchos casos son problemas de software (instalación de malware (virus, troyanos, gusanos,…), borrado/modificación de ficheros del sistema,…) y no del hardware.
  2. Si el fallo se debe a un exceso de temperatura, es posible que alguno de los ventiladores importantes (ej: el del procesador, la tarjeta gráfica, el chipset de placa base o la fuente de alimentación) estén sucios o averiados, en este caso habría que limpiarlos o sustituirlos por unos nuevos según el caso.
  3. Si el fallo es debido a una pieza del equipo habría que testear una por una (En este hilo: Listado de Utilidades de Testeo del PC del foro de Noticias3D hay más información), hasta encontrar el fallo:
    • Para el disco duro cada fabricante dispone de su software propio de diagnostico, por ejemplo Seagate/Maxtor tiene Seatool, Western Digital tiene Data Life Ward Diagnostic , Samsung tiene HDIAG para unos modelos de discos y el SHDIAG para otros, Hitachi tiene el Drive Fitness Test. En este hilo: Programas de fabricantes, utlidades de recuperacion y de testeo para Discos Duros del Foro de Noticias3D se recoge más información sobre estas utilidades y otros programas para recuperar datos.
    • Para la memoria RAM tenemos el Memtest86 y Memtest+86 (este último esta más actualizado), entre otros. Pasan un test en forma de bucle (no se detiene, por lo que para salir del test hay que pulsar Escape (ESC), y el equipo se reinicia, teniendo en cuenta que hay que sacar el soporte (disco de 3,5″, CD o memoria flash) donde hemos ejecutado el test).
    • Para la tarjeta gráfica se puede usar algún benchmark como por ejemplo el 3DMark,  si durante el test muestra artifact (aparecen fallos al mostrar los gráficos) puede que la gráfica tenga problemas de temperatura o que tenga algún fallo físico, aunque esto también podría ser un problema de software: drivers (controladores).
    • Para probar la estabilidad del procesador/microprocesador (CPU)  se pueden usar programas como el Prime95/Orthos, Intel Burn Test y OCCT.

En Major Geeks hay un listado de programas (Benchmark) que pueden servir para comprobar el rendimiento o estabilidad del sistema, hay que tener en cuenta que el software de benchmark estresa  el hardware al máximo a fin de comprobar su rendimiento y estabilidad para poder detectar posibles fallos en el hardware.

En última instancia para comprobar si falla la pieza será aconsejable sustituir la pieza que falla por una que funcione correctamente para asegurarmos de que es la única pieza del equipo que falla puesto que a veces pueden darse fallos simultáneos de varias piezas (ej: cuando hay una subida de tensión).

Diferencia de rendimiento entre FAT32 y NTFS


Como comente en la entrada (Como formatear una memoria flash en NTFS) el sistema de Archivos FAT32 es algo más rápido que en NTFS. En este caso para mostrar las diferencias he pasado un Benchmark (Crystal Disk Mark v2.2) la las siguientes memorias USB:

Memoria Genérica de 2 GB (Arriba FAT32, Abajo NTFS):

noticias3d_fat32_ntfs

OCZ Rally 2 de 2 GB (Arriba FAT32, Abajo NTFS):

ocz_rally_2_fat32_ntfs

Verbatim Panther Ed. de 4 GB (Arriba FAT32, Abajo NTFS):

verbatim_panther_ed_fat32_ntfs

Como se puede ver las diferencias de rendimiento entre FAT32 y NTFS apenas varían independientemente de la memorias flash utilizada, de todas formas hay que tener en cuenta que el sistema de archivos NTFS solamente es útil en una memoria flash cuando:

  • Necesitamos almacenar archivos o ficheros de 4 GB ó más (esta sería bajo mi punto de vista la razón principal).
  • Queremos aprovechar al máximo la capacidad de la memoria flash (NTFS usa un tamaño de cluster más pequeño que FAT32).

Así mismo hay que tener en cuenta las desventajas de NTFS entre ellas:

  • La imposibilidad de tener acceso a estas unidades en ciertos dispositivos como por ejemplo DVD de Salon, Radi-CD de coche que solamente admiten FAT32. Esta seria la desventaja principal de NTFS.
  • Hay un aumento considerable de espacio por parte del sistema de archivos, una unidad flash de 2 GB en FAT32 pierde 4 KB para el sistema de archivos FAT32, mientras que con NTFS ocupa 12,7 MB (casi 13 MB) para el sistema de archivos NTFS, por l o que a mayor capacidad de la unidad flash mayor perdida de espacio util para almacenar fichero, aunque esto se puede suplir en parte con los cluster (tamaño mínimo de un sector del disco duro) que son mas pequeños en NTFS (desde 512 Bytes hasta 4.096 Bytes, 4 KB) mientras que en FAT32 (oscila entre los 4 KB y los 32 KB, bastante lejos de los 4 KB máximos de NTFS), lo cual permite maximizar la capacidad de almacenamiento a pesar de tener el mismo espacio segun el tipo de archivos.

Benchmark (Test de rendimiento)


Este tipo de programas nos permiten conocer el rendimiento de una pieza (Microprocesador, Memoria RAM, Tarjeta gráfica, Disco duro, Memoria flash,…) a través de un test de rendimiento, entre los programas de Benchmark (algunos son Freeware o gratuitos, mientras que otros son Shareware (de pago), están limitados de alguna forma) más conocidos destacan:

  • Sisoft Sandra: Mide el rendimiento general del equipo, tiene varias pruebas.
  • Crystal Mark: Mide el rendimiento del equipo.
  • PC Mark; Mide el rendimiento del equipo.
  • 3D Mark: mide el rendimiento de la tarjeta gráfica.
  • Aquamark: Mide el rendimiento de la gráfica.
  • HD Tune: Mide el rendimiento de lectura de un disco o unidad flash.
  • HD Tach: Mide el rendimiento de lectura de un disco o unidad flash.
  • Crystal Disk Mark: Mide el rendimiento de lectura y escritura de un disco o unidad flash.
  • Flash Memory ToolKit: Mide el rendimiento de lectura y escritura de una unidad flash ademas de tener otras funciones.

En Major Geeks hay un listado de software Benchmark bastante completo con diferentes versiones, aunque lo mejor suele ser pasar las ultimas versiones ya que son las que estan mas actualizadas sobre todo cuando son piezas concretas como por ejemplo tarjetas gráfícas, ya que cada cierto tiempo actualizan las librerias Direct X (Actualmente van por la version 10 incluida en Windows Vista) y que las gráficas deben soportar por hardware para poder aprovecharlo.