Racetrack: Futuras unidades de almacenamiento mágnetico de alto rendimiento de IBM


Según parece el “Gigante Azul” (IBM (International Business Machines) para más señas) esta estudiando un sistema de almacenamiento magnético denominado Racetrack que se caracteriza por:

  • Aumentar la capacidad de almacenamiento.
  • Reducido tamaño.
  • Mejor rendimiento. Se espera que sea superior a los SSD, Solid State Devices (Dispositivos de Estado Sólido):
    • No tienen partes móviles (Al igual que los SSD actuales).
    • Tendrán hasta 100.000 veces la velocidad de escritura de un SSD actual.
    • Admiten un número de escrituras infinitas (Los SSD actuales tienen un número de escrituras limitadas).

Esta tecnología de almacenamiento se basa en el uso de nanotecnología “aprovechando” huecos que no se han utilizado hasta ahora; aunque según ha comentado la propia IBM por lo menos hasta dentro de 10 años (Quizás para el año 2020) no veremos los resultados, aunque si saldrán prototipos dentro de unos 3 años (2013).

Se puede encontrar más información en:

¿Almacenamiento en soporte físico u online?


Hasta hace poco lo habitual era guardar los datos en soportes de almacenamiento físico como por ejemplo:

  • Disquetes de 3,5″ con 1,44 MB (Actualmente apenas se utilizan).
  • Unidades Zip/Jazz de varios GB (Actualmente apenas se utilizan), eran “disquetes” removibles de alta capacidad aunque no eran compatibles con los discos de 3,5″.
  • CDs (650/700 MB)/DVDs (DVD5 de 4,38 GB y DVD9 de 7,92 GB “efectivos”).
  • Discos duros (HDD: Hard Disk Drive) bien internos (Conectados mediante IDE/UDMA, SATA, SCSI o SAS que con los conectores más comunes) o externos (Utilizando como bus USB 2.0, Firewire400/800, eSATA, USB 3.0,…), actualmente tienen capacidades de varios cientos de GB (De hecho actualmente el “tope” son 2 TB (2.000 GB), aunque se espera que aparezcan discos de mayor capacidad en breve).
  • Memorias Flash USB (Ls denominados “Pendrives”).
  • Tarjetas de memoria (Compact Flash (CF), Secure Digital (SD), Multimedia Card (MMC), Memory Stick,…).
  • SSD (Solid State Device, Dispositivos de Estado Sólido basados en memoria flash. Son las unidades de almacenamiento que sustituiran a los discos duros actuales en un futuro próximo, aunque actualmente tienen un precio “prohibitivo” para dedicarlos a almacenamiento de datos (Una unidad de 60 GB de ultima generación ronda los 120 €), aunque para discos de Sistema (Almacenamiento de Sistema Operativo, Programas y Juegos) son muy buena elección ya que actualmente son los dispositivos de almacenamiento más rápidos, incluso superan en rendimiento a los discos SCSI/SAS de 10.000 y 15.000 Rpms, cuando en un entorno doméstico se utilizan discos de 7.200 Rpms o como mucho discos SATA Western Digital Raptor/Velociraptor de 10.000 Rpms, aunque estos ultimos han perdido la batalla con los SSD en rendimiento no asi en capacidad, un Velociraptor de 300 GB ronda los 140 € mas portes en Alternate, curiosamente el modelo de 150 GB tiene el mismo precio pero la mitad de capacidad).

Disco duro (HDD: Hard Disk Drive)

 

Las ventajas de un almacenamiento en soporte físico son:

  • Tenemos un acceso a los datos instántaneo (Lógico ya que solo tenemos que conectar la unidad al ordenador).
  • El mantenimiento y ordenamiento de la información la realizamos nosostros mismos (El usuario/administrador es quien decide los datos que deben ser replicados y cuales son “innecesarios” en caso de fallo).
  • Al tenerlos en un soporte físico se pueden extraer contenido fácilmente a otros soportes (Por ejemplo si tenemos videos personales en formato DVD, podremos grabarlos en un DVD sin muchos problemas).
  • El mantenimiento de copias de seguridad esta más controlado, existen programas que permiten realizar copias cada cierto tiempo de carpetas/particiones determinadas.
  • En principio requiere menos seguridad (No es necesario poner el nombre de usuario (Login) ni contraseña (Password), aunque en algunos sistemas de almacenamiento externo existe esa posibilidad para aumentar la seguridad de los datos, incluso existen sistemas de almacenamiento externo que usan sistemas de seguridad biométricos mediante huella digital para dar acceso a los datos o denegarlo).

Pero también tienen sus desventajas:

  • Un fallo mecánico (En el caso de un disco duro) o electrónico (En el caso de un disco duro, memoria flash,…) puede estropear la unidad de almacenamiento con nuestros datos dentro, haciendo practicamente imposible la recuperación de los mismo (En casos muy graves la única solución es recurrir a una empresa especializada en recuperación de datos pero este proceso no es precisamente barato).
  • Un malware (Virus, Gusanos,…) puede dañar los datos y/o las unidades lógicas (Particiones) dificultando el acceso a los datos.
  • Puede haber un borrado de datos por algun usuario/administrador bien de forma involuntaria (Por despiste) o bien hecha a conciencia (Por ejemplo un usuario malintencionado que entre en el equipo bien de forma remota o fisicamente) y borre datos importantes.
  • Averías de los sistemas de alamcenamiento debidas al desgaste de los componentes mecánicos (Todos los discos duro terminan averiandose tarde o temprano, ya que tienen una gran cantidad de piezas moviles que sufren un desgaste con el tiempo de uso).
  • Posibilidad de que roben la unidad físicamente.
  • Es necesario que el usuario/administrador tengan una política de copias de seguridad (Por ejemplo realizar un copia mensual de los datos poco importantes y una semanal de los datos críticos, de esta forma en caso de fallo tendriamos los datos del mes anterior y los de la semana pasada, sin embargo si hacemos una copia de seguridad de los datos poco importantes trimestralmente y una copia mensual de los datos críticos en caso de fallo recuperariamos los datos no criticos de hace tres meses y los críticos del mes anterior).
  • Otro problema es el espacio que ocupan físicamente los soportes de almacenamiento físico (Discos duros, CDs, DVDs,…) que requieren algun sistema para archivarlos de forma adecuada.
  • Así mismo un cambio de formato de almacenamiento afectas a los soportes, ya que por ejemplo hace años lo “normal” eran los discos de 3,5″ con 1,44 MB, despues aparecieron las unidades Zip/Jazz y practicamente al par las primeras grabadoras de CDs de 650/700 MB, poco despues las grabadoras de DVD de una capa (DVD5 con 4,38 GB “utiles”) y posteriomente las de doble capa (DVD9 con 7,92 GB “utiles”), mientras que los discos duros han crecido en capacidad de forma increible (Actualmente hay discos duros de 1 y 2 TB, o lo que es lo mismo 1.000 y 2.000 GB) y unidades flash (USB o en formato tarjeta) con varios GB de capacidad. Por lo que se hace aconsejable elegir bien el tipo de soporte (Quizas actualmente la mejor opcion sea el uso de discos duros de gran capacidad ya que apenas ha variado con el tiempo mientras que otros formatos (Ej: Zip/Jazz) o bien ha desaparecido del mercado o bien se han ido “mejorando”  como ha sido el caso de las unidades ópticas (Primero salieron los CDs, despues los DVDs y ahora están los Blu-Ray que admiten hasta 25 GB por capa).

Sin embargo actualmente esta apareciendo los soportes online o almacenamiento en red (También llamado Cloud Computing, Computación en Nube) tanto gratuitos como de pago que puede ser en el ámbito de:

  • Una Intranet (Ej: Red local de una pequeña empresa).
  • Una VPN (Virtual Private Network, Red Privada Virtual).
  • La propia Internet (La Red de Redes).

Cuyas ventajas son:

  • Tenemos acceso a nuestros datos desde cualquier lugar siempre y cuando exista una conexión a internet (Ej: ADSL, Cable, 3G, GPRS,…), los datos normalmente se almacenan en servidores “apilados” que reciben el nombre de Datacenter (Centros de Datos) o CPD (Centro de Procesamiento de Datos), información de Wikipedia.
  • Almacenamiento de datos en servidores remotos (No son accesibles localmente por lo que se aumenta la seguridad física de los datos evitando en lo posible que usuario malintencionados puedan acceder localmente a los datos y/o robar las unidades de almacenamiento).
  • No es necesario cambiar el formato de los archivos, aunque si podría ser necesario tener un programa compatible con el tipo de formato para poder abrirlo/editarlo.
  • Mayor seguridad, no hay que preocuparse por mantenimiento (Copias de seguridad), malware (Virus, Gusanos,…), ya que otros (Los administradores del sitio donde se almacenan los datos) se encargan de ello.
  • Es posible hacer copias de los datos online (En servidor remoto), en nuestro ordenador de forma local por si queremos aumentar la seguridad de los Back-Ups (Copias de seguridad) de los datos críticos.
  • El espacio ocupado por nuestros datos online se almacena en servidores remotos, es decir que no necesitariamos unidades de almacenamiento físicas (Ej: Discos duros) para almacenamiento local.
  • En muchos casos el almacenamiento online es gratuito, aunque existen opciones de pago con más ventajas (Ej: Mayor capacidad de almacenamiento).
  • Permite la reproducción de audio y video en “streaming” (Al vuelo), no es necesario descargar el fichero en nuestro equipo (Se reproduce a medida que avanza) esto por norma general suele funcionar sin embargo si la red esta muy colapsada o bien nuestra conexión no es tan rápida como debería pueden producirse parones o “cortes” durante la reproducción del archivo audiovisual.

Data Center (CPD: Centro de Procesamiento de Datos)

 

Sin embargo el almacenamiento en red también tiene sus desventajas:

  • Si no disponemos de conexión a Internet por la razón que sea no tendremos acceso a nuestros datos online, por lo que para poder acceder a nuestros datos online siempre será necesario disponer de una conexión a Internet forzosamente (Cosa que no ocurre con el almacenamiento físico o almacenamiento local).
  • No tenemos ningún control sobre los datos, por ejemplo si la empresa lleva a cabo tareas de mantenimiento es posible que nuestro servidor de almacenamiento online este fuera de línea (Off line o Inaccesible) cuando es posible que necesitamos tener acceso a ellos de forma “urgente”.
  • Por otra parte se supone que las empresas de almacenamiento online, se dedican precisamente a almacenar datos de usuarios pero tampoco se puede estar seguro al 100% que donde tengamos alojados nuestros datos los utilicen de algún modo e incluso manipularlos de alguna forma.
  • En caso de desastre (Ej: Un fallo en el servidor) podrían perderse los datos aunque en estos casos lo normal es que las empresas tengan copias de seguridad (Back-Ups) para restaurarlos, claro que es posible que la copia de seguridad restaurada no sea de “ayer” (Día anterior al desastre) sino que tenga otra fecha (Ej: La semana pasada) y por tanto los datos restaurados no estarían actualizados a día de “hoy” sino a la fecha de restauración.
  • Los portales de Streaming (Ej: Youtube,…) son los que deciden que contenidos se pueden subir y cuales no (Por norma general aquellos contenidos con derechos de autor (Copyright) suelen ser borrados lo antes posible para evitar una posible demanda por parte del autor o compañia representante (Ej: SGAE, RIAA) por reproducir un contenido audivisual sin autorización), de hecho sitios como MegaUpload, MediaFire,… que se dedican a alojar archivos en la red verifican que los archivos no tengan copyright, en caso de tenerlo actuan en consecuencia (Lo normal es que borren el archivo).
  • Limitación del ancho de banda, por ejemplo en España actualmente la conexión más rápida sin tener en cuenta la opcion de 50 Mbps/3 Mbps de ONO son las conexiones ADSL/Cable de como mucho unos 20 Megas (20 Mbps/1 Mbps) aunque en pequeñas ciudades y zonas rurales es más frecuente ver conexiones de 6 Mbps/300 Kbps o incluso menos lo cual limita bastante el uso de los sistemas de almacenamiento online porque hay que tener en cuenta que antes de tener alojados nuestros archivos en la Red (Internet) hay que subirlos a la misma, pero la velocidad de subida que tenemos actualmente es bastante “baja”:
    • 3 Mbps (Unos 384 KB/Seg).
    • 1 Mbps (Unos 128 KB/Seg).
    • 300 Kbps (Unos 38,4 KB/Seg).

En comparacion con la velocidad de bajada:

  • 50 Mbps (Unos 6.400 KB/Seg, aproximadamente 6,25 MB/Seg).
  • 20 Mbps (Unos 2.560 KB/Seg, aproximadamente 2,25 MB/Seg).
  • 10 Mbps (Unos 1.280 KB/Seg, aproximadamente 1,25 MB/Seg).
  • 6 Mbps (Unos 768 KB/Seg, aproximadamente 0,75 MB/Seg).
  • 3 Mbps (Unos 384 KB/Seg, aproximadamente 0,375 MB/Seg).

Es decir que si por ejemplo queremos subir 100 MB (0,1 GB) teniendo en cuenta las velocidades de subida actuales tardaríamos aproximadamente:

  • Unos 4 minutos y 24 segundos aproximadamente con una conexión de 3 Mbps (Unos 384 KB/Seg).
  • Unos 13 minutos y 18 segundos aproximadamente con una conexión de 1 Mbps (Unos 128 KB/Seg).
  • Unos 44 minutos y 24 segundos aproximadamente con una conexión de 300 Kbps (Unos 38,4 KB/Seg).

Logicamente cuanto mayor sea el archivo mayor sería el tiempo de subida del mismo, es decir para subir por ejemplo un archivo de 300 MB tardaríamos aproximadamente el triple de tiempo con las conexiones comentadas anteriormente.

Se puede encontrar más información en:

Averías más comunes de un ordenador


En estas dos entradas:

Comente las averías más caras que puede tener un ordenador de sobremesa y uno portátil.

En esta ocasión comentare las averías más habituales que suelen tener los ordenadores (Independientemente de que sea de sobremesa o portátiles):

  • Averías por desgaste mecánico (Estas ocurren tarde o temprano debido al propio uso y desgaste de los componentes mecánicos, son las más habituales) en esta categoría entrarían:
    • Discos duros ya que tienen una parte electrónica y otra mecánica (Motor, brazo de lectura/escritura,…).
    • Unidades ópticas (Lector y Grabadora de CDs/DVDs).
    • Disquetera.
    • Ventiladores de cualquier componente (Placa base, Tarjeta Gáfica, Procesador, Fuente de alimentación y Caja).
  • Averías electrónicas (En principio no tienen una aparición concreta por lo que son indefinidas e “impredecibles”), como por ejemplo aquellas que afectan únicamente a componentes electrónicos:
    • Tarjetas (Gráfica (GPU: Graphics Processing Unit, Unidad de Procesamiento Gráfico), Sonido, Red,…).
    • Memoria RAM.
    • Placa base (Motherboard o Mainboard).
    • Microprocesador o Procesador (CPU: Central Processing Unit, Unidad Central de Proceso).

Así mismo hay que tener en cuenta que los componentes con piezas mecánicas también tienen una parte electrónica por lo que la posibilidad de fallo se puede decir que es aun mayor.

Hay que tener en cuenta que las averías electrónicas suelen ser menos frecuentes que las mecánicas y que además ambos tipos de averías pueden verse reducidas si:

  • Se adquiere hardware de cierta calidad en lugar de hardware de marca genérica en especial en componenentes básicos como es el caso de la fuente de alimentación (En la sección Guía para comprar/actualizar… hay diversas entradas sobre diferentes componentes informáticos).
  • Se utilizan sistemas de protección eléctricos: Regletas con protecciones eléctricas y/o SAI (Sistema de Alimentación Ininterrumpida) que se comentaron en esta entrada del Blog.

¿Cúales son las averías más caras de un ordenador portátil?


En esta entrada del Blog comente las averías más caras que puede tener un ordenador de sobremesa, en esta otra entrada comentare las averías más caras que pueden sufrir los equipos portátiles (Sin tener en cuenta periféricos como: Impresora, Escáner, Multifunción, Módem, Router,…), de mayor a menor importancia y coste (En este último caso teniendo en cuenta tanto los materiales como de montaje/configuración o mano de obra) sería:

  1. Disco duro (HDD: Hard Disk Drive): En caso de que el disco duro falle, será necesario cambiarlo por uno nuevo, además generalmente es necesario reinstalar el Sistema Operativo de nuevo junto con los datos del usuario, y si además es necesario recuperar los datos del disco duro antiguo el coste de la reparación puede dispararse ya que la recuperación de datos es un proceso complejo y costoso (Por esta razón es necesario tener copias de seguridad de los datos importantes en otros soportes de almacenamiento).
  2. Placa base (Motherboard o Mainboard): Es otra de las averías más caras, de hecho el coste de sustituir una placa base de un portátil no compensa, generalmente sale más a cuenta comprar uno nuevo.
  3. Tarjeta gráfica (GPU): Por regla general muchos portátiles la llevan integrada en el chipset de placa base o bien aun siendo una grafica dedicada (Con GPU y memoria propios), en ambos casos suelen ir integrados dentro de la placa base por lo que en caso de fallo habría que sustituir la placa base completa, por lo que saldría más a cuenta comprar un portátil nuevo (La excepción son los equipos con tarjetas MXM (Mobile PCI Express Module, Módulo PCI Express Móvil) que permiten cambiarlas por otras similares, aunque habría que mandarlo al fabricante y la reparación tampoco sería lo que se dice barata).
  4. Monitor: En caso de que el monitor tenga un fallo grave (Ej: No se vea media pantalla), la sustitución de la pantalla es bastante costosa por lo que seguramente traiga más cuenta comprar un portátil nuevo.
  5. Procesador: El coste depende en parte de si es posible encontrar un procesador nuevo compatible con la placa base (Sin tener que actualizar la BIOS de la placa base ya que algunos procesadores actuales sólo funcionan en placas antiguas si se actualiza la BIOS a una versión más actual y si no tenemos un procesador compatible será casi imposible realizar dicho cambio salvo que la BIOS detecte el nuevo procesador como “Unknown” (“Desconocido”) y nos permita hacer la actualización porque el Sistema arranque; además hay que desmontar el disipador de CPU para quitar el procesador (CPU) averiado), colocar el procesador nuevo, limipiar la pasta térmica del disipador original y poner pasta térmica nueva (El uso de pasta térmica evita que el procesador se sobrecaliente excesivamente).
  6. Inverter del monitor: Es un componente del monitor que puede fallar, su reparación no suele ser excesivamente costosa.
  7. Batería: En caso de que la batería del portátil dure muy poco tiempo la única solución es cambiar la batería por una nueva.
  8. Conector de alimentación de la placa base: Esta avería suele ser bastante costosa ya que es necesario desmontar el portátil para localizar el problema.
  9. Transformador/cargador del portátil: En caso de que el transformador/cargador falle la solución más viable es adquirir un transformador/cargador original o compatible (Su reparación puede tener un coste similar al precio del transformador/cargador nuevo).
  10. Teclado: Su sustitución es relativamente costosa ya que no se utilizan teclados estándar como en sobremesa.
  11. Unidades ópticas (Lector o Grabadora DVD): En caso de avería en principio basta con sustituir una por otra y poco más si acaso actualizar el programa de grabación si este es antiguo y no reconoce la grabadora nueva (No suele ser necesario reinstalar el Sistema Operativo).
  12. Otra avería bastante frecuente y que suele aparecer con el paso del tiempo es la acumulación de polvo en los sistemas de refrigeración (Disipadores y ventiladores) del ordenador, esta acumulación de polvo y pelusas hace que el rendimiento de los sistemas de refrigeración se reduzca bastante y puedan producirse inestabilidad en el uso del equipo (Bloqueos, Reinicios, Apagados del equipo). En csaso de tener que sustituir los sistemas de refrigeración el coste de la reparación puede aumentar ligeramente.

En cuanto a Software la avería más habitual y costosa suele ser la reinstalación del Sistema Operativo ya que suele implicar:

  • Comprobación de hardware (Disco duro, RAM,…) para eliminar algún posible fallo de hardware que afecte al software (Sistema Operativo y programas).
  • Copia de seguridad de los datos de usuario si sólo hay una partición (Suponiendo que el usuario no haya hecho una copia de segurida de sus datos previamente).
  • Reinstalación de Sistema Operativo (Incluyendo creación de particiones y configuración del Sistema).
  • Reinstalación de los drivers (Controladores) de los dispositivos (Chipset placa base, Tarjeta gráfica, Tarjeta de sonido, Tarjeta de Red, Impresora,…).
  • Reinstalación de los programas utilizados por el usuario.
  • Restauración de los datos de usuario.

¿Cuáles son las averías más caras de un ordenador de sobremesa?


Los ordenadores como cualquier otro equipo electrónico doméstico (Lavadora, Lavavajillas, Televisión,…) pueden sufrir una avería, centrándome en las averías de hardware que puede tener un ordenador (Sin tener en cuenta periféricos como: Monitor, Impresora, Escáner, Multifunción, Altavoces, Módem, Router,…), de mayor a menor importancia y coste (En este último caso teniendo en cuenta tanto los materiales como de montaje/configuración o mano de obra) sería:

  1. Disco duro (HDD: Hard Disk Drive): En caso de que el disco duro falle, será necesario cambiarlo por uno nuevo, además generalmente es necesario reinstalar el Sistema Operativo de nuevo junto con los datos del usuario, y si además es necesario recuperar los datos del disco duro antiguo porque no es accesible (Tiene un fallo grave en la controladora o en alguna pieza mecánica) el coste de la reparación puede dispararse ya que la recuperación de datos es un proceso complejo y costoso (Por esta razón es necesario tener copias de seguridad de los datos importantes en otros soportes de almacenamiento).
  2. Placa base (Motherboard o Mainboard): Es otra de las averías más caras, en primer lugar es necesario encontrar una placa base nueva compatible con el hardware (Procesador, Memoria, Tarjeta Gráfica,…) que tenemos (A veces puede ser necesario incluso tirar de segunda mano si no se encuentran nuevas, aunque habría que informar de ello al usuario), además es necesario desmontar practicamente el equipo completo, volver a montarlo de nuevo dentro de la caja y por norma general es necesario reinstalar el Sistema Operativo (Si los datos de usuario se encuentran en otra partición o disco duro diferente no es necesario salvarlos, en caso contrario sería necesario salvar los datos si no lo ha hecho el usuario), ya que por regla general es dificil que dos placas base tengan el mismo Chipset, Tarjeta de sonido, Red,…
  3. Microprocesador (CPU: Central Processing Unit, Unidad Central de Procesamiento): El coste depende en parte de si es posible encontrar un procesador nuevo compatible (En ciertos casos hay que tirar de segunda mano, informando previamente al usuario) con la placa base (Sin tener que actualizar la BIOS (Basic Input-Output System, Sistema Básico de Entrada/Salida) de la placa base ya que algunos procesadores actuales sólo funcionan en placas antiguas si se actualiza la BIOS a una versión más actual y si no tenemos un procesador compatible será casi imposible realizar dicho cambio; además hay que desmontar el disipador de CPU para quitar el procesador (CPU) averiado, colocar el procesador nuevo, limpiar la pasta térmica del disipador original e instalar de nuevo el disipador con pasta térmica nueva (El uso de pasta térmica evita que el procesador se sobrecaliente excesivamente), en el caso de que el disipador no sea compatible con el nuevo procesador sería necesario además sustituirlo por uno que soporte el calor generado por el nuevo procesador.
  4. Tarjeta gráfica (GPU: Graphics Processing Unit, Unidad de Procesamiento Gráfico): Por regla general su coste en mano de obra no suele ser excesivo (Hay que tener en cuenta que debe ser compatible, es decir si tenemos una tarjeta AGP es necesario comprar una AGP, si es PCI Express (PCIe) e habra que comprar una PCIe, ya que las tarjetas AGP y PCIe son incompatibles fisicamente) ya que el cambio en caso de ser la misma tarjeta (Ej: Pasar de una Ati a otra Ati, o de una nVidia a otra nVidia con suerte puede bastar con cambiar una tarjeta por otra (En muchos casos los drivers instalados si son de los más actuales es posible que soporten la nueva tarjeta gráfica, sin embargo en caso de ser tarjetas de fabricantes diferentes, ej: Ati, nVidia) habría que:
    1. Desinstalar los drivers de la gráfica antigua.
    2. Realizar una limpieza de los registros que hayan podido dejar los drivers antiguos e incompatibles al ser de otro fabricante.
    3. Sustitución de una tarjeta por otra en el equipo.
    4. Instalar los drivers de la tarjeta nueva (Raramente suele ser necesario reinstalar el Sistema Operativo).
  5. Otras tarjetas (Ej: Sonido, Red, TV,…) siguen un proceso similar al de las tarjetas gráficas.
  6. Unidades ópticas (Lector o Grabadora DVD): En caso de avería en principio basta con sustituir una por otra y poco más si acaso actualizar el programa de grabación si este es antiguo y no reconoce la grabadora nueva (No suele ser necesario reinstalar el Sistema Operativo).
  7. Fuente de alimentación: Si únicamente hay que cambiar una fuente por otra la reparación no es muy costosa, el mayor problema que se puede presentar es que al averiarse la fuente, esta se “lleve” con ella algún/algunos componente/s lo cual puede aumentar considerablemente el coste de la reparación.
  8. Pila de BIOS: Las placas base llevan una pila de botón/plana (Generalmente de tipo CR2032) que pasado unos años acaba agotandose, la función de esta pila es guardar los valores de configuración de la BIOS, en caso de que no los guarde suelen aparecer algunos errores en el arranque y con el uso del Sistema Operativo (Uno muy frecuente es que la hora esta equivocada aunque el usuario la corrija).
  9. Otra avería bastante frecuente y que suele aparecer con el paso del tiempo es la acumulación de polvo en los sistemas de refrigeración (Disipadores y ventiladores) del ordenador, esta acumulación de polvo y pelusas hace que el rendimiento de los sistemas de refrigeración se reduzca bastante y puedan producirse inestabilidad en el uso del equipo (Bloqueos, Reinicios, Apagados del equipo). En csaso de tener que sustituir los sistemas de refrigeración el coste de la reparación puede aumentar ligeramente.

En el caso de equipos muy antiguos (Con varios años de uso) posiblemente sea mejor opción comprar un equipo nuevo de bajo coste si las necesidades del usuario no son excesivas (Ofimática, Internet, Reproducción Multimedia,…), en caso de necesitar un equipo para un uso más especializado (Ej: Juegos, Edición de Video, Máquinas virtuales, Reproducción de video en Alta Definición con alta calidad,…) es mejor opción comprar un equipo de gama media/alta que aunque sea más caro ofrecera mayor rendimiento (Lo que se traduce en menor tiempo de ejecución de procesos o bien en la posibilidad de poder ejecutar procesos de una forma más o menos “fluida”, cosa que con un equipo de bajo coste posiblemente no sea posible ya que aunque puede ejecutar los procesos posiblemente se “atasque” al no tener los recursos (Procesador (CPU), RAM, Gráfica (GPU),… necesarios; esto suele pasar sobre todo en juegos en los que suele ser más aconsejable tener en cuenta los requisitos recomendados en lugar de los requisitos mínimos).

En cuanto a Software la avería más habitual y costosa suele ser la reinstalación del Sistema Operativo ya que suele implicar:

  • Comprobación de hardware (Disco duro, RAM,…) para eliminar algún posible fallo de hardware que afecte al software (Sistema Operativo y programas).
  • Copia de seguridad de los datos de usuario si sólo hay una partición (Suponiendo que el usuario no haya hecho una copia de segurida de sus datos previamente).
  • Reinstalación de Sistema Operativo (Incluyendo creación de particiones y configuración del Sistema).
  • Reinstalación de los drivers (Controladores) de los dispositivos (Chipset placa base, Tarjeta gráfica, Tarjeta de sonido, Tarjeta de Red, Impresora,…).
  • Reinstalación de los programas utilizados por el usuario.
  • Restauración de los datos de usuario.

OCZ Revo Drive: Unidades SSD en formato PCI Express (PCIe) de baja capacidad


Hasta hace poco las unidades SSD (Solid State Device, Dispositivo de Estado Sólido) basadas en memorias Nand Flash como medio de almacenamiento se encontraban principalmente como discos de: 2,5″ (Tamaño de disco portátil, para poder usarlo en un equipo de sobremesa era necesario utilizar un adaptador de 2,5″@3,5″), aunque también existen otros formatos (Como comente en esta entrada del Blog):

  • 1,8″ (Tamaño inferior al de un disco portátil).
  • 3,5″ (Tamaño de disco de sobremesa, no son muy frecuentes aunque existen algunos modelos de OCZ en este formato).

Sin embargo desde hace tiempo también se comercializan SSD en formato PCIe (Usando una tarjeta PCIe) como ha sido el caso del Photofast G- Monster o el OCZ Z Drive (Se puede encontrar más información en esta entrada del Blog) cuyos precios eran bastante altos.

Actualmente parece que OCZ ha sacado al mercado modelos en formato PCIe más “asequibles” con menor capacidad y rendimiento como es el caso del OCZ Revo Drive que utiliza una conexión PCIe 4x, sus características principales son:

50-80GB Max Performance

  • Read: Up to 540 MB/s
  • Write: Up to 450 MB/s
  • Sustained Write: Up to 350 MB/s
  • Random Write 4KB (Aligned): 70,000 IOPS

120GB-480GB Max Performance

  • Read: Up to 540 MB/s
  • Write: Up to 480 MB/s
  • Sustained Write: Up to 400 MB/s
  • Random Write 4KB (Aligned): 75,000 IOPS

El gran rendimiento de estas unidades se debe al uso de un RAID 0 interno.

Su precio es de unos 243 € para el modelo de 50 GB, unos 300 € para el de 80 GB y unos 375 € para el de 120 GB, el resto de modelos de mayor capacidad tienen precios algo desorbitados.

Sin embargo hay que tener en cuenta que el Revo Drive puede tener varias “desventajas” frente al uso de dos o más SSD con conexión Serial ATA en RAID 0, entre otras:

  1. Utiliza un RAID 0 interno por lo que en caso de fallo habría que sustituir posiblemente la tarjeta completa.
  2. No se puede hacer un RAID utilizando tarjetas PCIe 4x, mientras que con conexiones SATA si es posible, actualmente la mayoria de las placas base suelen traer al menos entre 4 y 6 conexiones SATA300 e incluso en algunos casos incorporan controladoras SATA RAID adicionales sencillas de otros fabricantes, las cuales requieren sus propios drivers/controladores.

Además de no ser compatible con todas las placas base, OCZ tiene un listado en PDF con las que han probado.

RAMDisk: Crear un disco con memoria RAM


Actualmente los equipos informáticos tanto de sobremesa como portátiles suelen llevar una cantidad de RAM bastante grande (Entre 2 y 4 GB, o incluso más), en muchos casos esta cantidad de RAM no se llega a aprovechar al 100% (Por ejemplo los Sistemas de 32 Bits teoricamente reconocen hasta 4 GB, sin embargo en la práctica están limitados a unos 3 GB). En ProfessionalSAT hay varias entradas con información al respecto:

El uso de RAMDisk (Disco RAM) esta indicado para gestionar carpetas como:

  • Archivos temporales de Windows (Carpeta Temp y TMP).
  • Archivos temporales de los Navegadores (Browser) web (Ej: Internet Explorer, Mozilla Firefox,…).
  • Compresores de archivos (Esto pueden tener un problema de espacio si el RAMDisk se queda pequeño, por ejemplo si queremos descomprimir un fichero de 4 GB y nuestro RAMDisk “sólo” es de 2 GB), por lo que no es aconsejable usarlo para esta finalidad.

Lógicamente en función del tamaño:

  • De las carpetas de archivos temporales (Pueden redimensionarse a menor tamaño del que tienen por defecto).
  • De la RAM física.

Habrá que redimensionar el tamaño del RAMDisk, por ejemplo si tenemos sólo 512 MB ó 1.024 MB (1 GB) de RAM dificilmente se podria hacer un RAMDisk, de ahi que se aconseja crear este tipo de unidades en equipos con bastante memoria RAM (De 2 ó 4 GB como mínimo)..

Instalar un segundo disco duro en un portátil, usando la bahía de la unidad óptica


Actualmente los equipos portátiles (Notebook) traen una único disco duro (HDD: Hard Disk Drive) como unidad de almacenamiento (Aunque también es cierto que actualmente pueden encontrarse algunos portátiles de 17″ ó más con dos bahías para discos duros como es el caso del HP Pavilion dv9000) para instalar un disco duro por lo que si queremos instalar otro disco duro la opción más viable sería utilizar un disco duro externo con conexión:

  1. USB 2.0 (Hasta 480 Mbps, unos 60 MB/seg) es la conexión de datos más común actualmente, aunque también es de las más “lentas” si se compara con otras más actuales.
  2. IEEE 1394a (Firewire, Firewire400 ó I.Link) soporta hasta 400 Mbps (Unos 50 MB/seg), Firewire nació como un estándar para la edición de vídeo y su rendimiento es ligeramente superior a USB 2.0 (Se diseño para un uso “general”) donde es necesaria una alta tasa de transferencia de datos y además sostenida (Actualmente existe una revisión denominada IEEE1394b o Firewire800, que soporta hasta 800 Mbps, unos 100 MB/seg).
  3. eSATA (external Serial ATA): Es la conexión de datos más actual y con mayores prestaciones, soporta hasta 150 MB/seg (eSATA150), o hasta 300 MB/seg (eSATA300). Actualmente existe una revisión de la conexión Serial ATA denominada SATA600 (Hasta 600 MB/seg) que posiblemente acabe pasando también al estándar eSATA ya que la única diferencia entre SATA y eSATA son sus conectores de datos ya que físicamente el conector eSATA es más “robusto”. Una desventaja de eSATA es que no proporciona alimentación a los dispositivos como ocurre con USB y Firewire, por lo que necesitan una fuente de alimentación externa, esto se solucionara en parte con el estandar Power over eSATA comentado en esta entrada del Blog.

Sin embargo si no utilizamos la unidad óptica (Generalmente una grabadora de DVD) en el mercado existen adaptadores de bahías de unidades ópticas de portátiles (De tipo Slim) con distintas conexiones:

  • De IDE/PATA (Parallel ATA) a Serial ATA (SATA).
  • De Serial ATA (SATA) a Serial ATA (SATA), si contamos con conexión/desconexión en caliente o Hot Swap (Una de las funcionalidad del Serial ATA) podemos alternar entre el disco duro y la unidad óptica según las necesidades (Aunque posiblemente sea mejor opción comprar una unidad óptica Slim por USB).
  • De Serial ATA (SATA) a IDE/PATA (Parallel ATA).

Pulsar para ampliar

Asi mismo están disponibles en color Chrome (Cromado/Plateado) y Black (Negro) para que no desentonen con el portátil y con dos “alturas” de bandeja:

  • 9,5 mm (El tamaño estándar de discos portátiles).
  • 12,7 mm.

Este dispositivo tiene una gran ventaja al permitir instalar dos discos duros interno de forma simultáne en un portátil (Notebook) que tenga un sólo disco ya que permite:

  • Tener el disco duro de Sistema de serie que lleva el portátil y añadir un segundo disco mediante el adaptador, como unidad de almacenamiento de mayor capacidad sin necesitar un disco externo.
  • Instalar un SSD (Solid State Device, Dispositivo de Estado Sólido) en el lugar del disco duro de Sistema, y dejar el “viejo” disco duro de Sistema en el adaptador para almacenamiento de datos. Sin duda esta es la mayor ventaja de dicho adaptador,  ya que podemos ganar un gran rendimiento utilizando un SSD (Aunque actualmente tienen poca capacidad y su precio es algo alto).

Se puede encontrar más información en:

Breve historia del Socket de CPU


Mucho ha llovido desde que Intel sacó sus primeros procesadores comerciales hasta los nuevos Core i5, Core i7 y Core i9 más actuales, inicialmente el procesador iba soldado a la placa base por lo que no era posible actualizarlo; para sustituir el procesador por un modelo más actual con mejores prestaciones, había que cambiar la placa base completa; sin embargo esto se solucionó en parte con aparición de los Socket que permitieron sustituir el procesador por un modelo más actual siempre y cuando fuese compatible con la placa base y el Socket (Zócalo de CPU: Central Processing Unit, Unidad Central de Procesamiento), existieron dos tipos:

Slot: Este formato se utilizó entre 1997 y 2000 aproximadamente sustituyendo a los Socket anteriores (Ej: Socket 7), el procesador se insertaba dentro de dos guías como si fuese una tarjeta de expansión de la placa base) lo utilizaron los:

  • Pentium II y primeros Pentium III (Usaron el Slot 1), apareció en 1997.
  • Xeon (Emplearon el Slot 2), apareció en 1998.
  • AMD Athlon (Utilizaban el Slot A que es similar al Slot 1 de Intel), apareció en 1999.

Socket: Actualmente los procesadores utilizan un sistema ZIF (Zero Insertion Force) que para insertar el procesador en el Socket de la placa base no es necesario hacer ningún tipo de presión sobre él, basta con levantar la palanca que hay al lado del Socket y poner el procesador en la posición correcta, el cual sólo entra en una posición, una vez insertado el procesador sólo hay que bajar la palanca para que el procesador se quede anclado en el Socket (Los modelos más antiguos como fue el caso del Socket 1 usaban el sistema LIF: Low Insertion Force, que carecía de dicha palanca y por lo tanto requerían ejercer una cierta presión para insertar el procesador dentro del Socket).

Por otra parte el diseño de tipo Socket puede ser de dos tipos:

  • PGA (Pin Grid Array): Se ha utilizado hasta hace poco tiempo en la mayoria de los procesadores, de hecho procesadores actuales como los Athlon 64 en Socket AM2, AM2+ y AM3 utilizan este diseño. En este caso el procesador tiene los pines y el Socket de la placa base tiene los contactos donde se conectan dichos pines.
  • LGA (Land Grid Array): Actualmente lo utiliza Intel en sus procesadores más actuales, desde el Socket 775 en adelante (Incluyendo los actuales Socket 1156 y 1366). En este caso el procesador tiene los contactos, mientras que el Socket de la placa base tiene los pines.

Algunos de los socket más conocidos de Intel:

Actualmente descatalogados:

  • Socket 7 (1994): Con 321 pines, de los primeros Pentium/Pentium MMX y de los AMD K5.
  • Socket 370 FC-PGA/FC-PGA2 (1999): Tiene 370 pines, de los Pentium III y Celeron, destacando los cores “Coppermine” y “Tualatin” que fueron los últimos en utilizarlo.
  • Socket N, también conocido como Socket 478 ó mPGA478 (2000): Con 478 pines, hasta poco el socket de los Pentium 4 y Celeron, destacando el core “Northwood”, anterior al “Prescott”.
  • Socket 604 (2002): Utiliza 604 pines de Intel Xeon, son procesadores para servidores.

Actualmente en uso:

  • Socket T, también conocido como Socket LGA (Low Grid Array) 775/Socket 775 (2004): Con 775 pines, de los Pentium 4 tanto en single core (“Prescott”) como en Dual Core (“Smithfield”, que son dos cores “Prescott” en un mismo procesador) y Celeron con core “Prescott”, este mismo Socket lo utilizan también los Core 2 Duo/Quad actuales, dependiendo del chipset puede soportar memoria DDR, DDR2 o incluso DDR3 si es de los últimos. Este Socket esta destinado a la extinción ya que ha sido sustituido por el Socket 1156 y 1366 que son los actuales para procesadores de sobremesa.
  • Socket J, también conocido como Socket LGA (Low Grid Array) 771/ Socket 771 (2006): Utiliza 771 pines, Lo utilizan algunos Xeon, esta en extinción.
  • Socket 1.156/LGA (Low Grid Array) 1.156 (2009): Tiene 1.156 pines, lo utiliza  el actual Core i5 750 y los Core i7 860 y 870, soporta DDR3.
  • Socket B, también conocido como Socket LGA (Low Grid Array) 1366/Socket 1.366 (2008): Con 1.366 pines, lo utilizan los Core i7 920 en adelante y los Xeon W35xx, E55xx, L55xx y X55xx, soporta DDR3.

Socket 775

Algunos de los socket más conocidos de AMD (Advanced Micro Devices):

Actualmente descatalogados:

  • Socket A/Socket 462 OPGA (2000): Con 462 pines de la serie K7 (Los Athlon64/Opteron son los K8 o superior), más conocidos como Athlon entre ellos destacan los Athlon core “Thunderbird” y los Athlon XP (Especialmente los cores “Thoroughbred B” y “Barton” que fueron los últimos en comercializarse). También a esta serie pertenecen los Duron (Competidores de los Celeron de Intel, uno de los últimos cores Duron fue el “Appalbred”) y los últimos Sempron (core “Thoroughbred B” y “Barton”).
  • Socket 754 (2003): Utiliza 754 pines de los Sempron (Core “Palermo”) y Athlon 64 (Core “Clawhammer”) entre otros.
  • Socket 940 (2003): Con 940 pines de los Opteron series 2xx y 8xx (Son procesadores para servidores).
  • Socket 939 (2004): Tiene 939 pines de los Athlon 64 (Destacando el core “Venice”/”San Diego” en single core, y los “Manchester”/”Toledo” en Dual Core) y algunos Opteron core “Venus” (Single core) y “Denmark” (Dual Core).

Actualmente en uso:

  • Socket AM2 (2006): Tiene 940 pines (Es incompatible con el Socket 940 anterior), soporta DDR2, actualmente está en uso aunque será desplazado en breve por el AM2+ y AM3, lo han utilizado los Athlon 64 x2 “Brisbane”.
  • Socket AM2+ (2007): Con 940 pines (Es incompatible con el Socket 940 anterior), soporta DDR2 y DDR3 ha sido un Socket de “transición” entre DDR2 y DDR3, lo han empleado los Athlon X2 “Kuma” y los Phenom “Agena” y Phenom II “Deneb”.
  • Socket AM3 (2009): Utiliza 941 pines, soporta únicamente DDR3, se utiliza en los procesadores Ahlon K10 más actuales como por ejemplo: Athlon II x2 “Regor”, Athlon II x3 “Rana”, Athlon II x4 “Propus”, Phenom x3 “Heka” y Phenom x4 “Deneb”.

Socket AM3

Hay que tener en cuenta que el que una placa base disponga de un Socket actual (Ej: Socket 775) no significa que se pueda actualizar el procesador ya que el Socket sólo determina el sistema físico de enganche entre el procesador y la placa base, pero además el procesador debe ser compatible en especificaciones técnicas con la placa base (FSB, voltaje del procesador (vCore), TPD (Thermal Design Power), Conectores de alimentación,…), en algunos casos puede ser necesario una actualización de BIOS para compatibilizar el procesador con la placa base, en otros casos por el contrario aún actualizando la BIOS es posible que el procesador sea incompatible, por ejemplo si tenemos una placa base con soporte FSB800 (200 x4) y el procesador tiene FSB1066 (266 x4) el procesador muy probablemente no funcionara (Esto mismo ocurrió con el Socket A/Socket 462 de AMD donde los procesadores llegaron a tener FSB200/DDR400, pero algunas placas antiguas sóportaban un FSB133/DDR266 ó FSB166/DDR333), por esta razón los fabricantes de placas base ponen a disposición de los usuarios lista de compatibilidad de procesadores para saber si un procesador es compatible o no con la placa base en cuestión.

Por otra parte hay que tener en cuenta que los procesadores de equipos portátiles utilizan también sus propios Socket que suelen ser de menor tamaño que los de los procesadores equipos de sobremesa.

Se puede encontrar más información en:

Guía para comprar un disipador de tarjeta gráfica (GPU)


Hace unos días en esta entrada comente las características de un disipador de procesador (CPU), en la entrada de hoy comentare las características de los disipadores de las tarjetas gráficas o GPU (Graphics Processing Unit, Unidad de Procesamiento Gráfico), los cuales  no siempre son los mas “adecuados” en algunos casos a pesar de refrigerar las piezas correctamente suelen ser ruidosos. También decir que cualquier manipulación de las piezas a nivel físico (Por ejemplo: Cambiar disipadores o añadirlos) puede anular la garantía de la pieza en cuestión puesto que se esta haciendo una modificación física por ello no es muy aconsejable usar pegamentos como por ejemplo:

  • Artic Adhesive, Adhesivo Zalman o pegamento similar que incluye la pasta térmica.
  • Loctite/SuperGlue3 o similar (Cianocrilato) en las esquinas con pasta térmica en el centro del core).

Si la pieza esta en garantía ya que quitar las piezas añadidas es prácticamente imposible y se vería dicha manipulación.

Los sistemas de refrigeración de las tarjetas gráficas actuales generalmente se limitan a un “simple” disipador tipo Orb (Un ventilador redondo en muchos casos algo ruidoso junto con un disipador metálico (Aunque en algunos casos existen modelos de gama baja que únicamente llevan un disipador pasivo de aluminio sin ventilador, lo cual es de agradecer ya que nos ahorramos una fuente de ruido a largo plazo) generalmente de aluminio) o bien algún sistema algo mas complejo por aire (Raramente se recurre a sistemas complejos con heat pipes como los que proponen algunos fabricantes, salvo en modelos de gama media y alta); dejando a un lado los “microdisipadores” tipo ORB y similares) se puede hacer una “clasificación”:

Al igual que ocurre con los ventiladores de los disipadores de CPU, los disipadores de GPU con refrigeración activa (Con ventilador) pueden llevar un ventilador integrado (Ej: Zalman VF950Led, Zalman Z-Machine GV1000, Thermaltake DuOrb AX,…) o bien llevar un ventilador independiente como ocurre con los Thermalrigth, en este último caso la sustitución del ventilador en caso de fallo es muy sencilla ya que basta con buscar un ventilador de tamaño y prestaciones (CFMs) similares, mientras que en el caso de los ventiladores integrados su sustitución es más complicada ya que hay que recurrir al “bricolaje” para poder adaptar un ventilador.

Por otra parte para la zona del FET (Field-Effect Transistor, Transistor de Efecto Campo) existen otras soluciones pasivas (Sin ventilador) como por ejemplo:

También parece ser que con la aparición de graficas PCI Express muchas han sido convertidas a AGP con un chip puente que hay que refrigerar también por lo que la refrigeración de estos modelos es más complicada debido a que no solo hay que refrigerar la GPU (chipset gráfico) como ocurre con los modelos PCI Express o AGP “nativos” sino que además en los modelos PCI Express convertidos a AGP es necesario refrigerar el chip puente; creo que actualmente las soluciones para estos modelos son bastante limitadas un ejemplo es el Zalman ZM-VHS1 para las GF6600 AGPlo cual puede facilitar el cambio de un disipador de fábrica si este no fuese el más adecuado.

Por último comentar que existen algunos modelos de tarjetas gráficas (Suelen ser de gama media o baja, ya que los modelos de gama alta suelen llevar sistemas de refrigeración activos con ventilador) que llevan de fábrica un disipador pasivo con heat pipes y una disipación activa “silenciosa” como por ejemplo:

Una cosa que siempre hay que tener en cuenta para todos estos casos es que el modelo de disipador de Tarjeta gráfica (GPU) elegido, debe ser compatible con la pieza en cuestión ya que no siempre lo son, para ello se pueden ver las listas de compatibilidad que suelen tener los propios fabricantes sobre cada modelo, de esta forma se evitan sorpresas desagradables.