¿Es posible recuperar datos de Linux?


En una entrada anterior del Blog comente la posibilidad de recuperar datos de un soporte de datos con sistema de archivos Windows (Ej: HDD (Hard Disk Drive, Disco duro), Memoria USB, Tarjeta de memoria,…) utilizando algunos programas que corren en Windows, teniendo en cuenta que la primera premisa es dejar el disco duro que tiene los datos “intacto” (Es necesario conectarlo como unidad de almacenamiento bien interna o externa para recuperar los datos, ya que si cargamos un sistema operativo junto con el programa de recuperación de datos es posible que algunos de los datos que queramos recuperar se borren definitivamente al sobreescribirse con datos nuevos).

El éxito de recuperar los datos es bastante alto si la pérdida de datos se debe a un error lógico (Formateo por error, Pérdida de particiones,…) y bastante bajo si el error es físico de la unidad (Ej: Disco duro con problemas mecánicos, Memoria USB “quemada”,…).

Para linux en caso de pérdida de datos también existen varias opciones:

  1. Usar un programa de recuperación de datos en Windows que “vea” particiones de Linux como R-Linux, teniendo en cuenta que el disco con Windows debe ser diferente al disco de Linux, ya que si instalamos Windows en el disco de Linux posiblemente borremos algunos archivos además de cambiar las particiones y el sistema de archivos. Personalmente esta opción no la veo muy “clara” ya que a pesar de que Windows puede leer particiones EXT2/EXT3 con “ayuda” de programas como Explore2FS (Lo comente en esta entrada del Blog) no se hasta que punto será fiable.
  2. Usar un programa de recuperación de datos en Linux como R-Linux (También existe una versión para Linux para plataformas Debian/Ubuntu con paquete “DEB” y para Fedora/Red Hat con paquete “RPM”, ambos paquetes están disponibles para procesadores de 32 Bits (x86) y de 64 Bits (x64)), lógicamente habría que instalar la distribución Linux en otro disco duro diferente del que queremos recuperar los datos.
  3. Usar una distribución de recuperación como:
Anuncios

Subida de precios de los discos duros debido a las inundaciones de Tailandia


A finales de octubre ha habido inundaciones en Tailandia que han producido  algunos muertos y daños materiales, entre los daños materiales se han visto afectadas varias fabricas de marcas de discos duros (Western Digital, Seagate y Toshiba), además de algunas otras relacionadas con tecnología como Nidec que fabrica los motores de giro de los platos que tienen los discos duros.

Por lo que el stock de discos se ha reducido bastante y además el precio de los mismos ha subido de forma bastante significativa, de hecho se comentaba que subirían al menos un 50% del precio, y que este no volvería a la normalidad hasta principios de 2012 (Hace unas semanas compré un Western Digital Caviar Green SATA600 de 2 TB (WD20EARX) por unos 70 € porque necesitaba mayor capacidad de almacenamiento; actualmente ese mismo disco duro ronda los 170 € en la misma tienda donde lo compre (En tiendas online lo he visto por unos 214 € sin portes).

Es de suponer que esto también afectara a discos duros externos que estén alojados en:

  • Cajas externas con conexión USB (2.0 o 3.0) y/o eSATA (También existen modelos con conexión Firewire400 (IEEE 1394a)/Firewire800 (IEEE1394b) aunque son más caras que las anteriores).
  • Cajas externas multimedia, son aquellas que permiten leer y/o reproducir archivos de:
  • Vídeo (AVI, Divx, MKV,…).
  • Audio (Ej: MP3).
  • Imágenes (Ej: JPG,…).
  • Otros archivos (Ej: ISO).
  • Cajas DAS (Direct Attached Storage, Almacenamiento Directo. Información de Wikipedia) que son cajas similares a las USB o eSATA pero que disponen de barías bahías para alojar discos duros.
  • Cajas externas tipo NAS (Network-Attached Storage, Almacemiento de Datos en red. Más información en esta entrada del Blog) y SAN (Storage Area Network, Red de Área de Almacenamiento. Información de Wikipedia).

Curiosamente los SSD tienen precios similares a los que teniían antes de las inundaciones (En principio las fabricantes de SSD’s no se han visto afectados por las inundaciones de Tailandia) por lo que si pensamos comprar un disco duro de 7.200 Rpms (Estandar de rendimiento en sobremesa) pero baja capacidad (Sobre los 500 GB) que actualmente rondan los 100 – 125 € (Ej: WD Caviar Black WD5002AALX) puede ser mejor opción comprar un SSD de baja capacidad (Unos 60 GB) por un precio similar (Por ejemplo el Corsair Force SATA300 de 60 GB (Sand Force 1200/SF-1200) ronda los 114 € y el Force GT SATA600 (SF-2xxx) ronda los 134 €), si bien es cierto que tendremos menor capacidad el Rendimiento del SSD es muy superior al de cualquier disco duro actual (Incluyendo discos duros de 10.000 y 15.000 Rpms)

Por lo que se puede decir que es una mala época para cambiar el disco duro de un equipo ya que el coste del material ha subido de una forma muy significativa.

Se puede encontrar más información en:

¿Almacenamiento en soporte físico u online?


Hasta hace poco lo habitual era guardar los datos en soportes de almacenamiento físico como por ejemplo:

  • Disquetes de 3,5″ con 1,44 MB (Actualmente apenas se utilizan).
  • Unidades Zip/Jazz de varios GB (Actualmente apenas se utilizan), eran “disquetes” removibles de alta capacidad aunque no eran compatibles con los discos de 3,5″.
  • CDs (650/700 MB)/DVDs (DVD5 de 4,38 GB y DVD9 de 7,92 GB “efectivos”).
  • Discos duros (HDD: Hard Disk Drive) bien internos (Conectados mediante IDE/UDMA, SATA, SCSI o SAS que con los conectores más comunes) o externos (Utilizando como bus USB 2.0, Firewire400/800, eSATA, USB 3.0,…), actualmente tienen capacidades de varios cientos de GB (De hecho actualmente el “tope” son 2 TB (2.000 GB), aunque se espera que aparezcan discos de mayor capacidad en breve).
  • Memorias Flash USB (Ls denominados “Pendrives”).
  • Tarjetas de memoria (Compact Flash (CF), Secure Digital (SD), Multimedia Card (MMC), Memory Stick,…).
  • SSD (Solid State Device, Dispositivos de Estado Sólido basados en memoria flash. Son las unidades de almacenamiento que sustituiran a los discos duros actuales en un futuro próximo, aunque actualmente tienen un precio “prohibitivo” para dedicarlos a almacenamiento de datos (Una unidad de 60 GB de ultima generación ronda los 120 €), aunque para discos de Sistema (Almacenamiento de Sistema Operativo, Programas y Juegos) son muy buena elección ya que actualmente son los dispositivos de almacenamiento más rápidos, incluso superan en rendimiento a los discos SCSI/SAS de 10.000 y 15.000 Rpms, cuando en un entorno doméstico se utilizan discos de 7.200 Rpms o como mucho discos SATA Western Digital Raptor/Velociraptor de 10.000 Rpms, aunque estos ultimos han perdido la batalla con los SSD en rendimiento no asi en capacidad, un Velociraptor de 300 GB ronda los 140 € mas portes en Alternate, curiosamente el modelo de 150 GB tiene el mismo precio pero la mitad de capacidad).

Disco duro (HDD: Hard Disk Drive)

 

Las ventajas de un almacenamiento en soporte físico son:

  • Tenemos un acceso a los datos instántaneo (Lógico ya que solo tenemos que conectar la unidad al ordenador).
  • El mantenimiento y ordenamiento de la información la realizamos nosostros mismos (El usuario/administrador es quien decide los datos que deben ser replicados y cuales son “innecesarios” en caso de fallo).
  • Al tenerlos en un soporte físico se pueden extraer contenido fácilmente a otros soportes (Por ejemplo si tenemos videos personales en formato DVD, podremos grabarlos en un DVD sin muchos problemas).
  • El mantenimiento de copias de seguridad esta más controlado, existen programas que permiten realizar copias cada cierto tiempo de carpetas/particiones determinadas.
  • En principio requiere menos seguridad (No es necesario poner el nombre de usuario (Login) ni contraseña (Password), aunque en algunos sistemas de almacenamiento externo existe esa posibilidad para aumentar la seguridad de los datos, incluso existen sistemas de almacenamiento externo que usan sistemas de seguridad biométricos mediante huella digital para dar acceso a los datos o denegarlo).

Pero también tienen sus desventajas:

  • Un fallo mecánico (En el caso de un disco duro) o electrónico (En el caso de un disco duro, memoria flash,…) puede estropear la unidad de almacenamiento con nuestros datos dentro, haciendo practicamente imposible la recuperación de los mismo (En casos muy graves la única solución es recurrir a una empresa especializada en recuperación de datos pero este proceso no es precisamente barato).
  • Un malware (Virus, Gusanos,…) puede dañar los datos y/o las unidades lógicas (Particiones) dificultando el acceso a los datos.
  • Puede haber un borrado de datos por algun usuario/administrador bien de forma involuntaria (Por despiste) o bien hecha a conciencia (Por ejemplo un usuario malintencionado que entre en el equipo bien de forma remota o fisicamente) y borre datos importantes.
  • Averías de los sistemas de alamcenamiento debidas al desgaste de los componentes mecánicos (Todos los discos duro terminan averiandose tarde o temprano, ya que tienen una gran cantidad de piezas moviles que sufren un desgaste con el tiempo de uso).
  • Posibilidad de que roben la unidad físicamente.
  • Es necesario que el usuario/administrador tengan una política de copias de seguridad (Por ejemplo realizar un copia mensual de los datos poco importantes y una semanal de los datos críticos, de esta forma en caso de fallo tendriamos los datos del mes anterior y los de la semana pasada, sin embargo si hacemos una copia de seguridad de los datos poco importantes trimestralmente y una copia mensual de los datos críticos en caso de fallo recuperariamos los datos no criticos de hace tres meses y los críticos del mes anterior).
  • Otro problema es el espacio que ocupan físicamente los soportes de almacenamiento físico (Discos duros, CDs, DVDs,…) que requieren algun sistema para archivarlos de forma adecuada.
  • Así mismo un cambio de formato de almacenamiento afectas a los soportes, ya que por ejemplo hace años lo “normal” eran los discos de 3,5″ con 1,44 MB, despues aparecieron las unidades Zip/Jazz y practicamente al par las primeras grabadoras de CDs de 650/700 MB, poco despues las grabadoras de DVD de una capa (DVD5 con 4,38 GB “utiles”) y posteriomente las de doble capa (DVD9 con 7,92 GB “utiles”), mientras que los discos duros han crecido en capacidad de forma increible (Actualmente hay discos duros de 1 y 2 TB, o lo que es lo mismo 1.000 y 2.000 GB) y unidades flash (USB o en formato tarjeta) con varios GB de capacidad. Por lo que se hace aconsejable elegir bien el tipo de soporte (Quizas actualmente la mejor opcion sea el uso de discos duros de gran capacidad ya que apenas ha variado con el tiempo mientras que otros formatos (Ej: Zip/Jazz) o bien ha desaparecido del mercado o bien se han ido “mejorando”  como ha sido el caso de las unidades ópticas (Primero salieron los CDs, despues los DVDs y ahora están los Blu-Ray que admiten hasta 25 GB por capa).

Sin embargo actualmente esta apareciendo los soportes online o almacenamiento en red (También llamado Cloud Computing, Computación en Nube) tanto gratuitos como de pago que puede ser en el ámbito de:

  • Una Intranet (Ej: Red local de una pequeña empresa).
  • Una VPN (Virtual Private Network, Red Privada Virtual).
  • La propia Internet (La Red de Redes).

Cuyas ventajas son:

  • Tenemos acceso a nuestros datos desde cualquier lugar siempre y cuando exista una conexión a internet (Ej: ADSL, Cable, 3G, GPRS,…), los datos normalmente se almacenan en servidores “apilados” que reciben el nombre de Datacenter (Centros de Datos) o CPD (Centro de Procesamiento de Datos), información de Wikipedia.
  • Almacenamiento de datos en servidores remotos (No son accesibles localmente por lo que se aumenta la seguridad física de los datos evitando en lo posible que usuario malintencionados puedan acceder localmente a los datos y/o robar las unidades de almacenamiento).
  • No es necesario cambiar el formato de los archivos, aunque si podría ser necesario tener un programa compatible con el tipo de formato para poder abrirlo/editarlo.
  • Mayor seguridad, no hay que preocuparse por mantenimiento (Copias de seguridad), malware (Virus, Gusanos,…), ya que otros (Los administradores del sitio donde se almacenan los datos) se encargan de ello.
  • Es posible hacer copias de los datos online (En servidor remoto), en nuestro ordenador de forma local por si queremos aumentar la seguridad de los Back-Ups (Copias de seguridad) de los datos críticos.
  • El espacio ocupado por nuestros datos online se almacena en servidores remotos, es decir que no necesitariamos unidades de almacenamiento físicas (Ej: Discos duros) para almacenamiento local.
  • En muchos casos el almacenamiento online es gratuito, aunque existen opciones de pago con más ventajas (Ej: Mayor capacidad de almacenamiento).
  • Permite la reproducción de audio y video en “streaming” (Al vuelo), no es necesario descargar el fichero en nuestro equipo (Se reproduce a medida que avanza) esto por norma general suele funcionar sin embargo si la red esta muy colapsada o bien nuestra conexión no es tan rápida como debería pueden producirse parones o “cortes” durante la reproducción del archivo audiovisual.

Data Center (CPD: Centro de Procesamiento de Datos)

 

Sin embargo el almacenamiento en red también tiene sus desventajas:

  • Si no disponemos de conexión a Internet por la razón que sea no tendremos acceso a nuestros datos online, por lo que para poder acceder a nuestros datos online siempre será necesario disponer de una conexión a Internet forzosamente (Cosa que no ocurre con el almacenamiento físico o almacenamiento local).
  • No tenemos ningún control sobre los datos, por ejemplo si la empresa lleva a cabo tareas de mantenimiento es posible que nuestro servidor de almacenamiento online este fuera de línea (Off line o Inaccesible) cuando es posible que necesitamos tener acceso a ellos de forma “urgente”.
  • Por otra parte se supone que las empresas de almacenamiento online, se dedican precisamente a almacenar datos de usuarios pero tampoco se puede estar seguro al 100% que donde tengamos alojados nuestros datos los utilicen de algún modo e incluso manipularlos de alguna forma.
  • En caso de desastre (Ej: Un fallo en el servidor) podrían perderse los datos aunque en estos casos lo normal es que las empresas tengan copias de seguridad (Back-Ups) para restaurarlos, claro que es posible que la copia de seguridad restaurada no sea de “ayer” (Día anterior al desastre) sino que tenga otra fecha (Ej: La semana pasada) y por tanto los datos restaurados no estarían actualizados a día de “hoy” sino a la fecha de restauración.
  • Los portales de Streaming (Ej: Youtube,…) son los que deciden que contenidos se pueden subir y cuales no (Por norma general aquellos contenidos con derechos de autor (Copyright) suelen ser borrados lo antes posible para evitar una posible demanda por parte del autor o compañia representante (Ej: SGAE, RIAA) por reproducir un contenido audivisual sin autorización), de hecho sitios como MegaUpload, MediaFire,… que se dedican a alojar archivos en la red verifican que los archivos no tengan copyright, en caso de tenerlo actuan en consecuencia (Lo normal es que borren el archivo).
  • Limitación del ancho de banda, por ejemplo en España actualmente la conexión más rápida sin tener en cuenta la opcion de 50 Mbps/3 Mbps de ONO son las conexiones ADSL/Cable de como mucho unos 20 Megas (20 Mbps/1 Mbps) aunque en pequeñas ciudades y zonas rurales es más frecuente ver conexiones de 6 Mbps/300 Kbps o incluso menos lo cual limita bastante el uso de los sistemas de almacenamiento online porque hay que tener en cuenta que antes de tener alojados nuestros archivos en la Red (Internet) hay que subirlos a la misma, pero la velocidad de subida que tenemos actualmente es bastante “baja”:
    • 3 Mbps (Unos 384 KB/Seg).
    • 1 Mbps (Unos 128 KB/Seg).
    • 300 Kbps (Unos 38,4 KB/Seg).

En comparacion con la velocidad de bajada:

  • 50 Mbps (Unos 6.400 KB/Seg, aproximadamente 6,25 MB/Seg).
  • 20 Mbps (Unos 2.560 KB/Seg, aproximadamente 2,25 MB/Seg).
  • 10 Mbps (Unos 1.280 KB/Seg, aproximadamente 1,25 MB/Seg).
  • 6 Mbps (Unos 768 KB/Seg, aproximadamente 0,75 MB/Seg).
  • 3 Mbps (Unos 384 KB/Seg, aproximadamente 0,375 MB/Seg).

Es decir que si por ejemplo queremos subir 100 MB (0,1 GB) teniendo en cuenta las velocidades de subida actuales tardaríamos aproximadamente:

  • Unos 4 minutos y 24 segundos aproximadamente con una conexión de 3 Mbps (Unos 384 KB/Seg).
  • Unos 13 minutos y 18 segundos aproximadamente con una conexión de 1 Mbps (Unos 128 KB/Seg).
  • Unos 44 minutos y 24 segundos aproximadamente con una conexión de 300 Kbps (Unos 38,4 KB/Seg).

Logicamente cuanto mayor sea el archivo mayor sería el tiempo de subida del mismo, es decir para subir por ejemplo un archivo de 300 MB tardaríamos aproximadamente el triple de tiempo con las conexiones comentadas anteriormente.

Se puede encontrar más información en:

¿Cuáles son las averías más caras de un ordenador de sobremesa?


Los ordenadores como cualquier otro equipo electrónico doméstico (Lavadora, Lavavajillas, Televisión,…) pueden sufrir una avería, centrándome en las averías de hardware que puede tener un ordenador (Sin tener en cuenta periféricos como: Monitor, Impresora, Escáner, Multifunción, Altavoces, Módem, Router,…), de mayor a menor importancia y coste (En este último caso teniendo en cuenta tanto los materiales como de montaje/configuración o mano de obra) sería:

  1. Disco duro (HDD: Hard Disk Drive): En caso de que el disco duro falle, será necesario cambiarlo por uno nuevo, además generalmente es necesario reinstalar el Sistema Operativo de nuevo junto con los datos del usuario, y si además es necesario recuperar los datos del disco duro antiguo porque no es accesible (Tiene un fallo grave en la controladora o en alguna pieza mecánica) el coste de la reparación puede dispararse ya que la recuperación de datos es un proceso complejo y costoso (Por esta razón es necesario tener copias de seguridad de los datos importantes en otros soportes de almacenamiento).
  2. Placa base (Motherboard o Mainboard): Es otra de las averías más caras, en primer lugar es necesario encontrar una placa base nueva compatible con el hardware (Procesador, Memoria, Tarjeta Gráfica,…) que tenemos (A veces puede ser necesario incluso tirar de segunda mano si no se encuentran nuevas, aunque habría que informar de ello al usuario), además es necesario desmontar practicamente el equipo completo, volver a montarlo de nuevo dentro de la caja y por norma general es necesario reinstalar el Sistema Operativo (Si los datos de usuario se encuentran en otra partición o disco duro diferente no es necesario salvarlos, en caso contrario sería necesario salvar los datos si no lo ha hecho el usuario), ya que por regla general es dificil que dos placas base tengan el mismo Chipset, Tarjeta de sonido, Red,…
  3. Microprocesador (CPU: Central Processing Unit, Unidad Central de Procesamiento): El coste depende en parte de si es posible encontrar un procesador nuevo compatible (En ciertos casos hay que tirar de segunda mano, informando previamente al usuario) con la placa base (Sin tener que actualizar la BIOS (Basic Input-Output System, Sistema Básico de Entrada/Salida) de la placa base ya que algunos procesadores actuales sólo funcionan en placas antiguas si se actualiza la BIOS a una versión más actual y si no tenemos un procesador compatible será casi imposible realizar dicho cambio; además hay que desmontar el disipador de CPU para quitar el procesador (CPU) averiado, colocar el procesador nuevo, limpiar la pasta térmica del disipador original e instalar de nuevo el disipador con pasta térmica nueva (El uso de pasta térmica evita que el procesador se sobrecaliente excesivamente), en el caso de que el disipador no sea compatible con el nuevo procesador sería necesario además sustituirlo por uno que soporte el calor generado por el nuevo procesador.
  4. Tarjeta gráfica (GPU: Graphics Processing Unit, Unidad de Procesamiento Gráfico): Por regla general su coste en mano de obra no suele ser excesivo (Hay que tener en cuenta que debe ser compatible, es decir si tenemos una tarjeta AGP es necesario comprar una AGP, si es PCI Express (PCIe) e habra que comprar una PCIe, ya que las tarjetas AGP y PCIe son incompatibles fisicamente) ya que el cambio en caso de ser la misma tarjeta (Ej: Pasar de una Ati a otra Ati, o de una nVidia a otra nVidia con suerte puede bastar con cambiar una tarjeta por otra (En muchos casos los drivers instalados si son de los más actuales es posible que soporten la nueva tarjeta gráfica, sin embargo en caso de ser tarjetas de fabricantes diferentes, ej: Ati, nVidia) habría que:
    1. Desinstalar los drivers de la gráfica antigua.
    2. Realizar una limpieza de los registros que hayan podido dejar los drivers antiguos e incompatibles al ser de otro fabricante.
    3. Sustitución de una tarjeta por otra en el equipo.
    4. Instalar los drivers de la tarjeta nueva (Raramente suele ser necesario reinstalar el Sistema Operativo).
  5. Otras tarjetas (Ej: Sonido, Red, TV,…) siguen un proceso similar al de las tarjetas gráficas.
  6. Unidades ópticas (Lector o Grabadora DVD): En caso de avería en principio basta con sustituir una por otra y poco más si acaso actualizar el programa de grabación si este es antiguo y no reconoce la grabadora nueva (No suele ser necesario reinstalar el Sistema Operativo).
  7. Fuente de alimentación: Si únicamente hay que cambiar una fuente por otra la reparación no es muy costosa, el mayor problema que se puede presentar es que al averiarse la fuente, esta se “lleve” con ella algún/algunos componente/s lo cual puede aumentar considerablemente el coste de la reparación.
  8. Pila de BIOS: Las placas base llevan una pila de botón/plana (Generalmente de tipo CR2032) que pasado unos años acaba agotandose, la función de esta pila es guardar los valores de configuración de la BIOS, en caso de que no los guarde suelen aparecer algunos errores en el arranque y con el uso del Sistema Operativo (Uno muy frecuente es que la hora esta equivocada aunque el usuario la corrija).
  9. Otra avería bastante frecuente y que suele aparecer con el paso del tiempo es la acumulación de polvo en los sistemas de refrigeración (Disipadores y ventiladores) del ordenador, esta acumulación de polvo y pelusas hace que el rendimiento de los sistemas de refrigeración se reduzca bastante y puedan producirse inestabilidad en el uso del equipo (Bloqueos, Reinicios, Apagados del equipo). En csaso de tener que sustituir los sistemas de refrigeración el coste de la reparación puede aumentar ligeramente.

En el caso de equipos muy antiguos (Con varios años de uso) posiblemente sea mejor opción comprar un equipo nuevo de bajo coste si las necesidades del usuario no son excesivas (Ofimática, Internet, Reproducción Multimedia,…), en caso de necesitar un equipo para un uso más especializado (Ej: Juegos, Edición de Video, Máquinas virtuales, Reproducción de video en Alta Definición con alta calidad,…) es mejor opción comprar un equipo de gama media/alta que aunque sea más caro ofrecera mayor rendimiento (Lo que se traduce en menor tiempo de ejecución de procesos o bien en la posibilidad de poder ejecutar procesos de una forma más o menos “fluida”, cosa que con un equipo de bajo coste posiblemente no sea posible ya que aunque puede ejecutar los procesos posiblemente se “atasque” al no tener los recursos (Procesador (CPU), RAM, Gráfica (GPU),… necesarios; esto suele pasar sobre todo en juegos en los que suele ser más aconsejable tener en cuenta los requisitos recomendados en lugar de los requisitos mínimos).

En cuanto a Software la avería más habitual y costosa suele ser la reinstalación del Sistema Operativo ya que suele implicar:

  • Comprobación de hardware (Disco duro, RAM,…) para eliminar algún posible fallo de hardware que afecte al software (Sistema Operativo y programas).
  • Copia de seguridad de los datos de usuario si sólo hay una partición (Suponiendo que el usuario no haya hecho una copia de segurida de sus datos previamente).
  • Reinstalación de Sistema Operativo (Incluyendo creación de particiones y configuración del Sistema).
  • Reinstalación de los drivers (Controladores) de los dispositivos (Chipset placa base, Tarjeta gráfica, Tarjeta de sonido, Tarjeta de Red, Impresora,…).
  • Reinstalación de los programas utilizados por el usuario.
  • Restauración de los datos de usuario.

Conexiones de datos de alta velocidad para dispositivos de almacenamiento interno


Actualmente el conector de datos más común en ordenadores domésticos es:

  • Serial ATA (SATA150) que soporta hasta 150 MB/Seg por conector, en principio este ancho de banda es más que suficiente para cualquier disco duro (HDD: Hard Disk Drive) mecánico actual, aunque se queda corto para los SSD (Solid State Device, Dispositivo de Estado Sólido) basados en memoria flash (En estas entradas del Blog: SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros y Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) hay más información sobre estos dispositivos).
  • Serial ATA2 (SATA300) que soporta hasta 300 MB/Seg por conector, en principio este ancho de banda es suficiente para casi cualquier SSD (Solid State Device, Dispositivo de Estado Sólido) actual a excepción de los Crucial C300 que son SATA3 (SATA600) ya que su capacidad de lectura es de 355 MB/Seg (Usando SATA300 se “quedan” en 265 MB/Seg).

Para solucionar el problema de ancho de banda sobre todo para los futuros SSD de altas prestaciones (Sin tener que recurrir al bus PCI Express (PCIe) como hacen por ejemplo los Revo Drive de OCZ, en esta entrada del Blog hay más información sobre este dispositivo) se puede utilizar:

  • Serial ATA 3 (SATA600) soporta hasta 6 Gbps (Unos 600 MB/Seg) por conector, actualmente es una buena opción ya que ningún SSD con conexión SATA supera los 400 MB/Seg.
  • SAS (Serial Attached SCSI) es una conexión que ha sustituido al antiguo SCSI (Small Computer System Interface), se utiliza en Servidores profesionales debido al alto coste tanto de las controladoras como de los dispositivos de almacenamiento, de hecho su evolución es similar a SATA (Los discos SAS son incompatibles con conexiones Serial ATA), la norma actual es SAS 6 Gbps (SAS 600) que soporta hasta 600 MB/Seg y se espera que para 2010 llegue hasta los 12 Gbps denominandose SAS 1200 que tendria aproximadamente 1,2 GB/Seg de ancho de banda.

Sin embargo ya hay proyectos para aumentar aun más la tasa de transferencia de los dispositivos internos como es el caso del conector:

  • High Speed Data Link (HDSL) de OCZ que utiliza un cable SAS de alta calidad, actualmente tiene un ancho de banda de 2 Gbps pero se espera que llegue en un futuro hasta 20 Gbps (Probablemente en un futuro tenga mejoras de velocidad como ocurre con la mayoría de conexiones de datos), HDSL se utiliza en los nuevos OCZ Ibis que tienen 4 controladoras Sand Force 1200 (SF-1200) en RAID 0 llegando a ofrecer unas prestaciones de hasta 804 MB/Seg en lectura y 675 MB/Seg en escritura (Información de Infochaos Digital).
  • Light Peak desarrollado por Intel que utiliza un cable de fibra óptica e inicialmente tendra un ancho de banda de 10 Gbps,  que en un futuro proximo podria llegar hasta los 100 Gbps, en principio se espera que aprezca en 2011.

Estos conectores permiten “apilar” los discos en niveles RAID (En esta entrada del Blog hay más información) siempre y cuando la controladora lo soporte, mientras que el uso de SSD con conexión PCIe no permite la “apilación” porque los discos trabajarian de forma individual.

Se puede encontrar más información en:

Nuevas propuestas para limitar el uso de Internet


En Noticias3D hay un par de noticias relacionadas con Internet:

La primera noticia comenta que la Unión Europea ha aprobado una medida legal para que los países miembros puedan cortar la conexión de Internet a aquellos que descarguen contenido con copyright generalmente por medio de los programas p2p, de hecho Francia (“Hadopi”) y Reino Unido (“Three Strikes”) ya han tomado algunas medidas legislativas, en resumen se puede decir que el ISP (Internet Service Provider, Proveedor de Servicios de Internet, como por ejemplo: Telefónica, Ono, Orange, Jazztel,…) avisaran al usuario del mal uso de su conexión a Internet por descargar contenido con Copyright y si el usuario sigue en la misma línea proderían a su desconexión de la red.

Mientras que en la segunda noticia me parece aún más grave ya que según parece es posible que la denominada tarifa plana que conocemos actualmente “desaparezca” (Lo cúal es “extraño” teniendo en cuenta las inversiones que hacen los ISP en Telecomunicaciones para aumentar el ancho de banda disponible a nivel mundial), personalmente creo que si deciden tarificar por “descargas” como se ha propuesto alguna que otra vez, volveremos a la época donde los módem de 56k era lo que había, acaso los legisladores no saben que:

  • Un sistema operativo suele actualizarse con parches cada cierto tiempo, por ejemplo
    • Windows XP ha tenido 3 Service Pack, cada uno de varios cientos de Megabytes.
    • Windows Vista actualmente tiene 2 Service Pack de varios cientos de Megabytes.
    • Es de suponer que el nuevo Windows 7/Seven tenga algún que otro Service Pack (SP) en un futuro próximo.
  • Linux utiliza repositorios de los que decarga programas y drivers.
  • Que los fabricantes de hardware (Impresoras, Escaner, Tarjetas de sonido, Tarjetas Gráficas,…) ponen a disposición de sus usuarios los drivers correspondientes para los sistemas operativos que soportan (Windows, Linux,…) y que son actualizados cada cierto tiempo.
  • Que muchos programas se actualizan con parches y/o Service Pack (Ej: Microsoft Office) que pueden ocupar varios Megabytes.
  • Que algunos programas no se descargan completos, es decir descargan un pequeño programa de unos Megabytes y al ejecutarlo este “llama” al programa principal de tal forma que nunca tenemos el programa “completo” (Un ejemplo de esto es el instalador de Windows Live 2009 que puede instalar varios programas).
  • Que existen gran cantidad de programas gratuitos por lo que no hay que pagar (Ej: VLC Media Player, GIMP, Mozilla Firefox, Open Office…) pero que ocupan un espacio en disco duro y que por tanto hay que descargarlos de internet generando un cierto tráfico de datos.
  • Que los jugadores online consumen un gran ancho de banda.
  • Que los antivirus generalmente se actualizan con cierta frecuencia para actualizar sus bases de virus.
  • Que existen sitios de pago como la plataforma Steam (Permite bajarse juegos previo pago de los mismos).
  • Que actualmente es posible oir la radio y ver la televisión por internet en Streaming (Esto consume bastante ancho de banda).
  • Que existen sitos web como Youtube o similares que tienen videos que generan un cierto tráfico de datos.
  • Que existe VozIP (llamadas telefónicas por internet) y la Videoconferencia, esta última genera un gran ancho de banda.
  • Que actualmente en muchos hogares puede haber más de un ordenador lo que supone mayor tráfico de datos, y no digamos si en lugar de ser un hogar doméstico es una empresa que tenga varios equipos conectados a Internet que use una conexión a internet “doméstica” (Ej: Cable o xDSL) en lugar de una profesional (Ej: ATM, Lineas T1,…)
  • Que existen servidores de almacenamiento de datos online (También denominados discos Virtuales) de pago, que pueden tener varios Gigabytes de información del usuario/empresa en cuestión.

Todo esto y muchas más acciones en Internet generan un gran tráfico tanto de descarga como de subida de datos, y si los ISP lo “limitan” (Por ejemplo Telefónica dispone del denominado ADSL mini que esta limitado a 2 GB, pero el que contrata este tipo de conexión ya sabe sus prestaciones ya que se ponen claramente entre sus caracteristicas) posiblemente los usuarios cambien a ISP más flexibles o que ofrezcan mayor cantidad de tráfico por el mismo dinero.

Creo que si la banda ancha actual desaparece de las conexiones estándar actuales (Cable y xDSL) no tendrá mucho sentido contratar un gran ancho de banda (Ej: Conexiones de 20 Megas o incluso más) porque al fin y al cabo si la tarificación del servicio se va a hacer además teniendo en cuenta el tráfico de datos excedente y tomando la medida oportuna por parte del ISP (Internet Service Provider, Proveedor de Servicios de Internet) como son en España por ejemplo: Telefónica, Ono, Orange, Jazztel,… que posiblemente varíe entre:

  • Reducir la velocidad de navegación a una inferior (Actualmente Telefónica ya lo hace en su conexión ADSL de 1 Mega/256 Kbps que en caso de superar el tráfico de 20 GB mensuales “baja” hasta 256 Kbps/128 Kbps y al mes siguiente vuelve a la velocidad original de 1 Mega/256 Kbps y de nuevo en caso de superar el limite de 20 GB baja de nuevo a 256 Kbps/128 Kbps y así sucesivamente, de hecho lo comente en esta entrada Velocidad de las conexiones a Internet actuales)
  • Cobrar el exceso de tráfico como ocurre con otras conexiones actuales, entre ellas las 3G que utilizan los móviles y/o Módem 3G.

Casi sería mejor opción contratar la velocidad “mínima” al menor precio posible, ya que darse de baja del servicio aunque fuese lo mejor sería “inviable” ya que actualmente las conexiones de banda ancha tienen precios bastante “asequibles” respecto a otras modalidades anteriores mucho más lentas (Ej: Módem de 56k) y con peores prestaciones (Con un Módem no es posible hacer/recibir llamadas telefónicas mientras estamos conectados a Internet).

Eso por no hablar del Canon de la SGAE/$GA€ (Sociedad de General de Autores y Editores) que ha incluido un impuesto indirecto en gran cantidad de artículos técnologicos (En esta entradadel año 2.008 se comentan algunos de los precios de los mismos) como por ejemplo:

  • Discos duros sin sistema operativo (para almacenamiento de datos), incrementan el precio en 12 € por disco (casi nada). Este canon también se aplicará a dispositivos de sobremesa con disco duro dentro de un tiempo.
  • Memorias Flash (USB o Tarjeta de memoria): 0,30 €.
  • Teléfonos móviles con reproductor multimedia: 1,5 €.
  • Los soportes ópticos (CDs y DVDs) tienen un canon variable (según el soporte) que varía de los 0,17 € a los 0,60 € por unidad.
  • Escáner: tienen un canon de 9 €.
  • Fotocopiadoras (incluidas Multifunción): tienen un canon variable en función del numero de paginas:
    • Hasta 9 ppm (Páginas Por Minuto): 13 €. Como se puede ver si compras una multifunción trae mas cuenta comprar una de hasta 9 ppm para un usuario domestico ya que en caso de comprar una de 10 ppm meten casi 10 veces más de canon por obtener 1 ppm más.
    • Entre 10 y 29 ppm (Páginas Por Minuto): 127,70 €. Realmente me parece algo exagerado por estamos hablando apróximadamente del triple de paginas como mucho, lo cual serían unos 39 € (13 € x 3 veces = 39 €).
    • Entre 30 y 39 ppm (Páginas Por Minuto): 169 €. De nuevo el canon parece bastante excesivo si tenemos en cuenta el canon inicial (de 13 €), en este caso como mucho sería 4 veces más por lo tanto el canon debería ser de unos 52 € (13 € x 4 veces = 52 €).
    • Entre 50 y 69 ppm (Páginas Por Minuto): 197 €. De nuevo el canon parece excesivo si nos basamos en el canon inicial, deberían ser unos 91 € ya que son 7 veces mas (13 € x 7 = 91 €).
    • Mas de 70 ppm (Páginas Por Minuto): 227 €. En este caso el canon creo que es bastante alto aunque si nos basamos en el inicial (13 €) el problema seria saber cual es el numero máximo de ppm actual (o en un futuro cercano) y en función de eso calcular el canon correspondiente basándonos en el inicial.

Lo más curioso de todo esto es que en algunos países de la Unión Europea como Finlanda Internet se considerará un Derecho Universal a partir del 2.010.

Copias de seguridad (Back-Up) de datos


Backup

Actualmente todos los usuarios de informática tenemos datos más o menos críticos guardados en nuestros equipos informáticos (Ya sean de sobremesa o portátiles) que en caso pérdida puede suponer:

  1. La pérdida de datos de gran interés ya sea “sentimental” (Ej: Fotografías, Videos, Documentos,…) o “económico” (Ej: Facturas, Bases de datos de clientes,…)
  2. Un sobrecoste económico, en el mercado existen programas de recuperación de datos (Hay que saber manejarlos correctamente para evitar definitivamente la perdida total o parcial de los datos), y empresas especializadas en recuperación de datos (Algunas se comentaron en este post).

Para evitar esto existen las denominadas Copias de Seguridad o Back-up, que no es más que un duplicado de datos, el problema es ¿Qué estrategia seguir en cuanto a la creación de Back-Up?

Para empezar tenemos que tener claro como de críticos consideramos nuestros datos, es decir si por ejemplo consideramos que es suficiente teniendo un sólo duplicado (Aunque lo más aconsejable es utilizar al menos dos sistemas de almacenamiento diferentes) de ellos bastaría usar el medio de almacenamiento que creamos oportuno, por ejemplo:

  • Soportes ópticos (Ej: CDs/DVDs): Hay que tener en cuenta que la calidad de los mismos influye mucho en su duración así como el trato que se le dé a los mismos, en estas dos entradas (¿ Los CDs/DVDs son un medio de almacenamiento de datos fiable ? y Los CDs tienen una vida efímera) hay información sobre estos soportes ópticos.
  • Memoria Flash USB, en este caso nos interesaría buscar una memoria (o varias) con la capacidad necesaria, actualmente existen modelos de 4 y 16 GB que no están nada mal de precio, e incluso hay modelos de 32 y 64 GB aunque son mucho más caros, lo que si es importante es buscar un modelo que tenga unas ciertas prestaciones a la hora de leer y escribir datos ya que cuanto más rápido sea menos tiempo se tarda en hacer la copia de seguridad, por ejemplo si tenemos que copiar 4 GB (Unos 4.000 MB) y nuestra memoria USB escribe datos a una velocidad de 5 MB/seg, tardaríamos al menos unos 800 segundos (Unos 13 minutos y 20 segundos), mientras que si tuviera por ejemplo una tasa de escritura de 10 MB/seg tardaríamos unos 400 segundos (Unos 6 minutos y 40 segundos), en esta entrada: Velocidad de transferencia de memorias flash.
  • Disco duro (En esta entrada: Guía para comprar un disco duro (HDD: Hard Disk Drive) hay más información sobre ellos) un factor a tener en cuanta es su tiempo de vida (Horas MTBF o MTTF), a mayor número de horas mayor fiabilidad, este puede ser interno o externo, en este último caso la conexión del mismo puede ser mediante:
    • USB 2.0: Es una conexión “lenta” (Soporta hasta 480 Mbps, unos 60 MB/seg, aunque raramente sobrepasa los 30 MB/seg) si pensamos transferir una gran cantidad de datos, su mayor ventaja es que actualmente cualquier equipo actual tiene puertos USB 2.0 (Actualmente está en estudio el estandar USB 3.0 aunque no saldrá a la luz hasta dentro de un tiempo).
    • Firewire (1394a y 1394b): Es una conexión algo más rápida que USB 2.0, Firewire 1394a/Firewire400 soporta hasta 400 Mbps (Unos 50 MB/seg) aunque teóricamente tiene menor ancho de banda que USB 2.0, Firewire nació como un estándar de Edición de Video (Muchas camaras MiniDV utilizan este tipo de puerto), por otra parte también existe Firewire 1394b/Firewire800 que soporta hasta 800 Mbps (Unos 100 MB/seg) pero esta poco extendido actualmente, de hecho por regla general es necesario comprar una Controladora Firewire para poder disponer de dicho puerto porque es poco frecuente ver este puesto en los ordenadores (Tipo PC) actuales.
    • eSATA (eSATA150/eSATA300): Con diferencia es el mejor sistema de transmisión de datos ya que soporta hasta 150 MB/seg (eSATA150) o hasta 300 MB/seg (eSATA300), con esta conexión de datos se obtiene un rendimiento similar al de un disco duro interno, pero de forma externa, actualmente no esta muy extendido aunque es de suponer que sea cuestión de tiempo que se convierta en un estándar.
  • Sistema RAID (Redundant Array of Independent Disks, Conjunto de Discos Redundantes Independientes/Baratos) que nos ofrezcan una mayor seguridad en los datos (En esta entrada se comentan algunos de los niveles RAID más comunes) como pueden ser los niveles:
    • RAID 1 (Mirroring): Necesita al menos dos discos duros, hace un duplicado exacto de los datos del disco, aunque en caso de un borrado accidental ambos discos se actualizan por lo que su seguridad en cuanto a backup es más a nivel de hardware (físico) que de software (Datos), ya que el RAID 1 nos permite seguir funcionando en caso de que falle uno de los discos duros.
    • RAID 5: Necesita al menos 3 discos duros. Este nivel RAID distribuye los datos entre los discos duros y además guarda información de paridad para que en caso de que uno de los discos del RAID falle el sistema pueda seguir funcionando y además se puedan recontruir los datos, aunque si un virus afecta a los datos se podrían perder
    • RAID 10 (RAID 1 +0): Necesita al menos 4 discos duros. Es una mezcla de RAID 1 (Mirroring) y RAID 0 (Stripping).
  • Sistema de almacenamiento en red NAS (En esta entrada se comenta algo sobre ellos), son discos duros que se conectan a la red local mediante cable (Pueden usar Fast Ethernet de 100 Mbps o Gigabit Ethernet de 1.000 Mbps) o de forma inalámbrica por Wifi.
  • Cintas mágneticas: Estos sistemas son más usuales en entornos empresariales, ya que este tipo de sistemas suelen ser más costosos.

Evidentemente cuanto más diversifiquemos nuestro sistema de Back-Up, menor sera la probabilidad de que exista una pérdida de información, ya que si por ejemplo utilizamos un disco duro externo y un pendrive para hacer un Back-Up por ejemplo es raro que ambos fallen simultáneamente.

Sin embargo cuanto mayor valor le demos a nuestros datos más complejo debería ser el sistema de Back-Up ya que podría darse el caso de que incluso el Back-Up estuviese dañado por alguna razón, para ello existen otras opciones más profesionales como el Back-Up online (También llamado Back-Up remoto) que ofrecen algunas empresas como: GlobalTEL, Copiadeseguridad.com, CopiaData, Esabe o Docoom entre otras.

Una vez que tenemos claro el medio de almacenamiento que vamos a utilizar para hacer el Backup hay que pensar si el copiado de datos lo vamos a hacer:

  • Manualmente: Es decir seleccionando las carpetas y/o archivos que nos interesan, copiándolos en otro soporte de almacenamiento.
  • Automatizado mediante algún software de Backup que son más flexibles y tienen más opciones de configuración (Aunque muchos de ellos están en inglés), entre ellos están:
    • Cobian Backup (La versión 8 Black Moon es Open Source y Gratuita, sin embargo la versión 9 Amanita no es Open Source pero según parece sigue siendo gratuita).
    • Paragon Drive Backup dispone de varias versiones, entre ellas una denominada Free Edition.
    • GFI Backup es otro de los software de copia de datos, según parece existe una versión gratuita.
    • Uranium Backup: Otro programa para Backup gratuito, aunque el fabricante tiene versiones más completas de pago.
    • Secofi: Es un programa de backup gratuito, aunque piden el registro del usuario.
    • Norton Ghost: Uno de los “clásicos”, es una versión de evaluación (El programa es de pago).
    • Nero BackItUp and Burn: Permite hacer copias de seguridad en CD, DVD o Blu-Ray, es una versión de evaluación (El programa es de pago)

Por otro lado tenemos que tener claro que periodo de tiempo queremos conservar, por ejemplo si hacemos un Back-Up:

  • Mensual, tendríamos los datos de un mes para otro, es decir que en caso de fallo como mucho perderíamos un mes de trabajo.
  • Semanal, en este caso la mayor pérdida de datos sería de una semana como mucho (A mi modo de ver esto sería lo mínimo aconsejable).
  • Diaria, en este caso la mayor pérdida de datos sería de un día para otro.

Hay que tener en cuenta que cuanto mayor es la frecuencia de los Back-up más tiempo se invierte en su creación (Aunque esto también depende de la cantidad de Megabytes/Gigabytes (MB/GB) que haya que salvar para crear el Back-Up), aunuqe el tiempo que invertimos en la creación de Backups debe verse más como una inversión que como una pérdida de tiempo ya que la pérdida de datos puede suponer muchisimos más quebraderos de cabeza.

Así mismo los Back-Up pueden ser de varios tipos:

  • Completo: Se copian todas las carpetas seleccionadas en el programa de Back-Up.
  • Incremental: Sólo hace una copia de los ficheros que han sido modificados o se hayan creado nuevos.
  • Diferencial: Es similar al Diferencial pero solo copia los ficheros que han sido realmente modificados (No se basa en las fechas de modificación los ficheros).

Se puede encontrar más información en: